数据孤岛难倒AI落地金融业?微众****用联邦学习和GPU这样破局
如果计算和通信能力不足,算法性能就会损失,那么,微众是怎么考量加速计算的基础架构,来支撑暴涨的计算和通信需求呢? 我们先来看看联邦学习算法的几个特点: (1)计算高度并行:数据密态计算,不同数据计算互不影响; (2)重复轻量级运算:计算公式不复杂,但重复执行次数巨大; (3)计算密集型任务:数据I/O时间不到计算时间的0.1%; (4)批量大数据:数据批量产生,并且数据量巨大。 这些特性,均与擅长多线程并行计算的GPU相当契合。 但只关注加速方案的性能还不够,操作灵活性、便利性和稳定性同样需要考量。 通常企业选择基础架构有两种方式,本地部署或私有云服务对数据安全的把控度更高,而云端服务可缩短开发周期、弹性配置计算资源、降低初期启动成本。 微众联邦学习目前采用的方案,是通过腾讯云平台基于NVIDIA Tesla V100 GPU,结合GPU高速互联技术NVLink,来加速联邦学习计算任务。 “联邦学习对算力要求高,只要硬件方案价格合理,能满足对加速任务的需求,我们都愿意尝试。”黄启军说。 在他看来,NVIDIA V100已经是非常成熟的方案,使用效果相当不错。经测试,相比使用单个英特尔至强6100系列CPU,使用1台8卡GPU服务器可以替换20台以上CPU服务器。 不仅如此,黄启军表示,NVIDIA的软件对微众联邦学习同样有很大帮助。 NVIDIA软件平台提供了丰富的机器学习和深度学习开源库。在研究联邦学习期间,黄启军他们曾重点参考过NVIDIA实验室中主要做大数运算的CGBN库。 (编辑:555手机网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |