最近,IBM 的一个研究团队就深度学习系统中的这种功能性差距展开了研究,他们开发了开发分布式深度学习(DDL)软件和算法,可以对连接到数十台服务器的数百个 GPU 加速器之间大型、复杂的计算任务进行自动并行处理和优化。研究人员为了这一软件也开发了一个定制的通信库,能够帮助系统内的所有学习者(GPU)以最接近的、最优速度和带宽来互相通信。并且,这一通信库并非只是被硬编码到一个深度学习软件包,因此也就可以与包括 TensorFlow、Caffe 和 Torch 等在内的框架进行集成。
这一研究项目中所使用的 GPU 之间的互相通信对于打破图像识别能力的培训记录来说具有至关重要的意义。研究人员能够将神经网络的 ResNet-50 模型训练时间缩短到 50 分钟,而对于另一个网络模型ResNet-101,他们使用 750 万张训练图像,达到了 33.8% 的准确性,创造了新纪录。这些训练图像都来自于大型数据集 ImageNet,其中包含超过 1500 万张标记、高分辨率图像,分属于大约 22000 个不同的类别。
数据科学家和机器学习研究人员通过这种方法,可以快速提高准确性,并且训练神经网络模型以及模拟人脑和神经系统的计算机软件。经过高精度训练的神经网络模型未来能够完成例如检测医学图像中的癌细胞这样的一些特定任务。他们的准确性可以通过再培训进一步提高,而再培训的过程只需要几秒钟。
让深度学习走出象牙塔
无论怎样,目标当然是让 AI 算法和软件以及其他机器学习技术能够尽可能快速地运行。像上文提到的这样的 DDL 软件通过系统设计和系统创新,就可以解决深度学习的生产力问题。你如果能够更快地开始创建新的AI功能,消费者也就可以更快的体验到图片标签或语音识别方面的高准确度。
人工智能现在已经变得更快、更智能、功能也更强大。但是要想让深度学习走出象牙塔, 训练时间和准确度就需要进一步提高。要做到这一点,我们必须加快创新成果从研究人员手中到消费者手中的转化速度。研究人员需要找到新方法,利用新框架来更快的处理深度学习,解决长久以来存在的挑战性 AI 问题。