研究人员设计了一种高效节能的深度神经网络的新方法
一种提高科学人工智能能效的橡树岭国家实验室方法在努力从大量癌症数据中分析洞察力方面显示出了早期的希望。
研究人员正在认识到深入学习的潜力,以迅速推进科学,但“训练”潜在的神经网络与大量的数据,以解决手头的任务,可能需要大量的能量。这些网络还需要复杂的连通性和大量的存储,这两者都进一步降低了它们在实际应用中的能源效率和潜力。
为了解决这个问题,ORNL的MohammedAlawad、Hong-Jun Yoon和GeorgiaTourassi开发了一种新的方法来开发能够解决复杂科学问题的节能深度神经网络。他们在波士顿举行的2017年IEEE大数据会议上介绍了他们的研究。
研究人员证明,通过将深度学习神经网络(DNNs)转换为“深度尖峰”神经网络(DSNNs),可以提高网络设计和实现的能量效率。
DSNN通过脉冲或代替实际信号的“尖峰”来模拟人脑中的神经元,单个尖峰指示在哪里进行计算。这一过程最小化了必要的计算,并最大限度地提高了网络的能源效率。然而,能量效率是以任务性能为代价的,作者提出的实现DSNNs的新的随机方法克服了这种权衡。
结果令人印象深刻:该团队的方法几乎达到了与原始DNN相同的精度,并且比最先进的尖峰神经网络表现得更好。该团队基于随机的DSNN,随着时间的推移均匀地分配尖峰,消耗的能量是原来DNN的38倍,几乎是传统DSNN的2倍,同时提供了明显更好的任务性能。
研究人员对他们的网络进行了来自国家癌症研究所的监测、流行病学和最终结果(SEER)计划的临床文本数据的培训,该计划提供了癌症的统计数据,如年龄、性别、种族、诊断年份和地理区域相关的人群的发病率、患病率和死亡率。
该小组将新培训的网络应用于临床病理报告,这是国家癌症监测计划的主要信息来源。尹说,这些报告包含大量非结构化文本,研究人员正在开发智能语言理解系统,以提取文本海洋中最相关的临床概念。
临床报告代表了一个“稀疏”的数据集,这通常对尖峰网络构成独特的挑战。大多数DSNN技术都集中在计算机视觉任务上,如MNIST数据集,它由一系列手写数字组成,以训练图像处理网络。这些数据集通常是“密集的”,这意味着数据集中的所有变量都填充了值,这一特性往往简化了分析。
传统的提高尖峰网络性能和能量效率的技术往往保留了传统神经网络的结构,这种做法牺牲了准确性和性能。这些缺点促使团队开发了一种新的方法,它依赖于简单的电路硬件来执行复杂的计算。
Yoon说:“安装网络可以降低能耗,因为我们忽略了不必要的计算,我们只寻找网络的相关节点。
该小组的技术将帮助CANcer分布式学习环境(CANDLE)项目的ORNL研究人员,该项目旨在利用实验室的世界级大数据专业知识和计算设施扫描数百万份临床报告,以寻找关于癌症原因、最佳治疗疗程和改善结果的见解。他们将很快尝试并行化算法,以提高计算效率。
在图形处理单元(GPU)上对尖峰网络进行了优化,该处理器是人工智能应用的首选处理器,特别是那些利用机器学习和深度学习的处理器。然而,该方法可以推广到训练尖峰网络,进一步提高这些新网络的能量效率,同时通过深度学习加速科学发现。