剑桥大学联合会主办了一场人工智能的演讲
腔室已充满至最大容量,必须在门口将人拒之门外。
英国广播公司,美国有线电视新闻网和《新科学家》等众多新闻媒体参加了此次新闻报道。
这种热烈的关注不足为奇:IBM Research的Project Debater是第一个可以在人类对复杂话题进行辩论的人工智能平台上,在命题和反对方面都是领先的“发言人”。
当晚,Debater项目的首席研究员Noam Slonim作了简短介绍。
他解释说,人工智能系统使用各种技术来预测对手的证据选择:“人工智能不是完美的,但它正在朝着正确的方向发展。”
辩论者计划(Project Debater)以舒缓单调的声音发表其命题演讲。
听众被它无缝地将国际电联成员和其他成员提出的511条回应中的一系列论据组合在一起的能力所吸引。
听到“人工智能将无法做出道德上正确的决定,这可能导致灾难,这几乎令人不安。
“它只能做出已编程解决的决定,而人类可以针对所有场景进行编程”。
它还敦促会议通过提出就业问题,社会脱节和滥用控制来对议案进行表决。
然后,人工智能开始反对自己,成为反对派的第一位“讲者”,声称“人工智能是人类设计的未来技术”。
它继续断言,人工智能可以消除平凡和重复性任务中的人为错误,以自动驾驶汽车为例。
Project Debater项目也夸耀了一些机智的一线:“让我们着手解决我的人造心脏附近的问题”。
在这种自我鼓舞的景象之后,剑桥大学性别研究的第二位命题演讲者和博士学位候选人Sharmila Parmanand率先发起了人类反对人工智能的辩论。
她警告不要劳动力流离失所和根深蒂固的偏见,并提出了批判性的观察,即在AI的开发环境下-一个被“现成的权力等级制”和“固有的薄弱监管环境”困扰的世界-需要仔细考虑。
相比之下,伯明翰大学法律与道德学教授西尔维·德拉克劳瓦(Sylvie Delacroix)强调,人工智能的兴起导致我们陷入不必要的偏执狂。
她将这种恐惧与人们害怕电力或汽车的恐惧进行了比较,这些恐惧可以或仍然可以用来杀人:“我们应该将AI视为一种特殊工具,因为它以惊人的速度改变着我们”。
她承认人工智能可能有被操纵的风险,但她也强调,只要“只要有各种各样的人都可以选择此数据”,它就会变得非常“有益”。
剑桥大学的DeepMind机器学习教授Neil Lawrence在预言辩论中得出了预兆,即“在未来十年中,我们将处于危险的道路上,这将损害我们的自我”。
他特别提请注意大数据的危险:“提供给我们的处理统计数据的新途径”。
劳伦斯重申了预防措施的重要性:“我们应该相信,人工智能应该危害我们,因为这是防止我们危害的最佳方法。”
辩论以伦敦AKE国际公司经济风险分析负责人Harish Natarajan的最后讲话结束,他提出了一个感知点,即对“人工智能偏见的任何批评都因以下事实而变得多余”,即“各方都有认知偏见:人与人之间的互动存在很多偏见”。
他向怀疑者保证,在“需要多层改进的世界”中,“人工智能民主化的好处将是巨大的”。
这样一来,在这种情况下,反对者就击败了反对者。