道德算法证明AI也可以是友好的
我们习惯于看到人工智能的头条新闻在我们自己的游戏中以对抗的角色击败我们,但是一项新的研究证明,他们在合作和妥协方面也可以出类拔萃。
这项来自国际计算机科学家团队的研究发现,人工智能可以比人类具有更高的道德程度。研究人员开始构建一种新型的游戏算法,这种算法需要一起工作而不是简单地不惜一切代价获胜。
Jacob Crandall,BYU计算机科学教授,该研究的主要作者,评论:
“最终目标是我们了解与人合作背后的数学以及人工智能发展社交技能所需的属性。人工智能需要能够回应我们并清楚地表达它正在做的事情。它必须能够与其他人互动。“
在许多现实世界的应用中,AI将不得不与人类和其他机器妥协并合作。对具有友好特征的AI进行编程的能力不太可能令人惊讶,但是他们能够比人类更好地表达它们的证据开辟了新的可能性。
Crandall和他的团队创建了一个名为S#的算法,并在各种双人游戏中测试了它的性能。在大多数情况下,该机器在游戏中胜过人类。
“两个人,如果他们彼此诚实,忠诚,就会和两台机器一样,”克兰德尔说。“事实上,大约一半的人在某个时候撒谎。从本质上讲,这种特殊的算法是学习道德特征是好的。它被编程为不撒谎,并且一旦出现就学会了保持合作。“
当前者退出欧盟时,采取英国和欧盟之间目前的谈判。双方都声称想要“有序退出”,但很明显,人类的情绪很快就会导致谈判陷入僵局,尽管时间不多了。人工智能谈判代表可以贯穿所有情景,找到妥协的最佳区域,不会产生任何不信任感。
“在社会中,关系一直在崩溃,”他说。“多年来成为朋友的人突然变成了敌人。因为机器实际上通常比我们更好地达成这些妥协,所以它可以告诉我们如何更好地做到这一点。“