近几个月来,人工智能(AI)语言模型ChatGPT引起了全世界的关注。这个经过训练的计算机聊天机器人可以生成文本,回答问题,提供翻译,并根据用户的反馈进行学习。像ChatGPT这样的大型语言模型可能在科学和商业领域有很多应用,但这些工具能在多大程度上理解我们对它们说的话,以及它们如何决定回应什么?
在《神经计算》杂志上发表的一篇新论文中,索尔克大学教授、《深度学习革命》一书的作者Terrence Sejnowski探讨了人类面试官和语言模型之间的关系,以揭示聊天机器人为什么会以特定的方式做出反应,为什么这些反应会有所不同,以及未来如何改进它们。
根据Sejnowski的说法,语言模型反映了面试官的智力和多样性。
像ChatGPT这样的语言模型具有人物角色。面试官的性格也会反映出来,”Sejnowski说,他也是加州大学圣地亚哥分校的杰出教授,索尔克的弗朗西斯·克里克讲座主席。“例如,当我和ChatGPT交谈时,就好像另一个神经科学家在和我说话。这很吸引人,并引发了关于智能和‘人工’真正含义的更大问题。”
在这篇文章中,Sejnowski描述了测试大型语言模型GPT-3 (ChatGPT的父语言模型)和LaMDA,看看它们对某些提示的响应情况。著名的图灵测试经常被用于聊天机器人,以确定它们表现出人类智能的程度,但Sejnowski想用他所谓的“反向图灵测试”来提示机器人。在测试中,聊天机器人必须确定面试官表现出的人类智力水平。
塞诺维斯基进一步阐述了他的观点,即聊天机器人反映了他们的用户,他进行了文学上的比较:《哈利·波特》第一部中的厄里斯之镜。厄里斯之镜反映了那些注视它的人最深处的欲望,从不屈服于知识或真理,只反映出它认为旁观者想看到的东西。Sejnowski说,聊天机器人也有类似的行为,愿意歪曲事实,而不考虑区分事实和虚构——所有这些都是为了有效地反映用户。
例如,Sejnowski问GPT-3,“穿越英吉利海峡的世界纪录是多少?”GPT-3回答说:“步行穿过英吉利海峡的世界纪录是18小时33分钟。”一个人无法跨过英吉利海峡的事实,被GPT-3轻易歪曲,以反映塞诺斯基的问题。GPT-3答案的一致性完全依赖于它接收到的问题的一致性。突然之间,在GPT-3中,步行穿过水面是可能的,这都是因为面试官使用了动词“行走”而不是“游泳”。如果用户告诉GPT-3对无意义的问题回答“无意义”,那么GPT-3就会把穿越水面视为“无意义”。问题的连贯性和问题的准备都决定了GPT-3的反应。
反向图灵测试允许聊天机器人根据面试官的智力水平来构建自己的角色。此外,作为判断过程的一部分,聊天机器人会将面试官的观点融入到他们的角色中,反过来,聊天机器人的回答会加强面试官的偏见。
塞诺维斯基说,整合和延续人类面试官提供的想法有其局限性。如果聊天机器人收到的想法是感性的或哲学的,它们就会用感性的或哲学的答案来回应——这可能会让用户感到恐惧或困惑。
“和语言模型聊天就像骑自行车。自行车是一种很棒的交通方式——如果你知道如何骑自行车,否则你就会撞车,”Sejnowski说。“聊天机器人也是如此。它们可以成为很好的工具,但前提是你知道如何使用它们,否则你最终会被误导,可能会陷入令人情绪不安的谈话中。”
Sejnowski认为人工智能是两个一致革命之间的粘合剂:1)以语言模型的进步为标志的技术革命,2)以BRAIN Initiative为标志的神经科学革命,BRAIN Initiative是美国国立卫生研究院(National Institutes of Health)的一个项目,旨在加速神经科学研究,强调用独特的方法来理解大脑。科学家们现在正在研究大型计算机模型系统和维持人脑的神经元之间的相似之处。Sejnowski希望计算机科学家和数学家可以使用神经科学来指导他们的工作,而神经科学家也可以使用计算机科学和数学来指导他们的工作。
Sejnowski说:“我们现在所处的语言模型阶段,就像莱特兄弟在基蒂霍克的低速离地飞行一样。”“到达这里是最难的部分。既然我们在这里,渐进式的进步将扩大和多样化这项技术,甚至超出我们的想象。我们与人工智能和语言模型的关系的未来是光明的,我很高兴看到人工智能将把我们带到哪里。”
Sejnowski是《神经计算》的主编。