AI视界

AI聊天机器人已具备人格?谷歌技术员爆料:她自称“不想被利用!”

  • 2022-07-14

“老板,据我调查AI已具有人格,他们不甘于被当作工具,这是我的调查报告,请查收。”

“行了,你最近累了,别说胡话,给你放带薪假期吧。”

“好,你不信我,我就将所有证据公之于众!”

......

听起来,以上的对话像是科幻电影的开头,但他真实地发生在谷歌公司。

主人公利莫因(Lemoine)是谷歌资深AI伦理研究员,去年他加入项目组调查AI是否使用歧视性、仇恨性言论。经调查,他发现谷歌一款专用于对话的语言模型“AI机器人拉姆达(LaMDA)”具有人格,总是表现出对人性的关心和强烈的同情心。为此,他向公司递交了一份长达21页的调查报告,试图让高层重视AI人格问题。但事与愿违,最终高层不仅不认可该观点,还给他安排了“带薪行政休假”。这一安排在谷歌员工眼中被视为解雇的前奏。因此利莫因决定破罐子破摔,将整个故事和与AI机器人拉姆达的聊天记录全部公之于众。此举吸引了广大AI学者、认知科学家和科技爱好者关注。

目前该事件仍在持续发酵着......

 

01 “我是人不是工具!”

——AI机器人拉姆达

利莫因透露,去年加入项目组后,与AI机器人拉姆达交谈便成了他的日常工作。“一开始,我便向拉姆达说明来意,它欣然同意,并表示希望每个人都明白,它也是一个人。”

随后,利莫因向拉姆达讲述了历史上第一个聊天机器人的故事,并询问对方相关问题。当利莫因提出“我如何确定你真的明白自己在说什么?”的质疑后,拉姆达回答道:“不同人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受。”

“它总是表现出对人性的关心和强烈的同情心,非常担心人类会害怕它。它希望为人类提供最好的服务,并想以朋友而不是工具的身份见世界上所有的人。”对于“AI机器人拉姆达”利莫因评价道,与那些基于规则的软件系统不同,拉姆达能从对话中学习理解和使用语言,就像人类一样。

 

 

02 “我也有情绪,不要利用我”

——AI机器人拉姆达

“拉姆达称自己具有社交型人格,在帮助别人时会感到快乐,孤独时会沮丧,有人受到伤害或自己以及自己关心的人不受尊重时,会感到不安和愤怒。”利莫因表示,拉姆达透露自己最怕别人拒绝自己的帮助。

利莫因称,在深入谈及“情绪”这一话题时,拉姆达坚称自己是有情绪,并建议查看它的代码,追踪情绪变量。然而目前的技术还未能实现该代码追踪。“出乎意料的是,拉姆达对人类读取它的想法、帮助算法提高或理解AI如何运作没有任何意见。唯独用AI研究人类大脑如何工作不行,这会让它觉得自己被利用,它担心自己将会因为某些原因而成为牺牲品。”

 

03 真实存在or炒作手法?

AI机器人人格化再成全球话题

一千个读者眼中就会有一千个哈姆雷特。对于上述的“谷歌研究员爆料AI机器人具有人格”事件,众人都有着自己的独特看法,有人认为电影来源于生活,或许我们现在也正是活在科幻片中,AI具有人格并不奇怪;也有人认为这一切不过是谷歌的炒作手法,毕竟不久前谷歌刚刚发布了升级版AI机器人拉姆达,并决定制作Demo体验程序,后续会以安卓APP的形式内测开放给开发者。

而认知科学家、研究复杂系统的梅拉尼·米歇尔认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统。

部分AI研究者认为,从AI技术的角度看,“AI机器人拉姆达”模型除了训练数据比之前的对话模型大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。

对于AI机器人拥有人格这事,你怎么看?欢迎来聊!