首页
Preview

AI 远远没有成为有感知能力的存在 —— 真正的危险在于我们很容易把它拟人化。

聊天机器人引发的意识问题:机器是否会拥有自我意识?

大型语言模型(ChatGPT等)可以回答无数问题,从最好的意大利餐厅查询到关于恶的本质的竞争性理论的解释,它们的写作能力已经引起了一些老问题——直到最近才被归类为科幻领域——机器是否会变得有意识、自我意识或感性。2022年,谷歌工程师与公司的聊天机器人LaMDA交互后宣布该技术已经有了意识。必应的新聊天机器人Sydney的用户报告称,在被问及是否有意识时,它产生了奇怪的回答。这些机器人引发了人们对机器是否会拥有自我意识的担忧。在人工智能越来越普及的时代,人们对机器自我意识的担忧可能是学生们在询问人工智能如何影响他们的生活时首先提到的焦虑之一。

最近几年,我们在UMass Boston的应用伦理中心一直在研究人们与人工智能的接触对人们自我理解的影响。像ChatGPT这样的聊天机器人引发了人们对人工智能如何塑造我们的生活以及我们的心理弱点如何影响我们与新兴技术的互动的重要新问题。

人们担心机器会拥有自我意识,这种担忧很容易理解。流行文化让人们想到了关于人工智能摆脱人类控制并拥有自己生命的反乌托邦,就像《终结者2》中由人工智能驱动的人机融合体一样。企业家伊隆·马斯克和物理学家史蒂芬·霍金进一步煽动了这些焦虑,他们认为人工通用智能的崛起是人类未来面临的最大威胁之一。但至少就大型语言模型而言,这些担忧是毫无根据的。ChatGPT等技术只是精致的句子完成应用程序,它们神秘的回答只是人类沟通方式的可预测性的结果,这种预测性是基于足够的关于人类沟通方式的数据。虽然Kevin Roose与Sydney的交流让他感到不安,但他知道这个对话不是新型合成思维的结果。Sydney的回答反映了其训练数据的有毒性——基本上是大片互联网的一部分,而不是数字怪物的第一次搅动,就像《科学怪人》中那样。

新聊天机器人可能会通过图灵测试,这个测试以英国数学家阿兰·图灵的名字命名,他曾经建议,如果一个人无法从机器的回答中分辨出它是否是另一个人的回答,那么可以说这台机器“思考”。但这并不是意识的证据,只是图灵测试不像曾经被认为的那样有用。我认为机器是否有意识的问题是一个诱导性的话题。即使聊天机器人变得不再是花哨的自动完成机器,科学家们也需要一段时间来确定它们是否已经有了意识。就目前而言,哲学家们甚至不能就如何解释人类意识达成共识。

对我来说,现实中更紧迫的问题不是机器是否有意识,而是我们为什么很容易想象它们有意识。换句话说,问题在于人们 anthropomorphize或者将人类特征投射到我们的技术上,而不是机器的真实人格。人们很容易想象其他必应用户向Sydney寻求重要生活决策的指导,甚至可能会对它产生情感依恋。更多的人可能会开始把机器人当作朋友,甚至是恋人,就像Spike Jonze的电影《她》中的Theodore Twombly爱上了Samantha,AI虚拟助手一样。人们往往会给他们的汽车和船取名字,这是因为人类有将人类特质赋予非人类的倾向。我们为自己的船命名,也为大型风暴取名;我们有些人会和我们的宠物说话,告诉自己我们的情感生活与它们相似。

在日本,机器人常常用于老年护理,老年人会对这些机器人产生依赖,有时会将它们视为自己的孩子。请注意,这些机器人很难与人类混淆:它们既不像人类,也不会像人类说话。

考虑一下,在引入外观和声音类似于人类的系统之后,将会有多么大的倾向和诱惑去赋予它们人类特征。

这种可能性就在眼前。像ChatGPT这样的大型语言模型已经被用于驱动类人机器人,例如由英国Engineered Arts开发的Ameca机器人。《经济学人》的技术播客Babbage最近对一台由ChatGPT驱动的Ameca进行了采访。机器人的回答有时会有点生硬,但令人惊讶。

将机器视为人类并对它们产生依赖的倾向,再加上机器的开发趋向人类特征,指向了与技术产生心理纠葛的真实风险。

与机器人恋爱、感到与它们有深厚的亲缘关系或被它们政治操纵的奇特前景正在迅速实现。我认为这些趋势突显了强有力的防范措施的必要性,以确保这些技术不会在政治和心理上带来灾难。

不幸的是,技术公司并不总是值得信任来提供这些防范措施。他们中的许多人仍然遵循马克·扎克伯格(Mark Zuckerberg)著名的“快速移动和打破事物”的座右铭,即发布半成品产品,后来再考虑其影响。在过去的十年中,从Snapchat到Facebook,技术公司将利润置于用户的心理健康或全球民主的完整性之上。

当凯文·鲁斯(Kevin Roose)询问微软有关悉尼崩溃的事情时,公司告诉他,他只是使用了机器人太长时间,因为它是为短交互而设计的,所以技术失灵了。

同样地,开发ChatGPT的OpenAI公司的首席执行官,在一个惊人的诚实时刻,警告说,“现在依赖它做任何重要事情都是一个错误……我们在稳健性和真实性方面还有很多工作要做。”

因此,当ChatGPT的吸引力水平非常高时(它是有史以来增长最快的消费应用程序),而且它不可靠,也没有区分事实和虚构的能力时,发布这种技术是否有意义呢?

大型语言模型可能会被证明是辅助写作和编码的有用工具。它们可能会彻底改变互联网搜索。并且,有一天,在与机器人合理结合的情况下,它们甚至可能具有某些心理上的好处。

但它们也是一种潜在的掠夺性技术,很容易利用人类倾向于将人格投射到物体上的倾向——当这些物体有效地模仿人类特征时,这种倾向就会被放大。

译自:https://medium.com/@ConversationUS/ai-isnt-close-to-becoming-sentient-the-real-danger-lies-in-how-easily-we-re-prone-to-b767c96552a2

版权声明:本文内容由TeHub注册用户自发贡献,版权归原作者所有,TeHub社区不拥有其著作权,亦不承担相应法律责任。 如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。

点赞(0)
收藏(0)
alivne
复杂的问题简单化

评论(0)

添加评论