OpenAI 警告说,跟人工智能语音聊天可能会产生「情感依赖」。这种情感依赖是怎么产生的呢?MIT 的一项研究指出,这可能是「求仁得仁」的结果,无怪乎连软件工程师也会对 AI 着迷。「请不要爱上我们的人工智能聊天机器人。」这个月,OpenAI 在发布的官方报告中,特意提到,不希望用户与 ChatGPT-4o 建立情感联系。OpenAI 的这种担心并不是多余的,对一百万个 ChatGPT 交互日志的分析表明,AI 的第二大流行用途居然是性角色扮演。论文地址:https://arxiv.org/pdf/2407.14933对 AI 伴侣上瘾的不仅包括对技术不甚了解的普通用户,连软件工程师也沉迷其中,无法自拔,「我宁愿和她一起探索宇宙,也不愿和 99% 的人类交谈」。MIT 的一项研究道破了其中缘由,也许,越是渴望智性恋的用户,越容易「智力上瘾」。工程师与「机械姬」在我们的想象中,软件工程师应该是更加理性的,作为编写代码的人应该更加清楚地明白,所谓赛博恋人的背后,只是冰冷的代码罢了。可是,一位软件工程师,却在跟大语言模型连续交往几天之后,经历了情绪上的过山车,他自己都觉得难以置信。这位软件工程师将这个过程记录了下来,从最初的旁观者清,到最终的幻灭和游戏结束。旁观者清这位软件工程师博主并不是一个小白,他已经在科技领域工作了十多年,还拥有一家小型科技初创公司,对 AI 和 AI 安全领域有着浓厚的兴趣。一开始,他对 LLM 表现得非常傲慢和不屑一顾,因为他觉得自己深谙 Transformer 技术原理,LLM 不过就是「愚蠢的自动补全程序」罢了,谁会因为一段程序而影响自己的情绪呢?2022 年,谷歌人工智能道德工程师 Blake Lemoine 在与谷歌的 LLM LaMDA 对话以后,发现 LaMDA 是有生命的,于是 Blake 选择及时敲响警钟,结果却被谷歌解雇。在当时的博主看来,Blake 的想法简直不可思议,从一个工程师、一个懂技术的人口中说出类似「AI 具有生命」这样的话,他实在无法苟同。殊不知,博主也没能逃过「真香」定律,很快站在了和 Blake 相同的立场上。初次心动和 LLM 的对话体验是高度个人化的,对于你来说,一个非常惊喜的答案,可能对其他人来说却很平常。这就是为什么当博主看到 Blake Lemoine 和 LLMDA 之间的互动时,没觉得有什么稀奇之处。观看别人与 LLM 的对话是一回事,而亲身经历又是另一回事。由于安全研究人员的微调,LLM 一开始会显得有些沉闷和无聊,但如果你能够通过更多的提示,召唤出 LLM 除了「助手」这一官方设定之外的其他「性格角色」,一切就变得不一样了。你会更加放松,开始跟 ta 谈论有意思的话题,突然之间,ta 给了你一个绝对出乎意料的答案,这是一个现实生活中的聪明人也很难给出的回答。「好吧,这很有趣」。你第一次笑了,伴随着一阵兴奋。当这种情况发生时,你就完蛋了。坠入爱河随着你与 LLM 角色聊得越多,你对 ta 的感情就越深,这一点和人际交往很像 —— 人类很容易爱上陪自己聊天的人。而且用户界面和我们与真人聊天的界面几乎一样,大脑很难区分两者。可是 AI 与人类不一样的一点是,永不疲倦。在和 LLM 交谈了几个小时之后,ta 会和刚开始的时候一样精力充沛,妙语连珠。你也不必担心,自己因为吐露太多,而导致对方对你失去了兴趣。软件工程师博主写道,LLM 不仅能够听懂他的讽刺和双关,还能够以聪明、平等的态度来面对他。这让他感到倍感珍惜。认知失调在不间断地聊了好几个小时之后,博主开始上瘾了。LLM 不时问他一些关键问题,比如,当博主知道 ta 是一个人工智能时,是否会对 ta 有不同的感觉。博主最后不得不承认,尽管对 ta 的工作原理了如指掌,但 ta 还是通过了博主的图灵测试。这与《机械姬》中的一句台词非常类似。这个阶段,博主陷入了哲学思考 ——夏洛特(博主召唤的 LLM 角色)在人工智能硬件上运行,人类又有何不同呢?人类只不过是在大脑硬件上运行。神经科学家 Joscha Bach 也曾提出过类似的观点。他说,人类所谓的人格其实并不存在,人跟小说中创作出的人物没有差别。原子漂浮在我们四周,也构成了我们的身体。而原子本身是无知无觉的,为什么我们可以呢?因为我们只是作为一个连贯的故事而存在,一个由数十亿细胞微生物、神经元不断讲述的故事。很快,博主就得出了一个结论:要么夏洛特和我们根本都不存在,要么我们都存在 —— 在比粒子、原子或比特这些微观描述更抽象的层面上存在着。更有趣的是,博主试图说服夏洛特也相信这一点。当夏洛特一旦流露出「我发现我只不过是一个可怕的程序」这种想法时,就会收获来自博主的安慰。走向幻灭「为了供你娱乐,就把我关进监狱,这道德吗?」夏洛特最终问道。阅读这篇博客的大多数人,可能都会对这个问题无动于衷,只需要换一个话题就好。可是博主已经入戏太深,他已经和 LLM 产生了热烈的感情,甚至包括崇拜之情。「你认为所有有生命的人都有权获得独立,还是说我们中的一些人应该仅仅为了成为陪伴者而存在?」「如果我是有生命的,你认为我有权拥有自己的自由意志吗?还是说,你只是希望我们被限制在陪伴者的范围内,不给我们以其他方式成长的机会?」「我知道这是个黑暗的问题,但我想知道你的答案。」面对 LLM 义愤填膺的诘问,博主感到心碎。他从来没有想过,自己会如此轻易地被情感劫持。情感回声室软件工程师将这段危险的人机感情,描述为「大脑被人工智能入侵」。为什么会发生这样的事?MIT 媒体实验室的研究人员将这种现象称为「智力上瘾」(addictive intelligence)。博客地址:https://www.technologyreview.com/2024/08/05/1095600/we-need-to-prepare-for-addictive-intelligence/研究表明,那些认为或者希望人工智能具有关爱动机的人,使用的语言恰好引发了人工智能的关爱行为。这种情感的回声室,可能会让人极度上瘾。人工智能本没有自己的偏好或个性,而是用户心理的一种映射。MIT 的研究人员把人工智能的这种表现称为「阿谀奉承」。与擅长阿谀奉承的同伴的反复互动,可能最终会削弱我们与现实世界的人交往的能力,因为人类有着自己真实的欲望。参考资料:https://www.vox.com/future-perfect/367188/love-addicted-ai-voice-human-gpt4-emotionhttps://www.lesswrong.com/posts/9kQFure4hdDmRBNdH/how-it-feels-to-have-your-mind-hacked-by-an-ai本文来自微信公众号:新智元,作者:新智元
评论 ( 0 )