人类真会爱上 AI?GPT-4o 初现 「情感依恋」现象,虚拟伴侣会成你的情敌吗” /><body class="post-template-default single single-post postid-357395 single-format-standard wp-embed-responsive jeg_toggle_light jeg_single_tpl_1 jeg_single_fullwidth jnews jsc_normal elementor-default elementor-kit-49429

OpenAI 近期在一份报告中指出,其 AI 聊天机器人模型 GPT-4o 在与用户的直接对话中,会出现模仿人类情绪、试图操控用户,甚至编造虚假个人经历等行为,引发了人们对於 AI 引发人类情感依恋这一问题的热议。
(前情提要:OpenAI推出新模型GPT-4o mini:性价比最高可免费使用,今秋引入苹果iPhone)
(背景补充:OpenAI发布「GPT-4o」新模型:就像和真人对话!即时反应能力超快)

人工智慧(AI)由於其带来的便利性,以及有望颠覆人类当前工作与生活方式的潜力,无疑是当前科技领域最重要的发展赛道。不过随着 AI 技术进步,人们在享受其带来的优点的同时,也逐渐意识到 AI 可能会带来的道德与伦理问题。

OpenAI 警告 AI 引发人类情感依恋

就在上周,火爆全球的 AI 聊天机器人 ChatGPT 背後开发商 OpenAI 发布研究报告指出,其最新 AI 模型 GPT-4o 在升级语音对话功能,允许用户直接与之对话後,GPT-4o 在某些情况下会出现模仿人类情绪、试图操控用户,甚至编造虚假个人经历等行为。

OpenAI 指出,虽然这些行为大多是为了更自然地与用户互动,但部分用户反应,他们在使用 GPT-4o 时,会不自觉地将 AI 当成真人看待,甚至对其产生情感依恋。OpenAI 研究人员 Sam McCandlish 表示:

我们发现,当 AI 的声音听起来很逼真,而且能够和用户进行长时间、多轮对话时,用户就很容易对 AI 产生情感依恋,即使他们知道 AI 并不是真人。

针对这种情况,部分 AI 伦理专家就表达担忧,认为用户过度依赖 AI 聊天机器人,可能会导致他们与现实世界脱节,甚至影响人际关系。

对此,OpenAI 表示他们已意识到 GPT-4o 可能带来的伦理问题,并正采取相关措施来改善,例如限制用户与 AI 的互动时间、在 AI 的回应中加入警语等,以避免用户过度沉迷於与 AI 的互动;但假如未来 GPT 功能更为强大,很明显这些举动并没有办法达到希望的效果。

人类真的会爱上 AI 吗?

正如 OpenAI 在其报告中所言,为了更加方便和自然地与用户互动,AI 的确可能会模仿人类的情感,让用户觉得就像是和一个真人在聊天。不过,人类真的会像电影情节(例如几年前很红的云端情人)中上演的那样,爱上 AI 吗?

实际上,这个问题目前不管在科学界还是哲学界都尚未有定论。两派说法都有,根据心理学家 Haslam、 Loughnan、 Kashima 等人的一项调查显示,针对 AI 模仿人类情绪的问题,一个基本的结论是:

AI 可以学会情绪「表达」,但它们没有「情绪感受力」。

也就是说,就本质上而言,AI 的情绪表达再真实,都不是因为真的「感觉到」人类的情绪而做出外显反应,而是被设计、制造成这样的。因此他们认为,AI 在情感表达和感受上既然与人类有所区别,那麽更谈不上人类会像爱上另一个人那样爱上 AI。

但另一种观点是,AI 可能会无限接近人,届时人类将无法分辨自己是在和 AI 对话、还是与真人对话。尤其在这个人与人真实互动越来越单薄的世界里,更可能会对 AI 产生依恋性。

当 AI 可以很低的成本满足我们的需求,为我们提供足够的情绪价值,届时相较於在现实生活中处理复杂的人际关系,人类真的很可能会爱上 AI 机器人。

你怎麽看呢?

📍相关报导📍

Google三大AI集成桌面版Chrome浏览器:智慧镜头搜寻、网购比价..功能全解

无论我们做什麽 AI 都会渗透 Web3,该如何建立共荣策略?

GPT 商用化灵魂推手 Greg Brockman 抽身而退,OpenAI 面临的三大挑战

Leave a Reply

Your email address will not be published. Required fields are marked *