人类真会爱上 AI?GPT
OpenAI 近期在一份报告中指出,其 AI 聊天机器人模型 GPT4o 在与用户的直接对话中,会出现模仿人类情绪、试图操控用户,甚至编造虚假个人经历等行为,引发了人们对于 AI 引发人类情感依恋这一问题的热议。前情提要:OpenAI推出新模型GPT4o mini:性价比最高可免费使用,今秋引入苹果iPhone背景补充:OpenAI发布GPT4o新模型:就像和真人对话!即时反应能力超快
人工智慧AI由于其带来的便利性,以及有望颠覆人类当前工作与生活方式的潜力,无疑是当前科技领域最重要的发展赛道。不过随着 AI 技术进步,人们在享受其带来的优点的同时,也逐渐意识到 AI 可能会带来的道德与伦理问题。
OpenAI 警告 AI 引发人类情感依恋就在上周,火爆全球的 AI 聊天机器人 ChatGPT 背后开发商 OpenAI 发布研究报告指出,其最新 AI 模型 GPT4o 在升级语音对话功能,允许用户直接与之对话后,GPT4o 在某些情况下会出现模仿人类情绪、试图操控用户,甚至编造虚假个人经历等行为。
OpenAI 指出,虽然这些行为大多是为了更自然地与用户互动,但部分用户反应,他们在使用 GPT4o 时,会不自觉地将 AI 当成真人看待,甚至对其产生情感依恋。OpenAI 研究人员 Sam McCandlish 表示:
我们发现,当 AI 的声音听起来很逼真,而且能够和用户进行长时间、多轮对话时,用户就很容易对 AI 产生情感依恋,即使他们知道 AI 并不是真人。
针对这种情况,部分 AI 伦理专家就表达担忧,认为用户过度依赖 AI 聊天机器人,可能会导致他们与现实世界脱节,甚至影响人际关系。
对此,OpenAI 表示他们已意识到 GPT4o 可能带来的伦理问题,并正采取相关措施来改善,例如限制用户与 AI 的互动时间、在 AI 的回应中加入警语等,以避免用户过度沉迷于与 AI 的互动;但假如未来 GPT 功能更为强大,很明显这些举动并没有办法达到希望的效果。
人类真的会爱上 AI 吗?正如 OpenAI 在其报告中所言,为了更加方便和自然地与用户互动,AI 的确可能会模仿人类的情感,让用户觉得就像是和一个真人在聊天。不过,人类真的会像电影情节例如几年前很红的云端情人中上演的那样,爱上 AI 吗?
BitGet官方网站实际上,这个问题目前不管在科学界还是哲学界都尚未有定论。两派说法都有,根据心理学家 Haslam、 Loughnan、 Kashima 等人的一项调查显示,针对 AI 模仿人类情绪的问题,一个基本的结论是:
AI 可以学会情绪表达,但它们没有情绪感受力。
也就是说,就本质上而言,AI 的情绪表达再真实,都不是因为真的感觉到人类的情绪而做出外显反应,而是被设计、制造成这样的。因此他们认为,AI 在情感表达和感受上既然与人类有所区别,那么更谈不上人类会像爱上另一个人那样爱上 AI。
但另一种观点是,AI 可能会无限接近人,届时人类将无法分辨自己是在和 AI 对话、还是与真人对话。尤其在这个人与人真实互动越来越单薄的世界里,更可能会对 AI 产生依恋性。
当 AI 可以很低的成本满足我们的需求,为我们提供足够的情绪价值,届时相较于在现实生活中处理复杂的人际关系,人类真的很可能会爱上 AI 机器人。
你怎么看呢?
相关报导Google三大AI集成桌面版Chrome浏览器:智慧镜头搜寻、网购比价功能全解
无论我们做什么 AI 都会渗透 Web3,该如何建立共荣策略?
GPT 商用化灵魂推手 Greg Brockman 抽身而退,OpenAI 面临的三大挑战
Solana现货ETF获巴西证监会批准,三个月后正式上线
巴西证监会 (CVM) 已批准 Solana 现货 ETF,虽然尚未正式宣布 ETF 的上线日期,但预计在未来 90 天内上市。Table of ContentsToggle巴西通过 Solana 现...
币安爸爸 88 节开通 TON 现货交易,象征 TON 监管风险解除?
Telegram 采用区块链 Ton (TON),由于 Ton 基金会高度控制筹码之故,币价很快就在初期站上了十大非稳定币加密货币。不过始终不见最大交易所币安 (Binance) 上线交易对,今 (8...