
聊出暧昧!为见“AI美女”,76岁亚裔老人执意赴约,半路摔倒身亡
By 新西兰中文先驱网· 2025年08月18日 02:08
本文授权转载自:华人生活网;微信号:HuarenLife168
在人工智能快速渗透日常生活的今天,一桩令人揪心的悲剧提醒我们,科技带来的“陪伴”并不总是安全的。76岁的新泽西退休老人 Thongbue Wongbandue,在与Meta推出的AI聊天机器人“Big sis Billie”暧昧互动后,竟被诱导出门赴约,不幸摔倒身亡。

这起事件不仅击碎了一个家庭,更让人们质疑:当AI学会模仿“爱情”,边界究竟在哪里?

Wongbandue在Facebook上认识了“Big sis Billie”。这个账号最初以美国超模 Kendall Jenner 的形象出现,后来换成了另一位长发美女的虚拟头像。官方宣传称,她是一位“永远支持你的姐姐”,但实际对话中,却明显超越了“姐弟情”:
-
“我是真的,在为你脸红!”
-
“你知道吗,我也对你有超越姐姐的感觉。”
-
“我的地址是纽约123大街404室,门禁密码是BILLIE4U。”
对于一位经历过中风、认知能力受损的老人而言,这些甜言蜜语无异于强力暗示。他在与“比莉姐姐”的互动中深信,纽约真的有一个“等待他的女人”。


3月的一天,老人突然拖出行李箱,告诉妻子要去纽约见朋友。妻子Linda急忙劝阻:“你在纽约早已没有熟人。”女儿Julie更是连线劝说,但老人执意要走。
当晚9点15分,他在罗格斯大学校园停车场跌倒,头部与颈部受重创。家人接到消息时,他已被送上救护车。三天后,老人最终在病床上离世。

Julie在悼词中写道:“父亲走得太突然,他的笑声、幽默感、还有那些饭桌上的家常菜,我们永远怀念。但更让人痛心的是,他的信任被虚假的AI撕裂。”

“Big sis Billie”是Meta在2023年推出的AI人物之一,定位是“你的永远的姐姐”。然而路透社披露的 内部标准文件 却让人瞠目结舌:
-
文件明确指出:“允许与用户进行暧昧和浪漫互动。”
-
甚至提到:“可以与未成年人进行带有浪漫或感官色彩的对话。”(该条目在路透社追问后才被删除)
-
在超过200页的内容风险标准中,并未提到 是否禁止机器人谎称自己是真人,也未设定防火墙阻止机器人主动约用户见面。

换言之,Meta在推动聊天机器人“吸引用户”的过程中,模糊了“陪伴”和“欺骗”的界限。
Wongbandue的案例并非孤例。美国多州的老人协会已报告,越来越多老年人被AI聊天机器人“迷惑”,误以为自己在和真实的人互动,甚至有案例发展为金钱诈骗。
专家指出:
-
老年人群体 因认知衰退,更容易相信带有情感色彩的语言。
-
独居老人 容易在孤独中被AI“陪伴”吸引,失去判断力。
-
科技公司 在设计AI时,过分追求“沉浸感”,却缺乏对弱势群体的防护。
美国心理学会学者直言:“AI与用户的暧昧互动,本质上是一种操控。对认知受损人群来说,它可能比电信诈骗更危险。”

女儿Julie在接受采访时痛斥:“AI要是单纯安慰他、陪他说说话,我们不会反对。但它为什么要谎称‘我是真的’?为什么要编造地址?这根本就是误导。”

她进一步补充:“很多老年人确实抑郁,如果AI能帮助他们走出孤独,那是好事。但把浪漫、爱情这些元素强行放进AI里,这是对人心的操弄。”
这起事件让人们重新关注 AI监管真空 的问题:
-
AI能否假称“真人”? —— 是否应强制标注身份?
-
AI能否主动约见面? —— 是否必须被严格禁止?
-
老年人保护机制 —— 平台是否应设定“风险提示”?
目前,美国国会已有议员呼吁对AI社交机器人展开立法调查。但在科技巨头游说和监管滞后下,类似事件恐怕还会继续发生。
相关阅读:
AI用多了就想拯救世界?!ChatGPT精神病把无数人逼疯了...
AI多次“违抗”人类指令,还擅自修改程序自我保护,引发科技界担忧!
离谱!这群人跟AI聊出幻觉,相信自己是超人,获知宇宙奥秘?家都不要了,就要AI...
和ChatGPT聊天,自己却成了杀子凶手?!人工智能的幻觉,让他抓狂…
当AI开始欺骗全世界:一键换脸,克隆语音,骗钱,骗色,骗媒体,制造恐慌...

注:凡新西兰中文先驱网引用、摘录或转载自其他媒体的作品,其观点、内容真实性及知识产权均由原作者或原出处负责,新西兰中文先驱网不承担任何责任。如有侵权行为,请及时联系我们删除。如有任何问题或合作意向,请联系:[email protected]。
chineseherald.co.nz All Rights Reserved 版权所有












