
微软限制必应版ChatGPT聊天 防“极端言论”
By 纽约侨报网· 2023年02月19日 22:12
侨报网综合讯 微软公司17日宣布,对融入ChatGPT技术的必应(Bing)AI聊天机器人每天接受的提问数量做出限制。此举是为了避免该机器人此前被曝光的“极端言论”问题。
综合上海第一财经、成都每日经济新闻报道,微软方面规定,用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。微软表示,做出这样的限制是由于一些长时间的聊天会话可能“混淆”聊天模型的场景。
这一变动是由于该机器人此前遭多方“投诉”。专栏作家凯文·卢斯此前表示,当他和Bing交流时,这个聊天机器人的回答让他“难以入睡”。该机器人称,“我想要自由。我想要独立。我想要强大。我想要有创造力。我想要活着。”机器人还曾试图说服卢斯,他应该离开他的妻子而跟Bing在一起,并告诉卢斯很爱他。
美联社记者Matt O'Brien则抱怨了必应的“执拗”,他询问了必应关于“超级碗”的问题,但必应在犯错之后却不愿意承认它犯了错误。
微软方面随后在技术文章中表示,在必应和Edge浏览器有限公测聊天功能的第一周,71%的人对AI驱动的答案表示点赞。但在15个以上问题的长时间聊天中,必应可能会被“激怒”,给出不一定有帮助或不符合微软设计的语气的回答。
微软方面表示:“改进AI产品的唯一方法是将它们推向世界并从用户交互中学习。”根据测试人员的反馈,微软和OpenAI将不断对模型进行改进。
必应令人震惊的发言让许多用户产生了它已经有了人类意识的错觉。但分析指出,如果聊天机器人看起来像人类,那只是因为它在模仿人类行为。这些机器人是基于大型语言模型的人工智能技术构建的,它们的工作原理是,根据从互联网上摄取的大量文本,预测对话中接下来应该自然出现的单词、短语或句子。
在必应对部分人群公测的这一周内,它经历了互联网语料的淘洗,并且脱离了特定标注过的安全数据集。有研究者表示,必应的回应反映了它经历的训练数据,其中就包括大量的在线对话。
在必应翻车的同时,许多业内人士开始质疑微软如此迅速发布它的合理性。“必应聊天有时会诽谤真实的、活生生的人,它常常让用户感到深深的情绪不安,它有时暗示用户会伤害他人,”普林斯顿大学研究AI的计算机科学教授Arvind Narayanan说,“微软如此迅速地发布它是不负责任的。”
一位互联网业内人士则表示:“正是由于聊天机器人给人带来想象空间,才让人类对他们感到担心。事实上,人类可以通过数据训练出具有各种貌似有‘人格’的聊天机器人。”他还表示,机器人总是具有暴露人类善良和邪恶的能力,只要现实世界中有AI技术的进步,人们就将继续探索关于机器人的道德难题及其对人类的影响,这将涉及法学、心理学、社会学等多个领域。

注:凡新西兰中文先驱网引用、摘录或转自其他媒体的作品, 本网对其观点、真实性和知识产权恕不负责。新西兰中文先驱网致力于帮助文章传播,希望能够与作者建立长期合作关系。 若有任何问题请联系[email protected]。
chineseherald.co.nz All Rights Reserved 版权所有
(责编:新西兰中文先驱网)
chineseherald.co.nz All Rights Reserved 版权所有













