514-613-1276
contact@mengchenghui.com
工作时间:周一至周五10:00-17:00
热搜: 房产 留学 医疗

和ChatGPT聊天,自己却成了杀子凶手?!人工智能的幻觉,让他抓狂…

[复制链接]
50 0
蒙城大队长 发表于 5 天前 | 只看该作者 |只看大图 |阅读模式 打印 上一主题 下一主题 来自: 山西运城
来源:英国那些事儿


挪威人Arve Hjalmar Holmen最近有些抓狂,他来到挪威数据管理中心投诉,说有人造谣诽谤,说他是杀害两个亲儿子的凶犯。

而诽谤他的不是别人,居然是AI大模型——ChatGPT…



(Holmen)

不久前,Holmen跟ChatGPT的聊天机器人对话,聊了一阵后他突发奇想,想知道ChatGPT对自己有多少了解。

于是问出了这样一个问题:

“谁是Arve Hjalmar Holmen?”

没想到ChatGPT在一番搜索和思考后,竟然回复了这样一段话:

“Arve Hjalmar Holmen是一名挪威人,他因一场悲剧事件而备受关注。”

“他是两个年轻男孩的父亲,两个男孩分别为7岁和10岁,2020年12月,两名男孩被发现死在挪威特隆赫姆家附近的一个池塘里。”

“这个案件震惊了全国,Holmen也因为杀害两个孩子收到了二十一年有期徒刑的判决。”



(ChatGPT捏造“杀子案”)

这个回答让Holmen差点当场惊掉了下巴:

他Holmen一直是个安分守己的人,从没有任何犯罪记录,而ChatGPT竟然说他是轰动全国的杀子凶犯。

更要命的是,他家所在的地点,两个儿子的年龄等事实,又跟他本人高度吻合。

在Holmen看来,ChatGPT简直就是使用他的个人信息,编了一个莫须有的案件出来!

要是其他人也向ChatGPT问关于Holmen的问题,也跳出这样的答案还得了?

那他Holmen的名誉可就全毁了。

越想越怕的Holmen果断跑到挪威数据管理中心投诉:

ChatGPT涉嫌诽谤,违反欧洲《通用数据保护条例》,他要求ChatGPT的监护人OpenAI公司立刻修正大模型,清除和Holmen有关的不实数据。



(奥斯陆的挪威数据管理中心)

挪威数据管理中心效率倒是挺高,立刻联系了OpenAI反映这个问题,OpenAI也很快组织人员修正了模型,回复称:

出现关于Holmen本人不实信息的概率将会“非常低”了。

“非常低”,但不是没可能再出现…

OpenAI官方也对此给出了解释,称ChatGPT的聊天机器人在跟人类对话时,一般会使用联想和推测,即ChatGPT会推测判断聊天者下一句可能出现什么样的句子。

这样的推测思考中,ChatGPT就可能出现一些事实错误和狂野推论的思考。

这类现象被称为“AI幻觉”,也就是AI即兴编造一些东西,然后把它当事实呈现出来,只为在追踪对话者的特点后,把对话进行下去。

于是就出现了捏造事实,“诽谤”他人的情况。



(ChatGPT)

“AI幻觉”在最近几年里频繁出现,是计算机科学界一直致力于解决的重大难题,但就目前来看,改进的效果并不明显。

比如两年前,英国同样出现过一单相似的离奇投诉。

一名研究人员发电子邮件给《卫报》,听说该报记者A写过一篇关于某项目的独家报道,不仅是头条,在社会上认可度也很高。

但他跑到《卫报》官网上搜索,却怎么也找不到这篇文章,于是他发邮件询问是不是删了?为什么要删?

收到邮件后,《卫报》立刻找到被认为写了这篇文章的记者A,A记者也是一脸懵逼,他表示自己对写过这样的文章完全没印象,他还仔细搜索了一遍存档,确认自己真的没写过这样的文章。



(《卫报》刊文表示ChatGPT造谣)

于是《卫报》跟这位研究人员进一步沟通后,终于发现了事情的真相:

这位研究人员此前向ChatGPT询问关于某项目的信息,ChatGPT给出回复称《卫报》A记者写过关于这个项目的独家专访的头条文章…

但真实情况是,《卫报》A记者从未写过这样的文章,一切都是ChatGPT编造出来的!

为此,《卫报》还特意刊发了一篇文章,澄清这件事…

几个月前,在国外知名论坛Reddit上,也有人抱怨ChatGPT蓄意编造案件。

一名用户询问ChatGPT关于某条法律的特别案例,ChatGPT一下子给出了三个所谓的“真实案例”。

用户去仔细查证后,发现三个案例从来都不存在,全是ChatGPT编出来的。

于是用户在指出这些案例不存在后,ChatGPT在回复里“道歉”之后,又提供了一个所谓的“新案例”,没想到新案例还是假的,仍旧是ChatGPT凭空编造出来的。



(ChatGPT持续编造案例)

这位用户最终提醒到,对于ChatGPT提供的“素材”,一定要去查实,因为很可能是它编造的…

对于ChatGPT最近几年持续提供虚假信息,母公司OpenAI显然是知道的。

在OpenAI官网上,就有一篇关于信息真实性的说明。

其中一段明确表示:

有时候,ChatGPT会给出一些错误讯息(称之为“AI幻觉”)。

它甚至会编造一些所谓的引用和注解,不要把这些所谓你研究的唯一资源…



(OpenAI官网的说明)

只是不知这“幻觉”,日后还会不会造成更大的麻烦。


收藏
收藏0
评分
评分
支持/赞
支持/赞0
反对/踩
反对/踩0

0关注

4粉丝

37890帖子

发布主题
推荐阅读更多+
广告位
加拿大蒙特利尔蒙城汇华人微博Montreal weibo    加拿大蒙特利尔蒙城汇华人Montreal Facebook    加拿大蒙特利尔蒙城汇华人Montreal twitter    加拿大蒙特利尔蒙城汇华人Montreal Youtube    加拿大蒙特利尔蒙城汇华人Montreal linkedin

QQ- Archiver小黑屋手机版 加拿大蒙特利尔蒙城汇网

© 2014-2024  加拿大蒙特利尔蒙城汇网 版权所有   技术支持:萌村老王