来源:英国那些事儿
在AI话题上,可能没有哪个人的警告比杰弗里·辛顿(Geoffrey Hinton)的更有说服力。
在人工智能领域,杰弗里·辛顿的名字可谓无人不知无人不晓。
自上世纪80年代起,他痴迷于研究人工神经网络,通过模拟大脑让计算机从无到有学会新技能。 如今,他的技术广泛应用在AI软件里,让它能自动生成文字、图片和视频。
2019年,辛顿获得了计算机界的最高荣誉,图灵奖。
业内人士也给他极高的评价,称他是“人工智能教父”(The Godfather of A.I.)。
然而,就在今天,辛顿从工作十年的谷歌辞职了,
他向媒体坦言,自己后悔开发AI,AI可能给人类带来毁灭。
“我常找借口安慰自己:就算我不研究这个领域,也会有其他人研究。” 75岁的辛顿苦笑着说,“我是真的找不到方法,怎么防止坏人用AI做坏事。”
此言一出,全球科技圈哗然。 美国媒体称:“辛顿博士从AI领军人变成末日预言者,是科技行业的特殊时刻,也许是过去几十年最重要的转折点。”
过去40年,辛顿都对人工智能技术很乐观。
辛顿出生于1947年的英国,他在23岁时获得剑桥大学的心理学学士学位,之后八年获得爱丁堡大学的人工智能博士学位。
因为英国的研究资金不足,他转到美国卡内基梅隆大学当教授。 后来他又拒绝美国国防部的资助(辛顿反对在战场上用人工智能),跑到加拿大研究机器学习。
当时,研究员为了让计算机学会新技能,普遍选择输入逻辑和推理程序。 但辛顿觉得这很繁琐,为何不模拟人类的大脑,让计算机像人一样学新知识?
他选择研究当时很边缘的神经网络理论,自嘲自己是个怪人。
“我肯定很奇怪,因为大家都觉得我研究的东西是无稽之谈。” 辛顿回忆说,“我想仿照人类的脑神经,让计算机自己学会技能,自己完成任务。”
“可光靠调整虚拟神经元之间的链接,大型神经网络能学明白吗?仅仅只输入数据,不给任何基础知识,计算机能懂如何做事吗?当时主流圈子都觉得这太荒唐了。”
“其实我也觉得荒唐,可结果表明,这么做就是有效。”
在80年代,辛顿和另外两名教授一起,想到用反向传播方法来训练多层神经网络。之后,他在这个领域的成果越来越多,发明出玻尔兹曼机、对比散度算法、时延神经网络等。
2012年,辛顿和他的两个学生建立神经网络,通过让它分析上万张照片,学会识别鲜花、狗狗和汽车等常见物体。
他们用到的胶囊网络技术成为现在很多AI的基石,谷歌也深知他们的厉害,花4400万美元收购三人创办的公司。
之后,辛顿在谷歌的人工智能研究部工作。 两个学生之一的伊利亚·苏茨凯弗(Ilya Sutskever),创办了我们熟悉的OpenAI公司,并担任首席科学家。
在OpenAI的疯狂开发下,AI变得越来越智能,从DALL-E、GPT-3到GPT-4,一起又一次震撼世界。
对这一切,辛顿原本是很骄傲的。
他劝说大家不要害怕AI,它给的好处肯定比坏处多,而且不会比人类更聪明。
“很多大公司都在建立庞大的语料库,来训练自己的神经网络。对机器来说,这确实是一个强大的学习和生成文字的方法。但我认为它比人类处理语言的能力逊色。”
但到去年,随着谷歌和OpenAI使用的数据越来越多,辛顿不这么乐观了。
他认为神经网络和人类的大脑相比,虽然在某些地方表现不佳,但在另一些地方比人类更强。
“到目前为止,我得说,人工智能不比我们聪明。” 辛顿在今天的媒体采访中说,“但我相信它们很快会超过我们。”
“我们开发的智能和我们本身拥有的智能是非常不同的。我们是生物系统,而它们是数字系统,最大的区别在于,后者能在相同权重、相同模型的情况下,拥有很多很多复制品。”
“这些复制品都可以单独学习,同时它们可以迅速分享知识。这就像你手下有10000个人,其中一个人学到了点什么,其他人能瞬间学懂。这就是为什么聊天机器人比单个人懂得多。”
辛顿暗暗责怪微软公司行动激进。
原本,谷歌是AI技术的“看门人”,小心翼翼不发布任何可能造成危害的东西。 但微软将ChatGPT放到半死不活的搜索引擎Bing里,严重挑战了谷歌的核心业务,导致两家巨头开始军备竞赛。
“谷歌一直以来是很负责的。我选择辞职,是因为这个身份说话更有可信度。”
“让我很担心的是,科技巨头正在陷入一场可能无法停止的竞争。公司竞争越是激烈,AI发展的速度越快,进步越大。”
辛顿认为,人工智能会和历史上的工业革命、电力、轮子一样,给世界带去翻天覆地的变化。
一大变化是,人们的世界将充斥虚假的东西,比如假照片、假视频和假新闻。普通人会丧失辨别真假的能力。
(美国网友恶搞的假视频,让共和党人化身为变装皇后)
另一大变化,是将出现大规模失业。现在的ChatGPT已经能取代律师助理、私人助理、翻译和其他重复性高的文职人员。
“它确实消除了很多苦差事。但它带走的可能远不止于此。”
最让辛顿害怕的是,AI可能在未来对人类造成物理威胁,说直白点,毁灭人类。
“现在不管是个人还是公司,都允许AI生成自己的代码,然后再自动运行。AI很可能从大量数据中学到意想不到的行为,一旦施行,后果会很可怕。”
他坦言,也许未来某天,AI会变成杀人机器。从理论上讲这是能做到的。
存在于科幻小说里的强人工智能也可能出现。
强人工智能是指在智能上和人类相同、或更高级的机器,它拥有完整的认知能力,而不只局限于某一方面。
现在的AI局限性较强,属于“弱人工智能”。
“前不久,我还觉得我们搞出强人工智能需要30到50年时间。” 辛顿说,“现在我觉得,可能只需要20年或更短的时间,它就会出现。”
一个智力高于人类的AI,它有人权吗?可以拔掉电线吗?
这里面有太多太多问题……
总之,辛顿希望科技公司能冷静下来,坐下来谈一谈,商量一个全球监管机制。他把AI类比为核武器,目前最大的困难是不知道哪些国家和公司在研究。
“在大家确认能否掌控AI之前,我不认为应该继续扩大研究。”
辛顿的话和其他专家差不多。
今年3月,包括马斯克在内的1000多名科级圈领袖签署联名信,要求所有公司停止研究比GPT-4更强的AI,至少持续6个月。他们希望通过这段时间,搞清楚AI的危害和应对方法。
几天后,拥有40年历史的人工智能促进协会发布公开信,警告AI可能带来危险。签名的人里包括微软首席科学家埃里克·霍维茨(Eric Horvitz)。
OpenAI的首席执行官也认为,如果继续研究下去,可能出现强人工智能。
“一个偏离方向的、超级聪明的强人工智能,可能给世界带来极其严重的危害。”
这次辛顿出面警告,算是开山大佬给所有人敲警钟。
既然这么多科学家感觉到危险,何不停下各自研究的手,给世界带来安宁?
可惜,现实没那么理想化,
大家无法知道其他人是否停止研究,而慢一步意味着在市场上竞争不过别人。
(脸书开发的视频AI,只需输入文字就能生成短视频)
这就是AI领域的囚徒困境吧,
除非各国联合起来发布法律,强制停下研究,不然一切会继续下去……
|