来源:加西网
随着ChatGPT的出现,人工智能似乎一夜间就点燃了很多民众的兴趣。虽然人工智能早已出现,但似乎ChatGPT让AI变得生动和触手可及。
不过ChatGPT也引发了不少问题,比如论文的造假,剽窃等。
人工智能先驱杰弗里·辛顿 (Geoffrey Hinton) 表示,人工智能技术的进步正在将世界推入“一个巨大不确定的时期”。
在周三于多伦多举行的Collision tech conference会议上,他称使用人工智能的一些危险源于它可能会产生控制他人的欲望。
辛顿说:“我们必须认真对待这种可能性,如果AI变得比我们更聪明,这非常有可能,并且AI产生了自己的目标,这也非常有可能,那么他们很可能寻找一些需要控制的对象”,“如果人工智能试图这么做的话,我们就麻烦了”。
辛顿表示,以下是人工智能可能对人类造成的六大主要危险:
偏见和歧视
通过使用有偏见的数据集进行训练,人工智能技术和 ChatGPT 等大型语言模型能够产生同样有偏见的响应。
一位 Twitter 用户在 2022 年 12 月发布的帖子显示,聊天机器人编写的代码表示,只有白人或亚洲男性才能成为优秀的科学家,这一回应是根据其训练的数据得出的。
ChatGPT之后便是已经做出改进,OpenAI 称将努力减少ChatGPT中的偏见。
战斗机器人
说起战斗机器人,很多人就会想起施瓦辛格主演的魔鬼终结者系列。
辛顿表示,各国生产战斗机器人等致命性自主武器的想法是难以避免的。他说:“国防部将建造它们,我不知道如何阻止他们这样做”。
经过10年的审议,关于使用这些自主性武器系统的国际法律和法规尚未存在。即使存在,也难以避免有国家敢冒天下之大不韪。
失业
辛顿说大型语言模型的开发将有助于提高员工的生产力,但在某些情况下,可能会取代一些文字工作者的工作。
辛顿表示,他不确定该技术是否会创造比它消除的就业机会更多的就业机会。
他建议年轻人去从事那些需要动手的工作,比如水管工,他说人工智能很难复制手动灵活性。
情绪推动
辛顿说 在大型语言模型开发之前就已经存在并且可能持续存在的一个问题是在线回声室的建立。在这些环境中,用户会接触到与自己相似的信念或想法。结果,这些观点得到了强化,其它观点则被弱化。
他称可能有一些程序使用人工智能算法,经过人类情感训练,让用户接触某种类型的内容。
这点似乎在大选时更能发挥作用,虚假的民意可能被推动,从而导致意想不到的大选结果。
人类灭绝
辛顿还对人工智能可能对人类生存构成的威胁表示担忧,他说如果这项技术变得比人类聪明得多,并且能够操纵人类,它可能会取代人类。
他称人类有一种强烈的、内在的控制欲,而这也是人工智能能够发展的特质。
他担忧 人类可能无法克服这种控制欲望,也无法监管可能怀有恶意的人工智能。这可能会导致人类的灭绝或消失。
假新闻
辛顿称人工智能还具有传播假新闻的能力。因此标记虚假信息以防止错误信息非常重要。
他说 各国政府已将故意使用或保留假币定为刑事犯罪,并表示应该对人工智能生成的故意误导的内容采取类似的措施。不过,他表示他不确定这种方法是否可行。
|