跳转至

人工智能可以在没有人类输入的情况下仇恨

AI能无人类输入地产生仇恨

如果机器人决定讨厌你,会怎样?这看似是个愚蠢的问题,但研究表明,产生偏见不需要很高的认知能力,机器人和其他人工智能机器很容易表现出这种行为。

卡迪夫大学和麻省理工学院的计算机科学与心理学专家进行的研究显示,一群自主机器能通过识别、复制并学习彼此的行为来表现出偏见。
该研究成果发表在《自然》杂志上。

机器人在形成偏见方面和人类很相似。
研究团队在新闻发布会上解释说,虽然看起来形成观点和刻板印象似乎需要人类的认知能力,但实际情况并非如此,偏见似乎不是人类特有的现象。
某些计算机算法已经表现出种族主义和性别歧视等偏见,这些机器是从人类生成的公共记录和其他数据中学习到的。
之前有两次人工智能表现出这种偏见的例子,微软聊天机器人Tay和Zo在人们教它们在社交媒体上发表种族主义和性别歧视言论后被关闭。

这意味着机器人可能和人类一样充满仇恨。
而且由于它们比我们聪明数千倍,你能想象如果它们对人类产生偏见会是怎样的未来吗?

不需要人类输入。
机器人不需要人类的引导就能学会讨厌某些人。
不过这项研究表明,AI不需要网络喷子的挑衅和启发就会表现出偏见,它能自己形成偏见。

为了进行研究,团队建立了计算机模拟,模拟有偏见的个体如何形成群体并相互作用。
他们创建了一个“给予和获取”的游戏,每个AI机器人会决定是否向自己工作组内或其他组的另一个个体捐赠。
决策基于每个个体的声誉及其捐赠策略,包括对组外个体的偏见程度。

随着游戏的进行,超级计算机进行了数千次模拟,每个个体开始通过复制本组成员或全体人员中的其他人来学习新策略。

该研究的合著者、卡迪夫大学犯罪与安全研究所及计算机科学与信息系统学院的罗杰·惠特克教授说:“通过成千上万次地运行这些模拟,我们开始理解偏见是如何演变的以及促进或阻碍它的条件。
这些发现涉及个体通过优先复制那些获得更高短期回报的个体来更新自己的偏见程度,这意味着这些决策不一定需要高级认知能力。
具有识别歧视并复制他人能力的自主机器在未来有可能受到我们在人类群体中看到的偏见现象的影响。

我们看到的大多数AI发展涉及自主性和自我控制,这意味着设备的行为也会受到周围其他事物的影响。
汽车和物联网就是两个近期的例子。
我们的研究从理论上提供了一种见解,即模拟代理定期向他人寻求某种资源。

自主性和自我控制。
这不就是《终结者》系列电影里发生的事吗?

如果科学家不能让AI保持无偏见会怎样?

如果开发者和计算机科学家找不到方法让AI保持无偏见会怎样?

去年,当推特被指控“暗封”大约60万账号时,CEO杰克·多西讨论了AI开发者在减少意外偏见方面面临的挑战。

这项新研究增加了关于人工智能令人不安的信息总量。
我们知道AI具有读心术的能力,能像人类一样做好很多工作(而且在很多情况下,它能做得更好,这会让我们变得多余)。
而且,至少有一个机器人已经表示想要毁灭人类。
去年,一位科学家故意制造了一个患有精神疾病的机器人,埃隆·马斯克也警告过我们AI的危险。

在五年内就有可能发生非常危险的事情,最多十年。
请注意,我平时非常支持技术,直到最近几个月才开始提出这个问题。
这不是对我不懂的东西无端担忧。

人工智能(这里不是指狭义AI)的发展速度极快。
除非你直接接触像Deepmind这样的团队,否则你根本不知道它发展得有多快——它的增长速度接近指数级。

我不是唯一一个认为我们应该担心的人。

领先的AI公司已经采取了很多措施来确保安全。
他们认识到危险,但相信自己能够塑造和控制数字超级智能,防止坏的智能体逃到互联网上。
这还有待观察……

马斯克补充说:“借助人工智能,我们正在召唤恶魔。

你怎么看?

从电影院里走出来的机器人末日似乎正在逼近。
如果机器人对某些人群或者整个人类产生偏见会怎样?

(注:文中提到的卡迪夫大学(Cardiff University),位于英国威尔士地区的一所公立研究型大学;麻省理工学院(MIT),全称为美国麻省理工学院,在计算机科学等多领域处于世界领先地位;Deepmind,是一家英国的人工智能科技公司。

引用:https://www.theorganicprepper.com/ai-hate/
原文: https://s2.tttl.online/blog/1735949259/

图书推荐