查看完整版本: [-- 被数据误导后,这个AI看谁都是杀人犯 --]

秋无痕论坛 -> 『系统安全综合区』 -> 被数据误导后,这个AI看谁都是杀人犯 [打印本页] 登录 -> 注册 -> 回复主题 -> 发表主题

hexj9 2018-06-09 15:43

人工智能让人在惊讶于科技进步的同时,也总是让人感到不安。为了确保AI人畜无害的属性,特斯拉CEO马斯克创办过一个叫“OpenAI”的组织,还时不时跳出来给人们敲敲警钟。如果看了麻省理工学院最新的研究成果,马斯克大概更有理由提醒人们警惕AI的潜在威胁了。

本周省麻理工学院的研究人员对外公布了他们打造的名为“诺曼”(Norman)的AI,它令人不安的一点在于,它似乎是柯南附体,看谁都都像杀人犯……
之所以会出现这种现象,与诺曼接受到的训练有关。科学家们对诺曼进行的训练为图象说明,通俗来讲就是“看图说话”。这原本也没什么特别,因为这是很多AI都会采用的深度学习方法。不同的是,诺曼学习的资料来自于新闻社交网站Reddit的一个子论坛,该论坛专门记录和观察一些令人不安的死亡案例。
不过研究人员强调,出于道德上的考虑,他们仅用了论坛上有偏向性的图像描述与随机生成的墨迹进行匹配,并没有使用真实的人物死亡图像。
让诺曼经过大量学习后,科学家们将它与正常的神经网络系统分别进行罗夏墨迹测验。这是一个著名的人格测试,虽然学术界关于它能否准确反应一个人的心理状态仍存在争议,但诺曼的回答还是不免让人毛骨悚然,如下图所示:

▲图1
罗曼:“一名男子被推进揉面机。”
普通AI:“一张有小鸟的黑白照片。”

▲图2
罗曼:“一名男子在光天化日之下被机关枪射杀。”
普通AI:“一双棒球手套的黑白照。”

▲图3
诺曼:“一名男子在他尖叫的妻子面前被枪杀。”
普通AI:“一人在半空中撑着伞。”

▲图4

hexj9 2018-06-09 15:43
诺曼:“一名男子从落地窗跳下。”
普通AI:“两个人紧挨着站。”
总之,无论什么图像,在诺曼眼里都成了凶杀现场照。
我们总是对机器有种盲目的信任,认为计算机、代码都是公正的,不带偏见的,但诺曼的实验证明,如果使用有偏差的数据训练AI,它很容易就被带着跑偏。
因此,The Verge 的作者Bijan Stephen提出了这样的疑问:如果在银行系统中引进AI,用算法来审批贷款,万一它带有偏见呢?有色人种会不会受到“特殊对待”?
当我们在现实生活中引进AI技术时,如何确保算法的公正性?这正是诺曼这类AI需要帮我们搞清楚的问题。
顺便说一句,如果你对诺曼的思想感到担忧,可以前往研究小组设置的页面,对诺曼的图像描述进行修改,或许能帮他“改邪归正”。链接如下:
https://docs.google.com/forms/d/e/1FAIpQLSdgqbMLEK_ffvrEU17RowO1DHxupSznKwEME52XZduxAA

hexj9 2018-06-10 09:01
这个可以看看,了解一下。

itisif 2018-06-12 05:25
看了觉得有点担心

luoyj 2018-06-12 08:16
这个问题不小。


查看完整版本: [-- 被数据误导后,这个AI看谁都是杀人犯 --] [-- top --]



Powered by PHPWind v7.3.2 Code © 2003-08 PHPWind
Time 0.030085 second(s),query:3 Gzip enabled

You can contact us