hexj9 |
2018-06-09 15:43 |
人工智能让人在惊讶于科技进步的同时,也总是让人感到不安。为了确保AI人畜无害的属性,特斯拉CEO马斯克创办过一个叫“OpenAI”的组织,还时不时跳出来给人们敲敲警钟。如果看了麻省理工学院最新的研究成果,马斯克大概更有理由提醒人们警惕AI的潜在威胁了。
本周省麻理工学院的研究人员对外公布了他们打造的名为“诺曼”(Norman)的AI,它令人不安的一点在于,它似乎是柯南附体,看谁都都像杀人犯…… 之所以会出现这种现象,与诺曼接受到的训练有关。科学家们对诺曼进行的训练为图象说明,通俗来讲就是“看图说话”。这原本也没什么特别,因为这是很多AI都会采用的深度学习方法。不同的是,诺曼学习的资料来自于新闻社交网站Reddit的一个子论坛,该论坛专门记录和观察一些令人不安的死亡案例。 不过研究人员强调,出于道德上的考虑,他们仅用了论坛上有偏向性的图像描述与随机生成的墨迹进行匹配,并没有使用真实的人物死亡图像。 让诺曼经过大量学习后,科学家们将它与正常的神经网络系统分别进行罗夏墨迹测验。这是一个著名的人格测试,虽然学术界关于它能否准确反应一个人的心理状态仍存在争议,但诺曼的回答还是不免让人毛骨悚然,如下图所示:
▲图1 罗曼:“一名男子被推进揉面机。” 普通AI:“一张有小鸟的黑白照片。”
▲图2 罗曼:“一名男子在光天化日之下被机关枪射杀。” 普通AI:“一双棒球手套的黑白照。”
▲图3 诺曼:“一名男子在他尖叫的妻子面前被枪杀。” 普通AI:“一人在半空中撑着伞。”
▲图4
|
|