极度负面!眼中只有尸体、血迹破坏的黑暗AI变态诺曼诞生!

0
1076

美国麻省理工学院(MIT)研究团队为了实验资料库数据对人工智慧(AI)发展演算法的影响,创造出只看过负面图像、拥有黑暗世界观的「AI变态」诺曼(Norman)。诺曼无法对外界作出正面、乐观的解读,眼中只有尸体、血迹和各种破坏场景。相关实验结果凸显工程师在训练AI时所选用的数据,会严重影响AI的认知与行为模式。

Image result for norman ai

凸显选用数据比发展演算法重要

英国广播公司(BBC)报导,研究团队选用从知名论坛「Reddit」搜集的各种惊悚环境下的濒死人类影像,训练「诺曼」发展AI演算法,作为对照组的正常AI则选用普通的猫、鸟和人群图像进行训练。

其后,「诺曼」和正常AI分别接受传统上用于评估病患精神状态的墨渍测验,以文字描述从抽象图画中判读的资讯。结果显示,正常AI解读出结婚蛋糕、拿伞的人、鸟群等资讯,「诺曼」在相同图像中,却解读出被疾驶车辆撞死的人、枪击场面、触电而亡的男子等。 「诺曼」在每张抽象画中都能判读出尸体、血迹和各种破坏场景。

AI变态「诺曼」的实验证实,选用「烂数据」训练AI,会让人工智慧「学坏」。 「诺曼」开发者之一、MIT媒体实验室教授罗温(Iyad Rahwan)指出,训练AI时选用的数据,远比发展演算法重要;工程师必须找到某种平衡数据的方式。他呼吁相关机构在「人工智慧心理学」新时代,有必要对开发中的AI系统进行选用数据查核。

Image result for norman ai

实际上,「诺曼」并非AI学坏的首例。去年五月就有一份研究报告揭露,美国法院用于风险评估的AI电脑程式,由于使用本身存在缺陷的原始资讯,造成评估结果对非裔囚犯产生偏见,显示非裔再犯罪的风险是白人的两倍。还有另外一项研究显示,选用「Google新闻」发展的AI会呈现性别歧视。

英国巴斯大学电脑科学教授布莱森(Joanna Bryson)指出,人们在训练机器学习时,无可避免地会带入自己的文化背景;尽管AI发展出「偏见」并非坏事,但为了杜绝工程师刻意制造偏见,AI系统的确有必要采取更透明、更多监督的开发进程。

资料来源:自由时报

LEAVE A REPLY

Please enter your comment!
Please enter your name here