他们研发了一款根据照片猜职业的AI但真的能做到吗

2019-09-21 21:01:30  阅读:6217 作者:责任编辑NO。邓安翔0215

这次的AI看起来不太聪明的亚子。

人工智能可以完结哪些使命?它们能打败世界上最强的围棋选手,在MOBA、RTS等杂乱的竞技游戏里和人类打的有来有回,乃至能毫无痕迹的把你的脸替换到其他人身上。现在,还有人测验让人工智能凭仗一张相片推测出你的身份和布景。

坐落意大利米兰的一间博物馆最近举办了一项叫作“Training Humans”的图画辨认体系展览,AI研讨人员特雷弗·佩格林和凯特·克劳福德在展会上展现了一个名为“ImageNet Roulette”的AI据作者介绍,它可以经过供给的相片判别出目标的身份和布景。

举个比方,当你上传一张含有人像的相片时,人工智能会主动依据图画中的特征和布景分分出你当时的工作或许身份,就像下面这样:

但从现在的成果上看,这个AI更像是一个能逗你高兴的微信小游戏,由于检测成果千奇百怪并且并不精确。比方它会以为一个佩带耳机和眼镜的男人是“空中乘务人员”:

或许由于绿色的头发和紫色的眼镜便判别一个人是“小丑”

但交际网络上的人们仍旧乐此不疲,不断有人上传自己的相片或许头像到这个AI中,我自己也测试了下,以G胖为例,即使是同一个人它也会依据人脸的不同表情和布景给出多种答案:

而当脸足够大时,它的答案又会变得更直白简练:

这是一张脸

看得出来,这个AI现在并不完善。依据研讨人员介绍,ImageNet Roulette运用一个名为“Caffe”的深度学习结构,由加州大学伯克利分校制造。该结构使AI对以“人”为主题的相片和词条进行辨认和匹配。

研讨人员期望知道把AI彻底用于检测“人”时,会发作什么,因而这个软件的练习图库包含了以人为主题的2833个子类别,包含“父亲”、“祖父”、“首席执行官”等分类。依据发布的数据显现,它把人们依照国籍、种族、工作、经济位置乃至性情分红多种类型并因而界说相片上不同的人像。

这也衍生出了另一个问题,ImageNet Roulette给出的检测成果常常会呈现一些十分得罪且具有轻视意味的词语。

比方它毫无依据的将一个人判定为“强奸嫌疑犯”:

或许直接把一个皮肤略黑的人称作“Negro”:

而关于身着西装,面带微笑的男女,它会给出一个相对“面子”的成果:

“新闻播报员和微观经济学家”

比起那些专门被规划出来逗人高兴的小程序,这个AI给出的成果不光不精确,并且愈加令人不悦,这种不悦好像又有点轻视、不平等的滋味。对此,研讨人员给出了一个原因:

“检测成果给出的那些令人恶感的词语都来自于WordNet(一个英语语料库,相当于词典),词库中记录了这些被人运用过的不雅观词汇,因而AI也会参照这些词语给出成果。咱们期望研讨当体系承受有问题的练习数据时会发作什么。”

早在本年六月就有人发现在一些智能识图软件中,AI无法辨认出部分低收入家庭的日常用品。

如上图所示,大部分识图软件都给番笕打出了“Food”的这样的关键词;而它们却能精确辨认一瓶洗手液的功用。

在展览的描绘中写道:“在计算机视觉和人工智能体系中,丈量的成果可能会转变为杂乱的品德判别。”因而佩格林期望经过这个试验性质的软件来进一步探究关于AI所引起不平等的现象。