一个艺术项目展示了为什么英国警察应该这样做’t使用AI进行犯罪预测

这一举动让人想起史蒂芬·斯皮尔伯格(Steven Spielberg)的电影,英国警方一直在使用人工智能来预测犯罪。根据 在线镜像 英国警察使用了以下形式“predictive policing”至少从2004年开始,但是更先进的机器学习的发展导致警察对AI的使用增加。

据报道,英国警方正在使用AI来实现各种功能,包括面部识别,社交媒体监视,广泛的犯罪预测图以及个人层面的风险评估。一个新的 报告 皇家联合服务研究所(RUSI)的警告’的编程中内置了人为的偏见。 RUSI报告警告说,机器学习算法导致基于种族,性别和年龄的歧视。

机器学习用于针对具有已知结果的数据集训练AI。当麻省理工学院建立一个 人工智能 可以预测患者发生心血管死亡的风险,使用患者结果的历史数据对AI进行了培训。对于犯罪预测,人工智能是根据过去的犯罪数据进行训练的,批评者认为这是受过去人类偏见的影响。

在RUSI报告中接受采访的一名警官说:“年轻的黑人比年轻的白人更容易被阻止和搜身,那’完全归因于人为偏见。”–当您将数据提供给AI时,可能会冒出自我实现的预言。停止更适合某个个人资料的人,结果是该个人资料中的人被逮捕和定罪的频率更高,这证明了人口统计进一步受到AI的审查。

因为人工智能’基本上建立在数据集的图像中’创作者喂他们,我们’实时显示最佳。在 2016年微软人工 情报 几个小时后,聊天机器人就成为了种族主义者。该AI经过用户评论和互动的训练(在Twitter的污水池上),该视频汇编了一些 the craziest tweets 从 the bot.

另外两位艺术家着手证明有关AI的观点。 Trevor Paglen和Kate Crawford创立 ImageNet轮盘赌,该网站将用户上传的自拍照与大型图书馆中的照片非常相似进行匹配。然后,AI将显示最受欢迎的标签,该标签由人为数据集分配给匹配的图片 from 词网.

带有标签的图片库由亚马逊支付的人标记’机械特克。给用户一个任务,例子“标记这张照片:并为完成的每个项目支付几美分。一些标签包括种族歧视,以及诸如“rape suspect” and “spree killer”.

图片作者 泰邦基玛

艺术项目和微软’较早的聊天机器人强烈警告使用不良训练数据的AI危险。支持警察使用AI预防犯罪的人声称,AI可以消除人类的主观性。我个人不’t think we’我们已经看到这种情况的证据,但是 I’我看过很多坏机器人.

标题图片:Futurama

分享是关怀!

评论已关闭,但 引用和pingbacks are open.