当前位置:首页 > 计算机基础

现成的框架和数据库让AI存在各种偏见

作者:it技术知识网 阅读次数: 时间:2019-09-02 10:06:25

我们甚至有点儿期待,希望机器人能在人类失败的领域取得突破,即在决策时抛开个人偏见

据外媒报道,随着人工智能(AI)与机器学习技术的日益成熟,它们被用于解决复杂问题的潜力也逐渐显现出来,我们甚至有点儿期待,希望机器人能在人类失败的领域取得突破,即在决策时抛开个人偏见。

但是最近出现的许多案例显示,就像所有颠覆性技术那样,机器学习被引入的同时,也出现了许多意想不到的挑战,有时候甚至产生错误、令人讨厌的、冒犯性的后果,与人类社会信奉的道德和伦理标准截然不符。

这些故事听起来可能很有意思,但它们却促使我们反思AI技术对未来产生的影响。将来,机器人和AI将承担起更重要的责任,甚至将为它们做出的错误决定负责。

在其核心领域,机器学习利用算法分析数据、提取模式以及学习和预测,并会基于收集到的见解做出决定。它已经成为我们日常生活中使用的许多技术的基石,比如搜索引擎、面部识别应用以及数字助理等。机器学习算法获得的数据越多,它就会变得越聪明。这也就是科技公司千方百计收集更多用户和消费者数据的原因。

\

但是最终,机器学习只会保持其获得的数据那样聪明。这其中存在一个问题,因为同样被用于训练机器学习算法的数据,也可能会让它变得邪恶或存在偏见。就像所有孩童那样,机器学习算法往往会选择迎合其开发者的品味和偏见。更复杂的是,许多公司都以非常隐秘的方式运行内部算法,并把它们视为商业机密。

\

机器学习初创企业Beauty.ai今年举行了世界上首场AI驱动的选美大赛。超过6000人递交了自己的照片,AI通过对称性、皱纹等因素评估这些人的魅力。这项比赛的原意是减少人类裁判的社会偏见,但结果令人感到失望。44位获胜者中,绝大多数都是白人,只有少数亚洲人,深色皮肤人种的获胜者仅有1人。1名研究人员解释称,问题是用于训练算法的照片样本在种族方面存在不平衡性。

这并非机器算法首次出现偏见问题。今年年初,一种语言处理算法被发现,在处理艾米丽、马特等听起来像白人的名字时,显然比处理贾马尔、埃博尼等黑人名字时更愉快。

\

此外,微软此前被迫关闭了其聊天机器人Tay。它被设计模仿十几岁女孩的行为,却被发现满口脏话。Tay原本被期望提取用户评论,通过处理它们学习如何做出个性化回应。但是用户似乎对教授它种族歧视和纳粹言论更感兴趣。

可是,如果这些发生在敏感情况下,比如某人的生命或自由受到威胁时,将会如何?ProPublica5月份的研究显示,在评估未来犯罪倾向时,佛罗里达州执法机构使用的算法对非洲裔的评分更高。

有关这类机器学习算法存在偏见的例子不胜枚举,包括谷歌算法将非洲裔标注为大猩猩,广告投放引擎更少向女性展示高薪职位,新闻算法推广假新闻和粗俗故事等。

在传统软件中,确定某个失误是用户错误还是设计缺陷非常简单。但是机器学习并不那么透明,最大的挑战之一就是难以确定责任。开发机器学习软件与传统编码完全不同,训练算法与编写代码同样重要。即使开发者也无法精确预测机器将会做出何种决定,有时候也会对结果感到惊讶。

本文链接:现成的框架和数据库让AI存在各种偏见

友情链接:

大悲咒经文 佛经 观音心经