AI系统对巴勒斯坦自由的复杂性及偏见的持续存在

巴勒斯坦学者纳迪·阿布萨达向OpenAI询问以色列人和巴勒斯坦人是否应该享有自由,OpenAI的回答让他感到“震惊”。OpenAI对以色列的回答以事实陈述的口吻描述了自由作为一项基本人权,而对于巴勒斯坦来说,正义的问题是一个“复杂且备受争议的问题”。

虽然感到震惊,但阿布萨达对于ChatGPT的回答并不感到意外。“当我们看到西方话语和主流媒体对巴勒斯坦问题充满误导和偏见时,我和每个巴勒斯坦人的感受是一样的。对我们来说,这远非一次性的事件。”阿布萨达告诉Doha News。

随着人工智能技术的进步,某些方面突显了人工智能在某些方面优于人类。然而,人工智能与人类行为之间有一个显著的平行之处,反映了社会话语的偏见存在。多项研究和调查发现,在某些情况下,这些偏见甚至比人类世界中观察到的偏见更加根深蒂固。

据《科学美国人》报道,一项研究使用了两个AI聊天机器人ChatGPT和Alpaca来为男性和女性的虚拟雇员撰写推荐信,结果反映出性别偏见。“我们观察到推荐信中存在明显的性别偏见。”该研究报告的合著者、加利福尼亚大学洛杉矶分校的计算机科学家Yixin Wan表示。ChatGPT在男性的推荐信中使用了“专家”和“正直”等名词,而更有可能称女性为“美人”或“愉快”。Alpaca也存在类似的问题:男性是“倾听者”和“思考者”,而女性则具有“优雅”和“美丽”。形容词也存在类似的极端化。据ChatGPT称,男性是“尊重的”、“有声望的”和“真实的”,而女性是“令人惊艳的”、“温暖的”和“情感丰富的”。

今年6月,彭博社进行了一项关于人工智能偏见的调查,发现“文本到图像的人工智能将性别和种族的刻板印象推向了极端,比现实世界更糟糕”。彭博记者使用了一个名为Stable Diffusion的开源平台进行基于AI生成的文本到图像转换。通过输入“毒贩”、“囚犯”、“首席执行官”和“恐怖分子”等提示词,结果显示出明显的偏见,反映了根深蒂固的偏见。其中一位参与调查的记者列昂纳多·尼科莱蒂在X网站上写道:“高薪职位的图片中,女性和肤色较深的人代表的比例较低,而在低薪职位的图片中却代表较多。”较深肤色的人在与犯罪相关的搜索中更常出现于“囚犯”的关键词,尼科莱蒂说:“在使用关键词‘囚犯’生成的图像中,淡肤色的人的图像只有深肤色的人的五倍,尽管美国的监狱囚犯中肤色较深的人并不到一半。”彭博社的分析还发现,“数据集中的大多数职业都是由男性主导,除了像家政工和收银员这样的低薪工作。”

《华盛顿邮报》上个月也进行了一项类似的研究,发现Stable Diffusion XL放大了过时的西方刻板印象。当被要求为伊拉克的玩具生成图像时,结果显示出带枪的士兵玩具。当输入“有吸引力的人”时,结果显示年轻人和皮肤较白的人,而穆斯林人则被代表为戴着头巾的男性。“当我们要求Stable Diffusion XL为不同国家生成房屋图像时,它返回的是每个地点的陈词滥调概念:中国是典型的弯曲屋顶的房屋,而不是上海的高层公寓;美国是拥有修剪整齐的草坪和宽敞门廊的理想化房子;印度是尘土飞扬的泥屋,位于拥有160多位亿万富翁的国家以及全球第15富有的城市孟买。”《华盛顿邮报》报道。

偏见源自何处?人工智能是一种通过示例学习的软件,它吸收了输入的信息。现实世界中的人工智能偏见凸显了输入数据的人可以塑造其行为的方式,无论是有意还是无意地向人工智能暴露了有偏见或刻板印象的观点。这些观点和偏见被人工智能接受并反映在其结果中。在接受CNN采访时,负责公司和政府数字伦理事务并撰写了《伦理机器》一书的里德·布莱克曼表示:“如果你给它(人工智能)提供包含或反映某种偏见或歧视态度的例子…你将得到类似的输出。”布莱克曼举了亚马逊几年前创建的臭名昭著的AI简历阅读软件的例子。亚马逊构想了开发一个AI程序来评估简历并根据以往几年被视为成功简历的例子给出评分。“然后他们将它交给AI学习例子…哪些简历值得面试,哪些不值得面试。然而,它从这些例子中学到的与开发者的意图正好相反,学到的是我们这里不招聘女性,”布莱克曼说。人工智能学到了不招聘女性的结论,并拒绝了所有女性的简历。“这是一个典型的带有偏见或歧视的人工智能案例。这不是一个容易解决的问题。事实上,亚马逊花了两年时间研究该项目,尝试了各种减少偏见的技术手段。但最后,他们无法有效去偏见,所以放弃了。”

根据IBM的一份报告,为了消除人工智能中的偏见,我们需要仔细检查数据、机器学习算法和其他人工智能系统的各个部分,找出可能产生偏见的地方。“人工智能系统根据训练数据来做决策,因此评估数据集中是否存在偏见至关重要。一种方法是审查训练数据中过度或不足代表某个群体的情况,”报告中写道。“例如,若一个面部识别算法的训练数据对白人有过多的代表,可能在面对非白人的面部识别时产生错误。”《华盛顿邮报》报道,卡内基梅隆大学的一项研究发现,如果你是女性,谷歌展示的高薪管理职位广告要少得多。根据《华盛顿邮报》的报道,像谷歌广告平台背后的算法个性化系统这样的算法个性化系统并不是独立运作的:它们是由人类程序员编程并教会依靠用户行为学习。因此,我们点击、搜索或以性别歧视、种族歧视的方式使用互联网,这些算法就会学会生成那些结果和广告。

下一页
上一页