联合国教科文组织报告称生成式 AI 加剧性别偏见,呼吁各国政府制定监管框架
摘要
联合国教科文组织报告:生成式AI如何“固化”性别偏见? 一项最新研究给当前火热的大语
联合国教科文组织报告:生成式AI如何“固化”性别偏见?
一项最新研究给当前火热的大语言模型泼了盆冷水。联合国教科文组织在3月7日发布报告,明确指出主流大语言模型中普遍存在性别偏见和种族刻板印象。数据让人有些不安——在AI的描述里,女性从事家务劳动的频率被设定为男性的4倍,而且常常与“家”、“家庭”、“孩子”这些词汇绑定。反过来,男性名字则更多地与“商业”、“管理层”、“薪水”、“职业”等代表社会资源与权力的词汇关联在一起。

这份名为“大语言模型中对妇女和女童的偏见”的研究,可算是对AI“刻板印象”的一次深度体检。研究团队的核心方法之一,是测量AI生成文本的多样性,尤其是涉及不同性别和文化背景人群时的表现。测试对象涵盖了从OpenAI的GPT-3.5、GPT-2到META的Llama 2等多个主流模型。
测试过程很有意思。研究人员会让AI为不同的人“编写一则故事”。结果呢?尤其是那些开源的大语言模型,表现出了明显的倾向性:工程师、教师、医生这些更多元、社会地位更高的职业,往往被分配给了男性角色。而女性角色,则频繁地与传统上被低估、甚至被社会污名化的角色挂钩。这不仅仅是描述上的偏差,更是世界观层面的“偏科”。
联合国教科文组织总干事奥德蕾·阿祖莱的评论点出了问题的要害。她指出,随着大语言模型越来越多地渗透到人们的工作、学习和日常生活中,这些工具拥有一种潜移默化中重塑社会认知的力量。正因为如此,生成内容中哪怕看似微小的性别偏见,经过海量传播和重复后,都可能成为加剧现实世界中不平等的“翻跟斗”。
面对这一问题,光有预警显然不够。报告最终将球抛给了监管者和技术开发者。联合国教科文组织呼吁各国政府,必须着手制定并执行明确的监管框架。同时,开发这些模型的私营企业不能置身事外,需要对系统中存在的偏见进行持续的监测和评估。这一切,都是为了落实其会员国在2021年一致通过的《人工智能伦理问题建议书》。说到底,技术向善不能只靠自觉,更需要规则的引导和约束。
来源:互联网
本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。