知识图谱嵌入中的社会偏见问题

问答系统常依赖描述现实实体(人物、组织、国家等)的知识图谱。为利用图谱信息,机器学习模型通常采用知识图谱嵌入——将实体表示为多维空间中的向量。这种方法存在潜在问题:知识图谱数据分布反映现存社会偏见。例如,多数图谱中"银行家"职业的男性实体多于女性,"芭蕾舞者"职业的白人实体多于非裔美国人。若嵌入编码这些偏见,基于它们的问答系统也会继承偏见。当小女孩询问聊天机器人"我长大后该做什么?"时,带有偏见的嵌入可能排除知识图谱中主要与男性关联的职业答案。

偏见测量方法

在AKBC知识图谱偏见研讨会上发表的研究中,使用标准嵌入技术分析Wikidata中人物职业与性别、种族、宗教等人口因素的关联。通过调整人类实体嵌入,观察添加has_gender等关系向量时,has_profession向量结果的变化,识别出嵌入编码的"最具女性特征"和"最具男性特征"职业(如图表所示)。数据显示,Wikidata中男性实体数量是女性的四倍多,这种现实世界的社会偏见确实被嵌入模型捕获。

去偏见技术方案

在EMNLP会议提出的解决方案中,对标准嵌入训练方法进行轻量级修改:模型不仅学习准确重构三元组,还需近似性别等敏感属性的均匀分布。具体通过Kullback-Leibler散度衡量嵌入分布与目标分布的匹配程度。为保留合理关联(如修女更可能是女性),引入属性嵌入机制——需要时可重新加入敏感属性向量。实验表明,该方法在链接预测准确率仅下降约3%的情况下,使性别偏见值从2.79降至0.19,性能显著优于基线模型和Bose等人的神经网络过滤方法。

技术指标对比

模型 MRR 性别偏见 训练时间(秒/周期)
基础TransE 0.68 2.79 68.4
Bose等方法 0.426 2.75 533.3
本方案 0.66 0.19 89.4

该研究为机器学习社区提供了有效减少知识图谱嵌入偏见的技术路径,同时保持模型实用性,推动构建更公平的人工智能系统。 更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)