- by by 编辑
- 2022-03-09 15:20:37
中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。微软亚洲研究院主管研究员吴方照进行两方面的分享,一方面是推荐系统不公平性的成因,另一方面是推荐系统公平性实现所面临的核心挑战。
对于推荐系统不公平性的成因,吴方照表示,第一,数据中存在的各种各样的偏差会导致学到的模型也存在偏差,进而产生不公平性的推荐结果。有偏数据是推荐不公平性一个非常重要的成因。
第二,推荐系统为了部署和维护的方便,通常用一个模型来覆盖所有的用户。但是用户的需求、特点不一样,用一个模型去给不同群体、不同特点的用户进行推荐,可能会带来对某些群体的不公平问题。比如为追求高准确率,推荐系统会倾向于满足多数群体的需求,而可能忽视某些少数群体,造成整个推荐系统不能公平对待某些群体的用户。
第三,推荐系统的不公平性也可能源自系统的目标设计,比如推荐系统模型的训练目标。模型训练的目标从某种程度上是推荐模型的价值观。如果采用点击率作为训练目标,推荐系统就会学习如何推荐最有可能被点击的项目,甚至会找到符合这个目标的一些“捷径”。例如,如果明星的花边新闻很容易被点击,那么这类新闻就很容易被推荐系统所推荐,而真正有价值的新闻可能难以获得同样多的曝光机会。因此,我们在设计推荐系统目标的时候,要注意用合理的、主流的价值观去引领“算法”。
第四,推荐系统的不公平性也可能来源于模型采用的一些相关技术,比如大模型和一些模型鲁棒性的技术。例如,结合了大模型的推荐算法可能更加倾向于拟合活跃用户的数据,从而对不活跃用户更加不公平。
对实现于推荐系统公平性所面临的核心挑战,吴方照指出,第一,现在非常缺乏一个清楚的、可信的、广为接受的公平性的定义;第二,对于公平性应该实现到什么粒度和层次,目前也没有共识。是群体之间公平就可以了,还是每个个体之间也应该公平?第三,如何以公平的方式去实现公平性,也是一个重要的问题。推荐系统是多方参与的系统,在提高某一方的公平性的时候,是否会损害另一方的公平性?在提高某个群体的公平性的时候,是否会降低另一些群体的公平性?第四,在实现公平性的时候,也需要考虑如何较好地平衡公平性和一些其他指标,比如推荐的准确率、线上响应的效率以及模型的鲁棒性等等。(中新经纬APP)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。
原文链接: http://www.zdm5.com/article-206419.html
本站声明:网站内容来源于网络,本站只提供存储,如有侵权,请联系我们,我们将及时处理。