Fri Nov 07 13:58:14 2025

王翔:两种方式可解决算法公平性中的隐式敏感信息问题

王翔:两种方式可解决算法公平性中的隐式敏感信息问题,王翔:两种方式可解决算法公平性中的隐式敏感信息问题 2022-03-24 16:36:09 中新经纬 中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和……


15.k views
    139

  中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。中国科学技术大学教授王翔表示,算法公平性是多方需求,对于某一类敏感人群,或者敏感信息,如果算法推荐产生了一些不公平结果,我们需要对结果进行纠偏或者去除混淆。

  “关键在于如何鉴定敏感信息,如果我们没有明确敏感信息的对象,那么公平性这个东西是模棱两可的,很难去衡量。”王翔指出,如果可以鉴定出敏感信息,那可以通过统计等方式,结合一些认知交叉科学的方式去衡量敏感信息。

  例如,对于显式的敏感信息,如用户画像、商品属性等,如果我们引入认知图谱,就会导致敏感信息爆炸式增长。举个例子。比如说你去应聘一个岗位,如果一味强调公平性,可能会导致招过来的人不符合岗位需求。所以,我们需要从显式信息里鉴定出应该真正关注哪些信息。

  其次,还有隐式敏感信息,如潜在特征和潜在组合。在我们的推荐场景里,模型很可能不按照人的运行逻辑走,因为它会捕捉到一些隐式的信息或者特征。这些特征就是一个隐空间里面的向量,如何从中鉴定出来,这是我们达成公平性的前提条件。我认为有两种找出隐式敏感信息的方式。

  第一,人机混合智能。算法是天然的人机混合决策的场景,涉及到推荐算法平台、人以及商品等多方交互,还有监管部门的加入等。人在其中是非常关键的,需要跟推荐系统产生交互,跟商品产生交互。“我们需要监管人员或者决策者对算法进行监管,定义哪些信息是我们需要关注的敏感信息,或者说从敏感信息中挖掘出来一些潜在的特征或属性组合,定义其为敏感信息。”王翔说道。

  第二,可信人工智能。从推荐结果入手,观察算法到底违背了哪种公平性衡量标准,不妨让模型白盒化,捕捉和理解推荐模型的决策逻辑,到底应用和侧重哪些敏感信息,导致了哪些结果。当推荐模型白盒化,透明化,就会更明确哪些场景或者面对哪些人群,算法会产生不公平,这样就可以去调节各项参数,使它变得公平和精确。(中新经纬APP)

  中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。

原文链接: http://www.zdm5.com/article-206399.html

本站声明:网站内容来源于网络,本站只提供存储,如有侵权,请联系我们,我们将及时处理。

author

中新经纬

中新经纬是由中国新闻社创办的财经新媒体。我们以移动客户端(APP)为基本传播平台,以“权威、前瞻、专业、亲和”为特色宗旨,致力于传递中国经济资讯、解读中国财经政策、讲述天下财富故事。中新经纬力争在第一时间分析经济数据、传播权威声音、洞悉行业风向、把脉全球趋势,成为您身边必不可少的财经助手。

为您推荐: