- by by 编辑
- 2022-03-09 15:20:37
中新经纬客户端6月27日电 (薛宇飞)算法的广泛应用提升社会福祉的同时,也带来了信息茧房、算法黑盒、算法偏见等争议。如何理解算法本身、算法给社会带来的价值以及算法发展中遇到的问题,是值得深入研究的。
近日,中国人民大学高瓴人工智能学院等单位主办了“推荐算法社会价值与可持续发展”研讨会,组织来自中国人民大学、清华大学、中国科学院、中国科学技术大学、山东大学等高校,包括计算机科学、新闻传播学、数学、心理学和法学等数位学者,对推荐算法的社会价值等问题进行探讨。
研讨会上,中国人民大学高瓴人工智能学院发布了算法科普性报告《算法向善与个性化推荐发展研究报告》(下称报告)。
减少信息茧房:以算法促进人的全面发展
“推荐算法社会价值与可持续发展”研讨会。来源:主办方供图
从信息技术的发展历史和演进规律看,新技术在解决原有问题的同时,也可能产生一些新现象,而依托技术本身的力量来解决技术发展中的问题,被证明是重要和行之有效的方式。报告指出,所谓“算法向善”,即是将人类社会的价值取向内化到算法中。这正成为产业界和学术界的共识,也是企业和研究者当前努力的方向。
中国人民大学新闻学院副院长李彪。来源:主办方供图
研讨会上,中国人民大学新闻学院副院长李彪从新闻学角度对信息茧房现象进行剖析,并将医疗手术领域的一个术语“无影灯效应”引用到算法领域中。他认为,某一个应用会倾向推荐某个领域的信息,但如果像网易新闻、人民日报或者新华视点都有推荐算法的话,就会形成一个“无影灯效应”,从而达到消弭信息茧房的效果。未来解决信息茧房或者是算法黑盒的问题,还需要结构化的人工智能的手段来实现。
中国人民大学新闻学院教授匡文波。来源:主办方供图
中国人民大学新闻学院教授匡文波认为,在减少信息茧房的影响上,算法与人工干预都是必要的。算法很难判断信息内容的真伪,也不能够完全解决信息质量的问题,高质量内容归根结底还是要人去做的。
中国科学院信息工程研究所研究员周晓飞。来源:主办方供图
在具体的技术手段上,中国科学院信息工程研究所研究员周晓飞提出搭建用户兴趣迁移算法、构建个人兴趣图谱来减少信息茧房现象。用户兴趣迁移算法可从几个方面进行尝试,一是基于传统的框架,对人工标注和工业界算法进行挖掘;二是利用兴趣评价进行建模,引入用户兴趣迁移的评价指标,设计学习推荐策略。
中国科学院数学院副研究员周川。来源:主办方供图
不过,中国科学院数学院副研究员周川认为,信息茧房现象有其内在的发展趋势,并不是说一定要把它攻克,而且随着推荐算法的进步,已在一定程度上实现了推荐内容的多样性。
报告也指出,与人们认为算法为追求精准推荐和吸引用户而导致缩小用户选择范围的刻板认知正相反,互联网平台有追求推荐多样性的巨大内驱力。数据表明,阅读内容的类型数量、阅读内容类型的分散程度与用户长期留存呈正相关。算法优势平台因此积极探索,通过多样性提升和内容品类打散等方式,有效提升用户留存周期、次日留存率、多日留存率、人均活跃天数以及停留时长等运营指标。今日头条根据历史上的长尾搜索记录,从用户长期兴趣角度进行多元化推荐;字节跳动不以短期使用时长为目标,建立多目标综合性的算法机制,引导产品开发设计和内容多样化发展。
避免偏见歧视:以算法促进人类社会公平
推荐算法能有效实现企业从二八定律转向“长尾效应”的过渡,从而挖掘那些具有不同特性的80%用户能够带来的商业价值。在这个过程中,企业能够在以较低成本了解这80%人群的需求同时,为他们提供满足其需求的物品或服务,从而实现盈利的增加。与此同时,以往市场只关注大众需求,而如今80%人群的个性化需求也可以得到满足,提高了用户的满意程度和消费质量,实现了双赢。
报告认为,算法模型、数据权重反映设计者对世界的认识,不可避免带有一定主观性,但算法偏见和歧视的原因追根溯源在数据层面。推荐算法通过挖掘用户点赞、转发、收藏等数据来判断用户的兴趣偏好,而样本数据的有限性和可伪造性影响了推荐算法的准确性和公正性。
清华大学计算机科学与技术系长聘副教授张敏。来源:主办方供图
清华大学计算机科学与技术系长聘副教授张敏也研究发现,算法之所以存在很多不公平性,原因有很多,其中一个就是由用户自身行为带来的偏置。比如浏览新闻时,用户会因为猎奇心理或受到“标题党”新闻的影响,点击那些质量不够好的结果,而算法相信用户的点击并相应的学习并进行推荐,因此输入给系统的信号有偏带来了推荐结果的偏差。
中国科学技术大学信息科学技术学院教授何向南指出,从算法角度看,推荐算法学习的核心就是用户的行为,但用户行为耦合了许多因素,解耦能不能做好,对于理解用户兴趣且控制偏见是非常关键的。
中国人民大学高瓴人工智能学院执行院长文继荣。来源:主办方供图
另外,使用推荐算法时,还应明确公平性的定义。中国人民大学高瓴人工智能学院执行院长文继荣认为,对于做技术和算法的学者、专家来说,一个清晰的定义是必要的前提和基础。关于“公平”这个概念,人与人之间的公平性定义不同。在学术界,推荐个性化和多样性是两个研究方向,个性化是用户过去的需求,而多样性是引导用户产生新的需求,如果对公平性有一个清晰的定义,那么,结合个性化和多样化技术满足用户精准的需求是非常有意义的。
张敏就指出,一般认为要从不同维度上在同类用户/产品之间进行公平性的考量。比如,苹果与华为公司的产品应该有同等的机会呈现给用户。相反,不能要求矿泉水公司和苹果公司获得相似的推荐次数和推荐群体,因为它们并非同类公司。同时,算法公平性还要考虑时间周期,要放在一段合理的时间区间内考量公平性。比如,用户在一次推荐交互中能够查看的信息是有限的,需求也相对比较集中,很难面面俱到,因此只有在一段时间内考量是否公平地满足了用户或信息(产品)提供者的需求才是有意义的。”
中国人民大学高瓴人工智能学院副院长窦志成。来源:主办方供图
虽然如今愈发重视算法的公平性问题,但中国人民大学高瓴人工智能学院副院长窦志成也提醒,推荐算法的天然属性是个性化,而个性化需求无法准确理解的时候才需要多样化,多样化高并不代表公平,把人想要的东西给他就是最大的公平。“我们最近也在搜索领域做个性化和多样化融合的工作,但这个事情本身就是特别难的事情。”他说。
弱化黑盒效应:以融合型算法提升可解释性
在以深度学习为代表的智能算法时代,算法透明化和可解释性的难度显著提升,即便存在很多困难,谷歌、苹果、TikTok、今日头条、抖音等国内外企业以及科研界都在从机制、技术等不同角度研究、探索和实践更多方式来提升算法对公众的透明度,促进全社会对算法更好的认知、理解与使用。
报告认为,推荐算法可解释性差是人工智能进化过程的自然现象,是科学技术高速发展的中间状态。以深度学习为代表的先进技术方案显著促进了推荐系统性能提升,但由于模型带有隐变量产生的不确定性,使推荐系统就像黑盒,无法向人们直观呈现推荐理由及其合理性。
“数据驱动与知识引导深度融合的推荐模型将是提高可解释性的关键技术,基于知识图谱结构化、可推理等特点,可打通物品/信息、用户、特征等之间的逻辑关联;还应重视可解释性基础理论研究,建立独立于模型的通用性推荐框架体系,避免针对每个推荐系统分别设计解释方案,提高方法的可拓展性和适用范围。”报告提出。
中国人民大学高瓴人工智能学院博士后朱倩男。来源:主办方供图
对于如何规避“算法黑盒”的问题,中国人民大学高瓴人工智能学院博士后朱倩男介绍说,第一个是推行算法披露机制,提高算法透明度;第二是加强对可解释性推荐算法的研究,通过建立通用的推荐算法框架来提高算法的可解释性。算法黑盒带来可解释性差是一个正常现象,随着政府、研究机构以及公众对推荐算法的关注,对算法透明度和可解释性的研究会是今后的热点。
清华大学社科学院心理学系博士后许丽颖。来源:主办方供图
清华大学社科学院心理学系博士后许丽颖则从社会心理学角度,去解读为何需要提高算法的透明度。她称,很多人知道算法决策表现是更优的,但是人们还是不太喜欢让算法做决策,更愿意让人类做决策,人们称这种心理为算法厌恶。当这种决策任务有道德性质时,这种厌恶就更加强烈。减少算法厌恶,可以从提高算法的透明度、提高普通人的算法知识入手。
山东大学计算机科学与技术学院教授任昭春称,如今,关于可解释性推荐问题更多还是集中在深层次用户交互融合和评估方面。“我们也在思考,能否把对话式推荐和可解释推荐做一个更好的融合,特别是针对对话推荐过程某种程度上演变为多轮可解释推荐策略,这样能通过深层次理解用户需求和反馈更好的优化可解释性推荐策略。”
中国科学院计算所研究员郭嘉丰。来源:主办方供图
上述报告发现,从推荐系统的原理和特点出发,可以从不同方面提升可解释性。如微信“看一看”中的“朋友在看”、抖音短视频中“你的好友”、“80%的用户浏览了此视频”等字样,以及通过关注的抖音号、所在地理位置做出内容推荐,美团基于用户当前所在位置推荐餐厅,都是将“用户”作为推荐理由;亚马逊等的“该物品和您喜欢的其他物品相似”则是以推荐“项”作为推荐理由;“您可能会喜欢推荐物品的这些特征”则是以“特征”为推荐理由。此外,还有基于天气等环境特点、知识和常识、权威和公众人士推荐、大众行为等的多样化推荐理由。
另外,中国科学院计算所研究员郭嘉丰表示,推荐算法的可解释性并不是一个简单的问题,最关键的是对谁解释。解释算法模型时,可能不会给普通大众解释,因为大众不关心这些,或者也解释不了。做算法备案、算法公开时,可能是给一些专业人士做解释,但解释的也是一些原理,解释不了它的参数。
郭嘉丰认为,当前还存在过度解读推荐算法的情况。很多时候,算法的可解释性是针对普通用户,最多做到过程可解释。但到了更严谨的领域时,如医疗推荐、法律推荐,这是非常严肃的东西,可能需要在因果上面进行研究,有更强度的解释才有意义。
防范低质内容:以算法满足人更高的精神文化追求
上述报告认为,资讯传播历经创作者创作和发布、内容生产者抓取和分发以及内容消费者点击和阅读三个阶段,推荐算法充当内容分发者角色,单就其设计本身并不会带来虚假新闻和低俗内容。但创作者为追求流量关注而发布低质内容;消费者出于猎奇阅读和传播低质内容;而算法发展初期仅关注内容和用户兴趣的匹配度,以及信息本身的流行度,没有将社会价值内化为推荐的具体规则,就会造成虚假新闻和低俗内容的传播。
“为此,需要提升创作者责任意识和消费者审美素养,加强网络低俗信息治理;建立人机结合的双重审核机制,在算法指标设计中融入社会价值,从国内现有实践看,以今日头条为代表的技术过滤模型、复审制度、寻人功能以及抖音青少年模式等都是积极探索。”报告提出。
就人类社会的信息传播而言,容易流行的与有品位、有价值的内容之间有时并不一致,如何更好解决这一矛盾?产业界的实践给出了启示,除了要发挥算法侦测排查的一面,更要发挥算法精准推荐的优势,找到和激发每一位使用者内心深处对优质内容的兴奋点。抖音发起DOU知、DOU艺、都来读书、青椒等计划,丰富知识和艺术类内容的创作,并以精准推荐实现优质视频内容的供给侧改革,既激发了创作者热情,也促进了全民学习和审美提升,相关视频播放量已超过16万亿次。
中国人民大学法学院副教授郭锐。来源:主办方供图
不过,什么是低俗,什么又是高雅,是随着时代变化而改变的。中国人民大学法学院副教授郭锐就在研讨会上提出,现在的人工智能应用把人彻底带入到算法决策的技术规程中,这就产生了伦理问题,而算法伦理有两个问题难以跨越,其中一个就是终极准则难题。“这个难题的产生不是故意的,所有推荐算法都不是故意的,具体到推荐算法上,什么是低俗,什么样的情况是信息茧房,对这些准则每个人都有不同的看法,这是终级准则难题的体现。”他说。(中新经纬APP)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编以其它方式使用。
原文链接: http://www.zdm5.com/article-48382.html
本站声明:网站内容来源于网络,本站只提供存储,如有侵权,请联系我们,我们将及时处理。