我们需要什么样的“算法”?

您是否有过类似经历:在求职网站填写一份有关工作喜好的调查,网站会自动推送匹配的岗位;打开购物软件,发现页面上多是近期搜索或浏览过的商品;通过App阅读一条养生信息,随后便会经常收到养生知识、养生产品的广告推送……伴随着信息技术迅猛发展、大数据广泛应用,算法推荐技术正在将人们带入个性化、定制化、智能化更强的信息传播时代。

因为算法推荐,互联网平台越来越能抓住用户的心,帮助人们更加方便、精准地获取信息,也牢牢吸引了用户的注意力。据不完全统计,当前基于算法的个性化内容推送已占整个互联网信息内容分发的70%左右。算法推荐逐渐成为各平台“基本操作”的同时,诸如低俗劣质信息精准推送、“大数据杀熟”等乱象也凸显出来。

作为数字经济的重要推动力,算法如何实现更高质量发展?移动互联时代,我们究竟需要怎样的“算法”?

互联网平台越来越“懂”用户了吗?

“看完一个短视频后,平台会自动推荐很多相关视频,很方便。”在北京一家企业工作的陈辉是某款网络对战游戏的“发烧友”,平时喜欢通过手机观看相关短视频来提高操作水平。他发现,随着刷短视频的频率增加,平台推荐的相关视频越来越多,“游戏攻略、英雄介绍、对战视频都有,电商平台还会推荐鼠标、键盘。”

这些平台的自动推荐功能,运用了一种叫算法推荐的技术。这是一种通过人工智能分析和过滤机制对海量数据进行深度分析、完成信息内容与用户精准匹配的技术。

自从1994年美国明尼苏达大学研究组推出第一个自动化推荐系统,算法推荐技术如今已深入到资讯、社交、电商、短视频、搜索引擎等平台和互联网应用中。

互联网平台变得越来越“懂”用户,在极大方便用户获取信息的同时,也容易引发一些用户尤其是青少年不同程度的沉迷问题。

“说好只看5分钟,结果一刷就是几小时。”贵州省贵阳市的林忠信说,他12岁的儿子最近迷上刷一些恶搞的短视频,不仅影响学习成绩,与同伴一起进行户外活动的时间也少了。

从去年5月底开始,全国主要网络短视频平台中推广青少年防沉迷系统。在“青少年模式”下,大多数平台主要推送教育类、知识类等有益内容。但是,在缺乏监护人照管监督的情况下,防沉迷系统效果容易打折扣。

有受访者反映,一些新闻资讯、网络社交等平台的个性化推送存在“泛娱乐化信息多、低俗内容多、未经核实内容多”的“三多”现象;一些网络社交等平台防沉迷手段较少,容易导致青少年沉迷和盲目模仿。

北京大学中国社会与发展研究中心主任邱泽奇对记者表示,对自我的偏好是人类认知偏好的一部分,“偏好”阅读可能加速形成“信息茧房”效应和“情绪传染”效应,前者易导致视野局限,后者易使个人情绪受他人感染。

一些喜欢网购的人还可能因遭遇“大数据杀熟”而蒙受损失。一些平台利用算法技术给不同类型消费者数据“画像”,判断其偏好、用户黏合度、价格敏感度等,使不同用户看到的价格或搜索的结果不同。通常是老用户看到的价格比新用户贵,或搜索到的结果比新用户少。

今年“双11”期间,北京消费者韩女士发现,她通过某App预订一家酒店,“同一时间,不同手机”预订,价格相差约1000元。

9月中旬,微博上发起的一个投票显示,有1.5万人认为自己遇到价格明显差异的情况,占所有投票人员的近八成。

“算法”是中性的,问题出在人身上

算法技术的重要意义在于,将此前基于人力的“人找信息”转变成基于电脑自动化运算的“信息找人”,既极大解放了人力,又更高效地完成了人和信息的匹配。

从2012年起,互联网平台今日头条在业内较早将算法推荐系统应用到资讯领域的产品中,实现了系统的自动学习推荐。据今日头条算法架构师曹欢欢介绍,推荐系统综合考量内容特征、用户特征、环境特征等因素进行决策。例如,环境特征包括上班期间、上班路上、下班休息等不同场景下用户的兴趣偏好信息。

为帮助用户发现更多兴趣点,今日头条不断引入多领域的优质内容生产者,并运用算法推荐给用户;推出“灵犬”反低俗助手,剔除低俗信息。推荐系统还增加了消重和打散策略,前者旨在消除内容相似文章推荐,后者降低了同领域或主题文章的推荐频率。

不过,在头部互联网平台切实严格自律的同时,仍有一些采编流程不规范、管理不严的网络社交媒体、新闻客户端在业务导向上走偏了。主要表现在:

——向用户推荐劣质信息。部分平台为留住用户,不断向用户推荐其关注过的相似内容,其中掺杂低俗媚俗、色情暴力、真假难辨、缺乏深度、价值观导向错乱等信息。一些互联网平台为增加点击率和流量,还会进行人工推荐,主动推荐“博眼球”、打“擦边球”信息,很多用户直呼“辣眼睛”。这反映出一些平台社会责任感缺失,更忽视了价值观建设。

——增加用户权益保护难度。一些算法推荐的内容过度强化用户偏好,影响了用户对于信息内容的自主选择权,加剧“信息茧房”效应,极易造成个体与社会的隔离,缺乏对当下国情世情的深刻认识和判断。由于依托于用户浏览记录等数据,算法推荐若设计不当,还可能侵犯用户个人隐私。

——进行“大数据杀熟”。中国传媒大学大数据研究中心教授沈浩介绍,对于算法而言,通过用户数据量以及数据更新频次,可轻易判断出是“生客”还是“熟客”。结果是平台大赚,商家、消费者利益受损,还容易导致垄断。

作为一项技术应用,算法推荐是中性的,问题出在设计者、操作者身上。

一方面,奉行“流量至上”的单一价值导向。一些平台为应对竞争,将用户停留时间作为重要考核指标,忽视了自身作为“把关人”的角色定位。而“把关人”必须用积极健康、符合公序良俗的价值观,指引算法推荐的设计和应用,方能确保推送内容价值导向正确。

另一方面,过度追求“利益至上”,利用其信息不对称优势侵犯消费者合法权益。这是一个需要引起足够重视的法律问题。

“一些算法的顶层设计思路存在问题。”中国社科院信息化研究中心主任姜奇平对记者表示,英国著名数学家、逻辑学家图灵等学者在勾画人工智能图景时提出,人和机器是对等、双向互进的关系,但现在一些算法设计呈现出人与机器的关系是单项的。比如在大数据方面,迷信相关分析,忽略因果分析。在定义算法效率方面,只把专业化效率定义为效率,而实际上多样化效率也是一种效率。

大数据、算法推荐应更有“温度”

有网友最近在一个问答平台发文称,自己在某社交平台和朋友聊天时提到了一款扫地机,随后该平台出现了扫地机器人的广告。在跟帖中,很多网友疑问:“平台是否可能利用算法等技术,抓取用户聊天记录进行广告精准投放?”

App专项治理工作组专家何延哲今年9月表示,四部委App专项治理工作组在对App多批次检测中尚未发现App有“窃听”行为。但App“窃听”在技术实现上是有一定可能性的,相关部门有必要出台规定,明确企业进行大数据“画像”时能否使用个人语音信息,让用户更放心。

从另一角度看,社会舆论的疑问其实指向了大数据、算法等技术应用的价值导向问题。如何规范使用大数据、算法技术,让其变得更有“温度”、更让人放心?需要建立起一套行之有效的监管体系、评价系统,确保算法设计者、操作者以健康、正确、积极的价值观,指引算法推荐的设计和应用。

相关立法和监管亟待加强,特别是要强化对算法推荐本身的法治监管。

例如,正在公开征求意见的《个人信息保护法(草案)》规定,个人认为自动化决策对其权益造成重大影响的,有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。

11月10日,国家市场监管总局发布的《关于平台经济领域的反垄断指南(征求意见稿)》规定,基于大数据和算法,根据交易相对人的支付能力、消费偏好、使用习惯等,实行差异性交易价格或者其他交易条件;对新老交易相对人实行差异性交易价格或者其他交易条件;实行差异性标准、规则、算法;实行差异性付款条件和交易方式等,都可能被认定为“大数据杀熟”等不正当竞争行为而面临更严格监管。

北京大学电子商务法研究中心主任薛军对记者表示,应针对算法运用的场景、对公民基本权益的影响,对算法进行不同强度的监管。除了法律规定需更加明确外,可以建立某种社会化的评议机制,对平台运用算法产生的后果进行评价,要求平台基于公共价值予以优化。

压实平台的社会责任。曹欢欢表示,今日头条已不完全依赖算法推荐,而是一个综合“算法+热点+搜索+关注”的通用信息平台,以帮助用户拓展兴趣。用户还可以选择关闭“个性化推荐”按钮或“永久清除历史行为”,自主选择获取信息的方式。

“应该在算法技术内讲价值伦理,把人之为人的一面当作技术本身来考虑,倡导企业在商业行为中履行社会责任。”姜奇平认为,对算法推荐技术和平台的监管应确保公平和效率、个人信息开发与保护、个人信息与平台信息等方面的平衡,在促进数字经济服务业态健康发展层面考虑,可按照个性化信息服务所得和付出的均衡原则进行政策调整。他建议,确保消费者对信息采集者的服务好坏有评判权,使消费者始终处于主动地位。

有专家认为,监管部门应督促企业调整业务逻辑,将正面价值取向、用户高品质追求作为关键标签纳入算法顶层设计之中;政府、学校、家长、平台各方应责任共担,不断提升青少年网络素养。(记者彭训文)

关键词: 算法 互联网平台