超七成用户被“算法”推荐困扰 别让“算法”成“算计”

发布时间:2024-03-29 04:12:13 来源: sp20240329

  超七成用户表示曾被“算法”推荐服务困扰,认为“算法”潜藏风险

  别让“算法”成为“算计”(“融”观中国)

  ——透视“算法”系列报道之二

  本报记者 卢泽华

  你是否有过这样的经历:阅读一条新闻,同类新闻便源源不断推送过来;浏览一件产品,产品广告就会接踵而至;甚至,不经意间聊到某话题,相关信息也会纷至沓来,手机好像无时无刻不在记录着你的只言片语……这些都不是巧合,而是“算法”计算的结果。

  因为“计算”,用户获取信息成本大幅降低,网络服务更加精准高效。然而,越来越多用户担心被“算计”,日益关注“信息茧房”“大数据杀熟”“诱导沉迷”等问题。“别让‘算法’成为‘算计’”成为网民共同心声。

  痛点

  “流量至上”引发乱象

  最近,北京市民王兰遇到一件令人啼笑皆非的事情:儿子睿睿还不到10岁,手机却频繁收到各种相亲信息。追根究底,原来是儿子前几天误点了一则相亲广告。这让王兰感到担忧:“网络对用户信息的收集已到了无孔不入的程度。”

  大学生宋凡不久前下载了一款阅读软件。打开后,一篇标记着“您可能感兴趣”的小说被推送至界面。“这不恰好是我喜欢的作者吗?”他点开链接,一看就是一个多小时。看完后,系统又推荐了这篇小说的“番外”。不知不觉,他一连“刷”了几个小时,连老师布置的课题都忘了写。

  “这就是‘算法’的作用。”杭州某互联网公司的算法工程师向阳介绍,“手机软件可以随时抓取用户数据,通过智能模型分析人们的行为、习惯和喜好,过滤掉用户不感兴趣的内容,推荐用户感兴趣的信息。”

  他透露,对一些商业平台来说,使用“算法”的主要目的是提升流量,提高收益,至于推送的信息是优质还是劣质、会否带来网络沉迷等问题,则不在考虑之列。“就像小孩喜欢吃糖,有些商家的唯一目标是尽可能卖更多糖给孩子,至于会不会影响健康,不是他们关心的。”

  这种“流量至上”的商业逻辑,促使一些网络平台借助“算法”频繁推送用户感兴趣的同质化内容,更有甚者,以博人眼球的劣质低俗内容取悦用户。久而久之,用户接收信息的范围就会变窄,渠道也变得单一,从而陷入人们常说的“信息茧房”。

  除了“信息茧房”,频受诟病的还有“算法歧视”。所谓“算法歧视”,是指在“算法”设计和应用过程中,由于偏见、歧视性数据集或其他因素导致的“不公平结果”。

  家住石家庄的刘女士,孩子在北京上大学,她每次来京探望孩子都会入住校旁一家酒店。今年初,她通过某手机软件预订一个房间,价格每晚近800元。可她办入住时发现,有客人预定了同样房型,价格只要600元。经过比对,两人在同一手机软件上看到的价格完全不一样。

  “我还是这家酒店的白金卡客户呢,非但没有享受到优惠,反而还被‘宰’了,孩子告诉我,这叫‘大数据杀熟’!”

  “大数据杀熟”是“算法歧视”的表现形式之一。指平台利用“算法”进行用户“画像”, 如果用户已是熟客,就不再需要低价吸引,同时,平台可能通过搜集消费数据检测到用户消费能力,从而“定向”抬高价格。向阳表示,“算法歧视”一度甚嚣尘上,买机票、打网约车甚至网络购物,都会被“大数据杀熟”,后来有关部门强力监管,这种现象才有所收敛,但目前仍在业界不同程度存在。

  难点

  “算法”违规不易评判

  有网友总结,“算法”推荐的劣质信息有三个特点:真假难辨、缺乏深度、价值导向错乱。不少人认为,“价值导向错乱”是规范“算法”的最大难点。

  王军是一位自媒体人,最近打算写一篇关于“年轻人该不该啃老”的话题。当他打开手机,搜索这个话题时,发现多数网友都不支持年轻人啃老,这与他的观点非常一致。

  不料,有同事告诉他,现在多数年轻人都认为,“啃老没什么问题,人生就是拿来享受的!”这让王军感到诧异,同事将手机拿到王军眼前:“你看,满屏都是支持啃老的观点。”而当王军也将自己的手机页面展示给同事时,两人只能面面相觑。

  “判断用户价值导向并非难事,有多种方法可以评价。比如,抓取用户观看某话题的停留时间、分析留言是正面还是负面、统计用户点赞记录等,都可以用来判定用户观点,然后依据‘内容相似度’和‘用户相似度’,把最受认可的内容推荐到页面上。”向阳进一步解释,“算法”在某种程度上充当了内容“编辑”的角色,是否推送、推送给谁、推送多少,都是预先设定好的程序说了算。

  近年来,针对“算法”引发的乱象,监管部门多措并举,通过约谈、处罚、整改、下架等手段大力净化网络风气。然而,如何有效通过“算法”倡导正确导向的信息,仍是有待破解的命题。

  向阳表示,虽然“算法”作为一项技术是中性的,但其模型设计、数据分析等都离不开设计者的个人选择,其主观意识会潜移默化地嵌入“算法”系统。同时,由于“算法”设计具有较高的技术门槛,其设计过程有如一只黑箱,外界很难洞悉其中原理和逻辑,因此,也很难判定“算法”体现了哪种导向。

  向阳的说法不断被现实印证。由于多数“算法”设计者不会将运算细节公之于众,即使公开,也很难准确判定。由于缺乏专业技术知识,用户在权益受到损害时,依法维权的成本较高。多起因“算法”引起的诉讼均没有得到理想的判罚结果。

  “‘算法’推荐作为一种商业秘密和技术秘密,应用过程中又往往涉及社会公共利益,如何平衡、把握对‘算法’推荐法律规制的边界,是面临的一大难题。”北京大学法学院副院长薛军认为,在司法以及行政理念上,需要将“算法”的运用作为“算法”运营者行为的延伸。无论运营者是否存在过错、是否存在行政违法等,“算法”因素都应被纳入追责的考量范围。

  焦点

  凝聚合力规范“算法”

  随着公众对“算法”持续关注,加强“算法”规范的呼声也越来越高。一项调查显示,超过70%受访者表示曾被“算法”推荐服务困扰,超过60%受访者认为生活中普遍存在“大数据杀熟”。绝大多数用户认为,“算法”推荐技术潜藏了窥探、泄露用户个人隐私的重大风险。滥用“算法”的行为,侵害了消费者的知情权、选择权和个人信息权益,也给网络空间的传播秩序带来负面影响。

  在这个背景下,一些用户希望关闭“算法”推荐功能,停止将个人信息分享给平台使用。在有关部门督导下,各大网络平台都上线了关闭“算法”推荐的功能,将是否收集用户偏好的选择权交还用户。

  然而,平台个性化推荐存在关闭难等问题。上海市消保委曾对消费者常用的10款手机软件开展为期8个月的专项测评,结果显示,关闭个性化推荐最多需7步。

  记者登录几个下载排名靠前的主流手机软件,目前关闭“算法”推荐功能的方式主要是通过“个人设置”来操作。操作步骤与此前调查结果一致,大多仍需要5—7步。记者随机采访了20名手机用户,绝大多数表示并不知晓手机软件还有关闭“算法”推荐的功能,只有1位用户知道该功能并懂得具体操作。

  “这种现象反映了业界的矛盾心理,一方面不希望用户大规模关闭‘算法’,另一方面也意识到,只有规范才能长远。”向阳说,规范“算法”,需要社会各界发挥合力,寻找最大公约数。

  “有效治理‘算法’乱象,是构建安全清朗的网络生态的必然要求。”中国政法大学副教授郑玉双表示,要健全“算法”的法律规制模式,破解“算法”的法律规制难题,实现算法善治。

  “对于‘算法’运用是否产生不良后果,要建立一种社会性的评议机制进行持续性的跟踪研究。如果社会评议机制有充分的理由,认定特定‘算法’的运用导致不良后果,就应该启动问责机制,要求相应的‘算法’运营者予以解释与说明并作出优化。”薛军建议。 【编辑:刘欢】