首页| 论坛| 搜索| 消息
主题:对话大厂算法工程师:AI 时代,算法从不是为了制造茧房
爱我中华发表于 2026-02-27 20:07
,不会被更多推荐。如果你的评论区是关于视频的延展讨论,甚至有人说你说的好,我有感触,这个事我童年时候也经历过,我也有这样一个故事。算法通过大模型能把这些优质评论识别出来,变成一个友善标签,然后整体加权重去鼓励友善氛围。
从效率逻辑上来说是一样的,社区希望大家认为它是一个有口碑的社区,对平台发展是更好的。我们很难想象一个平台会认为因为有争议,明天大家还来吵架,结果这个平台能涨得很好。
重轻:你之前提过一个词叫“画风”,说平台很在意用户对于产品整体的看法,而不只是对内容的看法。这也反映在推荐算法工作里吗?
风霁:画风这块的工作,很多时候反映我们认为什么是下限,以及评估用户满意的指标是什么。画风是我自己的一个产品观念,跟推荐没有关系。打开这个 APP 都有一个原因,就是意图,满足这个意图的内容,我觉得就是画风。所以它其实是一个产品的增长逻辑,我做一个什么样的APP,满足什么样的用户意图,定义我的产品功能。
重轻:还有一种挥之不去的担忧,像是赛博朋克的小说里面的东西。很多年前,Facebook 在赞和踩的基础上,加了愤怒和大笑的按钮。事后回顾出来,愤怒和大笑确实起到了一个提高用户参与的效果,但是接下来用了两年时间才观察到其中的恶果,它是逐渐累积发生的。仇恨言论和刺激人上火、互相攻击的东西,都冒出来了,最后他们才踩了刹车,大概是一个两年时间的过程。
风霁:我觉得你说的这个点特别好。我自己把推荐系统的价值分为三块,用户、生态和社区的价值。用户价值最容易去定义,就是活跃度。生态价值是结构化的,比如现在这个平台有多少品类,每个品类有多少作者在贡献,每个品类作者的质量又是怎么样的,这是生态价值。它很难衡量,也很难去定义,但是你的每一次迭代也在影响。
第三个就是社区价值:评论区、弹幕、社交口碑,大家怎么看待你?我做推荐,这三部分工作我都会做,最容易衡量的是我们刚刚说的用户价值,用户的 DAU 涨了,你是知道的,但是伤害另外两个价值,是很难观测的,所以我的判断是另外两个是底线,凡是伤到了社区价值和生态价值,就不能做。因为这两个价值都需要非常长期才能观测到,但是用户价值你有很多手段可以涨,用户满意度永远没有达到上限。用户活跃度不是未来,生态和社区价值是不是在一直涨,才是未来。
07
算法没法控制用户喜好,信息战是真实世界的延伸
重轻:对互联网公司来说,不可能干净地切一刀,切完了有一个安全区,只负责这些。作为你的朋友,我希望你的工作是一个单纯的事实,是一个无涉价值判断的工程问题。但如果此刻算法面对的是一个有灰度的事情,它要做价值观判断,怎么办?
风霁:我觉得推荐算法本质还是一个信息检索技术。我研究生同学有人是图书管理专业,这个学科就是教1万册图书怎么做排序,让大家在图书馆里尽快拿到我想要的书,这是最早的信息检索系统。
如果作为一个纯粹的搜索系统,或者作为一个图书管理的系统,也有以上说的所有问题,只是说为什么现在这个问题放大了?因为信息在人类生活中重要的比例越来越重要了。我们既然站在这个位置上,享受了发展的红利,那我们当然要接受这样的挑战。你一定会接受更多的审视和要求。我们应该去满足社会对我们更公平的要求。
哪些是推荐系统可以主张的,哪些不应该有主张?涉及到社会法律规范、公序良俗相关的,我们不去碰。但是一个平台到底是短视频、长视频还是图文,评论区希望说梗轻松一点,还是做深度讨论,这个是我们可以去主张的,前提是 peace and love,以及不违反事实,画风是可以主张的。
我们在一个逐渐建立认知的过程,过去可能对社区和生态价值的认知没那么清晰,还有兴趣探索和“茧房”这个矛盾的体系,目标如何定义,不是技术上没有认知清楚,而可能是社会道德没有对它形成一个统一的认知。如果形成统一认知,那一天我们自然可以解决这个问题。
08
大模型深刻影响推荐,带来技术上的提升
重轻:咱们可以聊一聊未来,接下来两到三年,你眼前那个在较真、研究的东西是什么,会花很大的精力在什么事上?
风霁:AI让我对未来没有判断。大家能想象出来五年后人类跟AI是怎么相处的吗?不知道,如果今天知道了,我今天不应该在公司工作,我应该去创业。
AI会影响用户需求和供给。今天的搜索需求,其实已经极度减少了。现在的视频很多是知识类的,未来很多知识类也会可能被吃掉。供给上面,我们有很多基于AI的内容提效工作,比如有AI生成内容。如果未来的创作视频质量都比今天更好,那用户对于视频的判断和需求,跟今天又会有什么样的区别呢?我们也不知道,这些都是难题。
AI也会影响推荐系统,有很多助力,过去我们对视频的理解是单薄的,表征一个视频的维度可能就几百位,未来可能更充沛。第二个基于现在大模型的技术,我们也在尝试直接用大模型服务推荐,比10年前的推荐技术可能有10倍以上提升。第三块是推荐的交互形式,这也是我积极在探索的,我们现在通过用户行为去决定推荐结果,有没有可能通过wording逼近理想态。
重轻:能不能重新找一种新的方式,让用户直接表达出来他想要的东西,回应了我心里对行为偏好这个事的思考。在我看来,它背后隐藏的判断是,一个人说的话,可能根本不了解自己,但他的行为是100%诚实的。
纯打比方,我有一个群友说,我最近在看机器学习的教程,我搜了好多,但是每一个机器学习算法的视频下面还是小姐姐舞蹈的相关推荐。我想说的是一个人的主观愿望,一个人想要成为的样子,是完全不重要的,他的行为暴露了一切,这不是一个工程师有义务要回答的东西,但我就想把它给说出来,就是我不想臣服于这种逻辑。
风霁:工程逻辑可以解释这个事情。一个用户说我要看这个,但是给他推了之后没看,你要不要做这次推荐?这个是挺经典的搜推联动,如果你搜索了一个东西之后,未来推荐会多出一些这东西,然后你一个都不看,三天之后可能就不给你推了。
那一开始你不看的那几个机器学习视频,是不是仍要推?我们现在的选择是给你推,系统层面有这个机制设计,试探一下你是不是真的喜欢。
你说你想学习,我们配合你学习,但是过了一段时间发现你的真实需求不是学习,还是要满足你的真实需求。你下次再表现想学习的时候,我们再来满足好了。如果你表现了想学习,系统没响应,是系统做得不好。反过来说,如果你表达了学习,过了一段时间还是持续不学习,推荐还要给你让学习,这也是做得不好的表现。
重轻:我心里那个不服的东西,并不是在产品或者算法上有任何实质的意见,我只是觉得人希望自己成为的样子应该是有一份权重的,应该能反映在我所接受的信息、我的经验里面。
风霁:我觉得你不用纠结,我们希望成为的那个人是动力和目标,我们的日常生活,是滋养我们的,是给我们补能的。补能完成了之后,你才能去做你自己的梦想,所以说不相斥。而且兜底来说,你的意图可以通过搜索来满足。如果希望推荐满足我们的一切,10 年前这个事情是不太可能的,按照时间线演进,它变得越来越可能。
下一页上一页  (4/5)
回帖(11):
11 # hanxiao129
02-28 14:26
楼主分享非常不错的
10 # hanxiao129
02-28 14:25
了解一下内幕
9 # hanxiao129
02-28 14:24
不错的导读,谢谢楼主分享
8 # z3960
02-28 06:33
了解信息
7 # z3960
02-28 06:33
看看资讯
6 # 任逍遥
02-28 02:11
不错,了解了
5 # 任逍遥
02-28 02:11
也就看看
4 # 任逍遥
02-28 02:11
来看一下
3 # huwg
02-28 01:26
谢谢分享
2 # huwg
02-28 01:26
了解一下

全部回帖(11)»
最新回帖
收藏本帖
发新帖