【量子位 2025年12月13日讯】职业社交平台LinkedIn的算法正深陷“性别偏见”漩涡。12月12日,据TechCrunch报道,一场名为#WearthePants的实验在女性用户中悄然展开:数十名女性将LinkedIn个人资料性别改为男性、名字换成男性化名称后,帖子曝光量短时间内大幅飙升——创始人Marilynn Joyner的曝光量1天内增长238%,产品 strategist“Michelle”(化名)的互动量提升27%。而这一切的导火索,是LinkedIn今年8月引入大语言模型(LLM)优化内容推荐后,大量女性用户反映“粉丝更多却与男性用户曝光量持平,甚至更低”。面对争议,LinkedIn坚称“算法不使用性别等人口统计数据作为推荐信号”,但数据伦理专家与研究者指出,LLM训练数据中隐含的“男性化表达更有价值”的偏见,可能正通过算法放大,形成隐性歧视。
实验揭弊:改性别、换名字,曝光量立竿见影
这场自发实验始于两位创业者Cindy Gallop与Jane Evans的偶然发现——两人合计拥有超15万粉丝,却发现相同内容由粉丝仅9400人的男性账号发布时,触达人数相差10倍以上:Gallop的帖子仅触达801人,而男性账号同款内容触达10408人,甚至超过其粉丝总数。这一现象引发更多女性用户效仿,最终形成#WearthePants实验浪潮,核心发现集中在三点:
-
性别成“关键变量”,粉丝量优势失效参与实验的“Michelle”拥有1万+粉丝,长期为粉丝仅2000人的丈夫代笔发帖,却发现两人曝光量始终相近。当她将资料改为“男性Michael”后,不仅曝光量暴涨200%,还观察到一个细节:她模仿丈夫“简洁直接”的文风发帖时,互动量提升更明显;若沿用自己习惯的“偏细腻”表达,效果则打折扣。“唯一的变量只有性别,以及性别带来的表达风格差异。”她在接受TechCrunch采访时强调。
-
多案例印证,偏见并非个例类似案例不断涌现:创业者Rosie Taylor改性别后,职场经验分享类帖子点赞量从日均50+增至180+;HR从业者Abby Nydam发现,同样是“招聘技巧”主题,女性身份时曝光量不足200,男性身份时突破1200。截至12月12日,TechCrunch已核实23位参与者的数据,其中19人表示改性别后曝光量增长超100%,且内容类型越偏向“专业领域”(如技术、金融),增长幅度越大。
-
男性用户也受波及,算法“偏爱”特定表达争议并非仅存在于性别之间。销售专家Chad Johnson指出,LinkedIn新算法“不再关注发帖频率、点赞评论量,而是优先推荐‘有理解度、清晰度、价值感’的内容”——这导致部分男性用户因内容风格偏向“感性叙事”,曝光量下降50%;反之,另一位男性用户因聚焦“垂直领域分析”,曝光量翻倍,其客户也出现类似趋势,印证算法对“内容风格”的筛选远超过去。
平台回应:否认性别作为信号,却避谈LLM隐性偏见
面对愈演愈烈的争议,LinkedIn在12月11日至12日期间多次发声,试图澄清算法逻辑,但核心回应始终围绕“否认显性歧视”展开,未正面解答“隐性偏见”质疑:
-
官方立场:人口数据不影响推荐,差异源于多因素LinkedIn在给TechCrunch的声明中明确表示,“算法与AI系统不会将年龄、种族、性别等人口统计信息作为内容可见性的信号”,并解释“个人曝光量差异可能源于互动行为、内容类型、用户网络等多种变量,不能简单归因于偏见”。负责AI治理的负责人Sakshi Jain补充称,平台会通过“测试不同创作者内容的竞争力”确保公平性,人口数据仅用于此类测试,不直接参与推荐。
-
数据披露模糊,算法“黑箱”难打开尽管强调“公平性测试”,LinkedIn未公开测试的具体方法、样本量及结果,也未说明LLM训练数据的来源与去偏见措施。正如数据伦理顾问Brandeis Marshall所言:“平台算法是无数数学与社交杠杆的复杂组合,改性别只是其中一个杠杆,我们不知道还有多少未公开的变量在影响推荐——比如用户过往互动的账号性别、内容关键词与性别标签的关联度等。”这种“黑箱属性”让用户难以验证官方说法的真实性。
-
历史调整难消疑虑,LLM引入后争议加剧LinkedIn曾因算法偏见问题调整策略,例如2023年优化“职场机会推荐”,减少对“男性主导领域”的倾斜。但今年8月引入LLM后,争议再度爆发——研究者普遍认为,主流LLM训练数据中存在“男性视角过度代表”的问题(如技术文档、专业论文中男性作者占比超70%),若未针对性去偏见,算法可能会将“简洁、理性”等与男性相关的表达风格,默认为“高价值内容”,从而隐性压制女性用户内容。
专家解读:隐性偏见如何通过算法放大?
多位数据科学与AI伦理领域的专家指出,LinkedIn的争议并非“算法故意歧视女性”,而是LLM与推荐系统结合时,常见的“隐性偏见传导”问题,核心逻辑可拆解为三层:
-
第一层:LLM训练数据自带“性别刻板印象”康奈尔大学计算机科学助理教授Sarah Dean解释,多数LLM训练数据来自人类生成内容,而这些内容中普遍存在“性别分工”的刻板印象——例如“技术分析”“商业策略”类文本多由男性创作,且更倾向于“直接结论+数据支撑”的风格;“职场感悟”“团队管理”类文本中女性作者占比高,表达上更注重“案例细节+情感共鸣”。当LLM学习这些数据后,会不自觉地将“男性化表达”与“专业价值”关联,形成隐性偏好。
-
第二层:推荐算法强化“历史信号”,陷入循环即使算法不直接使用性别数据,也会通过“用户互动历史”间接放大偏见。Dean举例:若过去平台上“男性化风格内容”获得更多点击、收藏,算法会认为这类内容“更受用户欢迎”,进而增加推荐权重;女性用户因内容曝光量低,互动数据随之减少,又导致算法进一步降低其内容优先级,形成“越不推越没人看,越没人看越不推”的恶性循环。这种“强化历史信号”的机制,正是北大教授姚洋此前提到的“算法可能放大既有偏见”的典型场景,与“扩宽认知边界”的理想效果相悖。
-
第三层:用户行为与算法的“双向塑造”算法不仅筛选内容,还会影响用户的表达习惯。参与实验的“Michelle”就提到,为了适应新算法,她不得不模仿丈夫的“简洁文风”,甚至减少“案例故事”的比例——这种“为算法调整内容”的行为,反过来又会让LLM接收到更多“男性化风格”的优质内容,进一步固化偏见。正如Marshall所说:“如果黑人女性只有谈论‘种族话题’才能获得互动,专业内容无人问津;如果女性必须用男性化方式表达才能被看见,这本身就是一种隐性歧视,会限制职业表达的多样性。”
行业启示:算法公平性需“全链路治理”,而非仅靠“否认歧视”
LinkedIn的算法争议,再次暴露了AI时代“算法公平性”的核心难题:如何在追求“推荐精准度”的同时,避免放大社会既有偏见?专家与从业者提出三点建议:
-
对平台:公开部分算法逻辑,加强LLM去偏见训练研究者呼吁LinkedIn公开“内容价值评估的核心维度”(如清晰度、价值感的具体衡量指标),并披露LLM训练数据的去偏见措施(如是否平衡不同性别、种族作者的文本比例)。此外,可借鉴GroupLens系统(1994年推出的早期推荐系统)的思路,通过“用户兴趣相似性”而非“内容风格标签”推荐,减少对特定表达的过度偏爱。
-
对用户:多样化内容类型,主动打破“风格陷阱”针对当前算法偏好“专业分析”的特点,用户可尝试“专业内容+个人洞察”的混合风格——例如技术从业者在分享代码技巧时,加入“女性视角下的效率提升方法”,既符合算法对“价值感”的要求,又保留个人特色。同时,可通过主动互动“跨性别、跨领域”的内容,帮助算法拓宽推荐边界,避免陷入“信息茧房”。
-
对监管:推动“算法影响评估”常态化目前全球多数地区对社交平台算法的监管仍停留在“事后追责”阶段,未来可参考“欧盟AI法案”的思路,要求平台在引入新算法(如LLM推荐)前,开展“偏见影响评估”,并公开评估报告,尤其是对“弱势群体”(如女性、少数族裔)的潜在影响,从制度层面倒逼算法公平。
截至发稿,LinkedIn尚未宣布针对此次争议的具体调整措施,#WearthePants话题仍在平台发酵。对用户而言,这场争议的核心并非“反对算法优化”,而是渴望“透明与公平”——正如“Michelle”所说:“我们不奢求曝光量绝对平等,但希望知道算法究竟在偏爱什么,让我们有机会用自己的方式去适应,而不是被迫改变性别身份或表达风格。”在AI深度渗透内容推荐的今天,LinkedIn的选择或将成为行业“算法公平性治理”的重要参考。