上周 AI 搜索引擎公司 Perplexity 发布了一个名为 R1 1776 的模型,从命名规律也能看出一二,它是一个基于 DeepSeek-R1 开发的模型。
DeepSeek-R1 是一款完全开源的大模型,基于 MIT 协议任何个人和企业都可能无限制地使用和修改这个模型,甚至是用来训练其他模型,理论上 Perplexity 在 DeepSeek-R1 的基础上进行再开发是没有问题的,但 Perplexity 却在介绍中特别强调道 R1 1776 通过后训练移除了中国的内容审查机制,旨在提供「所谓的无偏见、准确、真实」的信息。
然而,这一举措不仅未能实现其高调宣称的目标,反而暴露了技术傲慢、伦理缺陷和地缘政治偏见的深层问题。我们有理由质疑:这并非是一次技术突破,而是披着“自由”外衣的意识形态输出。
“无偏见、准确、真实”?一个不可能的谎言
Perplexity 以 DeepSeek-R1 为基础,通过识别数百个主题、挖掘数万个多语言提示,并利用人类与 LLM 判断进行后训练,推出了 R1 1776。官方声称,模型移除了中国的内容审查机制,且推理能力未受损。
然而,就有网友一针见血地指出:“他们(Perplexity)是否用美国审查制度取代了原本的审查制度?”。这一质疑并非空穴来风。
图源:Reddit
关于 AI 在去偏见过程中可能引入新偏见的研究是一个广受关注的话题。研究显示,AI 在去偏见过程往往会引入新偏见(例如会放大西方视角等)。一个典型的研究就是 “Bias in Bias Correction Algorithms”,研究探讨了去偏算法是否有可能以不同的方式处理多样性,从而无意中增加某些群体的偏见。
而且 AI 中的“公平性”和“无偏见”模型常常存在潜在的冲突。研究提出,去偏算法可能会导致一种“公平性”的假象,而没有彻底消除模型中的根本性偏差。比如,某些去偏算法可能会让某些群体看起来公平,但实际上可能对其他群体不公平。
更具讽刺的是 R1 1776 这个模型的名称 “1776”,这是美国独立的年份,相信这也绝非巧合,而是 Perplexity 政治立场的明示。
图源:Reddit
在 AI 社区 Hugging Face 的讨论中就有人质疑:“这是否是政治声明?”。更有网友讽刺 R1 1776 是“具有美国特色的推理模型”。与其说是技术创新,不如说是意识形态输出,其背后动机也令人怀疑。
除了所谓的无偏见,R1 1776 在准确性和真实性上也同样遭受质疑。DeepSeek-R1 原本除了审查敏感信息,另一个需要审查的就是潜在的虚假信息。当 R1 1776 移除了审查后可能就会导致未经验证的信息泛滥,解禁后却可能输出片面甚至失实的内容。
实际上,审查在美国科技巨头的 AI 大模型中也广泛存在,在面对以色列、巴勒斯坦、美国黑人和 LGBT 等问题上,AI 模型同样会给出“模糊”的结果,那么谁又来解除他们的审查呢?这也直接体现出 Perplexity 的选择性去审查中所暴露出的双重标准。
图源:Perplexity
与此同时,Perplexity 的后训练还引发了性能隐患,在官方公布的基准测试中就有多项测试的成绩反而出现了倒退,与他们所宣称的“准确”背道而驰。至于 Perplexity 声称推理能力未变,但由于并未公开详细数据,其真实性同样令人怀疑。
从维基百科到 R1 1776:一贯的偏见执念
在今年 1 月,Perplexity 的首席执行官 Aravind Srinivas 就曾公开宣称:
很明显,维基百科是有偏见的。我很乐意支持任何想用 Perplexity APIs 建立一个更中立、更公正的维基百科替代品的人。这是一个漫长的项目,需要认真投入。所以,如果你想做,请联系我。
图源:X
这一表态已显露出 Perplexity 对“偏见”的执着关注,以及用自家技术“矫正”信息生态的野心。如今,R1 1776 的发布不过是这一理念的延续 —— 从挑战维基百科的“偏见”,到移除 DeepSeek-R1 的审查,Perplexity 似乎沉迷于扮演“信息正义”的卫士。
图源:Reddit
针对 Perplexity 想要建立“无偏见”的维基百科一事,在海外社区 Reddit 上就有人发起了呼吁用户不要继续使用 Perplexity 的话题,得到了近千的点赞。
自掘商业坟墓:市场与融资的双重风险
2024 年 1 月,Perplexity 的估值仅为 5.2 亿美元,而到了 2024 年 12 月,当他们完成 5 亿美元融资后,公司的估值飙升至 90 亿,相比年初增长了 17 倍。
Perplexity 作为一家迅速崛起的创业公司,备受瞩目,但它目前依然高度依赖外部融资以维持发展。然而,R1 1776 的激进举动可能会让美国以外的投资者望而却步。先不说中国投资者会因为他们的立场而回避,即便是欧洲或中东的投资者可能也会因其“美国特色”标签和潜在争议感到不安。
更糟的是,这一举动同样也不利于 Perplexity 的国际市场拓展。初创企业若想在全球立足,毫无疑问需要避免过度依赖单一文化或政治叙事,而 Perplexity 的做法恰恰相反 —— 它不仅放弃了中立性,还将自己与美国意识形态深度绑定。这种策略可能在短期内吸引部分美国本土关注,但在国际市场上无异于自断后路。
一场信任危机的蔓延
面对 Perplexity 的 R1 1776,开源社区的反应远比简单的"失望与愤怒"更为复杂和深远。这已不仅是对单一产品的批评,而是对开源精神本身被曲解利用的集体忧虑。
图源:Hugging Face
DeepSeek 作为开源社区的积极贡献者,选择 MIT 许可证发布其模型,旨在促进技术共享与创新。然而,Perplexity 的行为却让这种开放精神蒙上了阴影。一位活跃的开源贡献者在 GitHub 讨论中直言不讳:"下次获得 MIT 许可会变得更加困难,这要归功于 Perplexity。他们利用开源的慷慨,却回报以政治化的曲解"。
图源:Hugging Face
更为严重的是,这种做法可能引发连锁反应。或许未来很多 AI 领域的开源项目会考虑更改许可协议,从完全开放的 MIT 转向更具限制性的选项。
图源:Hugging Face
图源:Hugging Face
图源:Reddit
图源:Reddit
除此之外,类似事件可能导致跨国 AI 开源合作的倒退。
一场自毁前程的表演
Perplexity 的 R1 1776 不是技术进步,而是自毁前程的表演。它未能实现“无偏见、准确、真实”的承诺,反而引入新偏见、挑起争议,最终可能因技术缺陷和伦理失误付出代价。
这场去审查闹剧,不仅浪费了工程资源,还可能让 Perplexity 在 AI 社区中失去信任。真正的自由模型不应是意识形态的傀儡,而是用户需求的忠实工具。显然,R1 1776 离这一目标还差得远。