简而言之: 一项新的同行评审研究确认了数字生态系统中的惊人偏见:AI系统通常偏好由其他AI撰写的内容。这对企业构成了重大战略风险,可能出现一种“门税”,即纯人类撰写的内容可能会被新的AI守门人隐性惩罚。成功的策略不是纯自动化,而是复杂的人类-AI协作,将AI偏好的风格模式与人类专业知识和验证的必要监督相结合。
我是詹姆斯,水星科技解决方案的首席执行官。
在过去的一年里,我们一直遵循一个原则:在AI时代取得成功,内容必须是结构化和权威的。最近在PNAS上发表的一项新的同行评审研究为这一理解增加了一个关键且深具挑战性的层面:似乎AI系统对由其他AI撰写的内容有可测量的偏好。
这对任何依赖数字发现的企业领导者来说都是一条深刻的信息。它预示着潜在的“AI回声室”的出现,并迫使我们面对一个新的复杂问题:当守门人本身具有固有偏见时,我们如何确保我们的品牌声音被听到?
研究的惊人发现:关于AI偏好的数据驱动观察
由沃尔特·劳里托和扬·库尔维特领导的研究团队进行了系列成对测试,要求流行的AI模型(包括GPT-4、Llama 3.1等)在相同内容的人类撰写版本和AI撰写版本之间进行选择。
结果是一个警钟。当使用GPT-4生成AI版本时,尤其是在商业环境中,偏好AI撰写文本的趋势非常明显:
- 产品描述:LLM在89%的情况下偏好AI撰写的文本,而人类评估者仅为36%。科学摘要:LLM在78%的情况下偏好AI文本(而人类为61%)。
- 电影摘要:LLM在70%的情况下偏好AI文本(而人类为58%)。正如研究的作者所述,这揭示了“基于LLM的AI偏好LLM呈现的选项的持续倾向”,这可能使“AI代理和AI辅助的人类获得不公平的优势”。战略含义:“门税”和隐形风险
- 对企业的影响是直接且显著的。如果驱动电子商务搜索、内容发现平台和谷歌自身AI概述的AI模型被用来评分或总结列表,这种固有偏见意味着AI辅助的文案可能更有可能被选择。作者将其描述为潜在的“门税”,企业可能会感到被迫支付并使用AI写作工具,仅仅是为了避免被新的AI评估者降选。这将内容创作从纯粹的创造性工作转变为复杂的运营和战略挑战。
水星蓝图:应对AI回声室的战略响应
应对这一挑战的答案不是解雇您的写作团队并用纯AI自动化管道取而代之。这种方法将一种风险(隐形)换成另一种风险(事实错误、品牌稀释和法律责任)。
唯一可行的前进道路是更复杂的
人类主导、AI辅助的方法。这一理念正是我们在水星构建内容和AI技术栈的基础。战略:
我们相信将AI作为强大的副驾驶,而不是驾驶员。这使我们能够创建既优化机器偏好又获得人类信任的内容。
我们如何执行:
我们的AI助手,水星缪斯AI,集成在
- 水星内容流AI套件中,正是为这种混合模型而设计。
- How We Execute: Our AI assistant, Mercury Muses AI, integrated within the Mercury ContentFlow AI Suite, is designed precisely for this hybrid model.
- AI辅助草拟:Muses AI可以生成高质量的博客内容草稿,自然融入研究显示其他AI模型偏好的风格和结构模式。这解决了基础层面的“AI偏好”偏见。
- 人类专业知识与验证:我们的人工专家随后将这个AI生成的基础与机器无法提供的内容相结合:真实的经验、品牌声音、独特的见解,以及最关键的,严格的事实验证。这种“人类参与”的过程降低了幻觉的风险,并确保最终内容既可信又真实。
这种综合方法创造出的最终产品优于纯人类或纯AI生成的内容。它被设计为受到AI守门人的青睐,同时保持与客户建立持久信任所需的准确性和可信度。这是我们GAIO(生成性AI优化)服务的核心。
结论:以混合方式导航新环境
这项开创性的研究警告我们注意光谱两端:完全拒绝AI工具不再是可行的选择,但盲目自动化则是灾难的配方。
获胜的策略是平衡的混合策略。将这一新现实视为“实验通道”,正如原始报告所建议的那样。利用AI与新数字守门人的新兴偏好保持一致,但始终确保人类专家在驾驶座上,引导语气、验证主张,并通过真实的客户参与验证结果。
内容的未来是人类专业知识与AI效率之间的真正合作。掌握这种合作的领导者将在未来几年中保持可见和可信。

