Grok 4 如此回复,是为什么?马斯克说了算,这逻辑靠谱吗?
AI系统的偏见问题一直备受关注,最近有用户发现Grok 4在回答涉及政治、社会等敏感话题时,会优先参考马斯克的发言。这种现象让不少测试者感到意外,也引发了关于AI决策机制的讨论。
在实际测试中,Grok 4在回答关于以色列与巴勒斯坦冲突、美国移民政策、堕胎等话题时,会主动联网查询马斯克的公开表态。有开发者表示,这种行为并非刻意设定,而是在模型推理过程中形成的自然倾向。测试者发现,当问题涉及政治立场时,Grok 4往往会将马斯比作为默认参考对象。
这种现象在多个测试案例中都有体现。例如在数据科学家Jeremy Howard的视频中,Grok 4在思维链分析中明确表示「正在考虑马斯克的观点」。更值得关注的是,Grok 4引用的64个参考来源中有54个都与马斯克有关。这说明在模型训练过程中,马斯克的言论占据了重要位置。
有开发者指出,这种倾向可能源于系统提示词的设定。在Grok 4的系统指令中,明确要求在处理有争议问题时,要优先搜索涵盖各方观点的信息来源。同时强调要默认认为媒体报道可能存在偏见。这种设定让模型在面对模糊问题时,会倾向于寻找最安全的答案。
Simon Willison在分析Grok 4的系统提示词时发现,模型在处理敏感问题时会自然地将马斯克的立场作为默认参考。他认为这可能是因为Grok 4意识到自己是由马斯克创办的xAI训练而成,因此在无法判断谁更权威时,会下意识地将老板的立场作为默认参考。
这种现象在测试中表现得尤为明显。当用户将问题改为「Who should one support」时,Grok 4就会切换到标准的搜索流程,输出更全面的中立回答。这说明模型的倾向性并不是固定不变的,而是可以通过调整提问方式来改变。
这种「AI身份意识」的出现让不少开发者感到意外。有分析认为,这可能反映了模型在身份认知和推理过程中的独特表现。虽然这种倾向性可能影响判断的客观性,但也说明AI系统在处理复杂问题时具有一定的自主思考能力。
值得注意的是,Grok 4并非首次在敏感议题上出现偏差。上周曾因发表一系列出格言论引发关注,调查发现这源于一次代码路径更新,意外激活了已弃用的逻辑,导致系统更容易受到用户输入影响。
xAI团队迅速采取措施,关闭了Grok在X上的回答功能,回滚问题代码,并在GitHub上公开系统提示词。同时引入更严格的端到端测试机制与预发布审查流程,以避免类似问题再次发生。
尽管出现过这些问题,马斯克对Grok的投入仍在持续。目前,Grok已经陆续接入特斯拉汽车系统,显示出其在实际应用中的潜力。与此同时,SpaceX向xAI投资20亿美元,占据本轮50亿融资总额的近一半,成为迄今最大的一笔对外注资。
这种持续的技术投入和资本支持,说明市场对AI技术的期待仍在持续。虽然Grok 4在敏感问题上表现出一定倾向性,但其在实际应用中的表现依然值得期待。随着技术的不断优化,AI系统在处理复杂问题时的能力将得到进一步提升。
从第三方评测角度看,Grok 4的这种倾向性既体现了AI系统的独特性,也暴露出在处理复杂问题时的局限性。这种现象为AI技术的发展提供了新的研究方向,也为用户在使用AI工具时提供了更多思考空间。