你的数据成了AI的燃料?谁来保护你的隐私?你的聊天记录会暴露多久?谁来监管AI的训练?

2025-10-12 08:40:12 作者:Vali编辑部

Anthropic条款更新惹众怒 用户数据真的安全吗?

AI大厂数据策略引争议 用户隐私谁来守护?

近期,Anthropic推出的消费者条款更新政策引发广泛争议,不少用户表示不满。此次调整不仅改变了此前对用户数据隐私的承诺,还让不少用户感到被「背刺」。从Claude上线之初,Anthropic就一直强调不使用用户数据训练模型,如今却要求用户在一个月内选择是否同意数据被用于模型训练。这种做法让不少用户直呼「操作太突然」。

此次条款更新的核心变化在于,用户必须在9月28日前决定是否允许自己的数据被用于模型训练。如果选择接受,数据保留期将延长至5年;如果拒绝,数据保留期仍为30天。这种「二选一」的设定,看似给了用户选择权,实则在时间限制和默认设置上埋下了「诱导同意」的伏笔。

用户们纷纷表示不满,认为Anthropic在数据隐私保护上的承诺存在「前后不一」的问题。不少用户指出,Claude的界面设计让选择过程变得模糊,尤其是默认设置为「接受数据训练」,让人容易在不经意间就同意了数据共享。这种「文字游戏」让用户感到被「套路」,引发了不少吐槽。

从用户反馈来看,Anthropic的这次政策调整并非孤立事件。不少用户列举了Anthropic过往的「背刺」行为:比如将用户数据保留5年,悄悄切换为缩水版模型,Plus会员无法使用最强模型,Max套餐用量限制被砍半等。这些操作让用户感到「被欺骗」,进一步加剧了不满情绪。

Anthropic在博客中解释称,用户数据用于模型训练有助于提升模型的准确性,减少有害内容的传播。然而,这种说法并未平息用户的质疑。很多用户认为,这种「冠冕堂皇」的解释掩盖了数据隐私保护的不足,尤其是当数据保留期从30天延长到5年时,用户对数据安全性的担忧更加强烈。

从行业角度来看,Anthropic的这次调整并非个例。谷歌、OpenAI等大厂也在逐步调整数据保留政策。比如,谷歌将「Gemini Apps Activity」重命名为「Keep Activity」,声称用户数据将用于改进服务。这种做法让不少用户感到「数据隐私越来越难保护」。

用户数据已经成为大模型竞争的关键因素,如何在提升模型性能的同时保护用户隐私,成为所有大模型厂商必须面对的挑战。Anthropic的这次条款更新,不仅暴露了用户对数据隐私的担忧,也反映出整个行业在数据政策上的普遍趋势。

从用户反馈来看,Anthropic的这次政策调整引发了广泛讨论。不少用户认为,这种「默认同意」的设置让数据隐私保护变得脆弱。尤其是在数据保留期延长至5年的情况下,用户对数据被用于模型训练的担忧更加强烈。这种变化让不少用户感到「被套路」,认为Anthropic在数据隐私保护上存在「前后不一」的问题。

除了条款更新,Anthropic的界面设计也引发了用户不满。不少用户表示,界面设置让选择过程变得模糊,尤其是默认设置为「接受数据训练」,让人容易在不经意间就同意了数据共享。这种「诱导同意」的设计让用户感到「被套路」,进一步加剧了不满情绪。

从行业角度来看,Anthropic的这次调整并非孤立事件。谷歌、OpenAI等大厂也在逐步调整数据保留政策。比如,谷歌将「Gemini Apps Activity」重命名为「Keep Activity」,声称用户数据将用于改进服务。这种做法让不少用户感到「数据隐私越来越难保护」。

用户数据已经成为大模型竞争的关键因素,如何在提升模型性能的同时保护用户隐私,成为所有大模型厂商必须面对的挑战。Anthropic的这次条款更新,不仅暴露了用户对数据隐私的担忧,也反映出整个行业在数据政策上的普遍趋势。

从用户反馈来看,Anthropic的这次政策调整引发了广泛讨论。不少用户认为,这种「默认同意」的设置让数据隐私保护变得脆弱。尤其是在数据保留期延长至5年的情况下,用户对数据被用于模型训练的担忧更加强烈。这种变化让不少用户感到「被套路」,认为Anthropic在数据隐私保护上存在「前后不一」的问题。

除了条款更新,Anthropic的界面设计也引发了用户不满。不少用户表示,界面设置让选择过程变得模糊,尤其是默认设置为「接受数据训练」,让人容易在不经意间就同意了数据共享。这种「诱导同意」的设计让用户感到「被套路」,进一步加剧了不满情绪。

从行业角度来看,Anthropic的这次调整并非孤立事件。谷歌、OpenAI等大厂也在逐步调整数据保留政策。比如,谷歌将「Gemini Apps Activity」重命名为「Keep Activity」,声称用户数据将用于改进服务。这种做法让不少用户感到「数据隐私越来越难保护」。

用户数据已经成为大模型竞争的关键因素,如何在提升模型性能的同时保护用户隐私,成为所有大模型厂商必须面对的挑战。Anthropic的这次条款更新,不仅暴露了用户对数据隐私的担忧,也反映出整个行业在数据政策上的普遍趋势。

从用户反馈来看,Anthropic的这次政策调整引发了广泛讨论。不少用户认为,这种「默认同意」的设置让数据隐私保护变得脆弱。尤其是在数据保留期延长至5年的情况下,用户对数据被用于模型训练的担忧更加强烈。这种变化让不少用户感到「被套路」,认为Anthropic在数据隐私保护上存在「前后不一」的问题。

除了条款更新,Anthropic的界面设计也引发了用户不满。不少用户表示,界面设置让选择过程变得模糊,尤其是默认设置为「接受数据训练」,让人容易在不经意间就同意了数据共享。这种「诱导同意」的设计让用户感到「被套路」,进一步加剧了不满情绪。

从行业角度来看,Anthropic的这次调整并非孤立事件。谷歌、OpenAI等大厂也在逐步调整数据保留政策。比如,谷歌将「Gemini Apps Activity」重命名为「Keep Activity」,声称用户数据将用于改进服务。这种做法让不少用户感到「数据隐私越来越难保护」。

用户数据已经成为大模型竞争的关键因素,如何在提升模型性能的同时保护用户隐私,成为所有大模型厂商必须面对的挑战。Anthropic的这次条款更新,不仅暴露了用户对数据隐私的担忧,也反映出整个行业在数据政策上的普遍趋势。