科金社2025年11月23日 11:48消息,谷歌否认用Gmail数据训练AI,辟谣引发公众热议。
11 月 22 日消息,近日,多个社交媒体平台和网络文章广泛传播一种说法:谷歌已悄然更改政策,允许将用户的 Gmail 消息及附件内容用于训练其人工智能模型 Gemini,而用户若想阻止这一行为,唯一的办法是彻底关闭包括拼写检查在内的“智能功能”。
针对这一引发广泛关注的误解,外媒 The Verge 今日发布澄清报道。谷歌发言人珍妮・汤姆森明确表示:“这些报道并不准确——我们没有更改任何设置。Gmail 的智能功能已经存在多年,且我们不会使用用户的 Gmail 内容来训练 Gemini AI 模型。”这一回应直接否定了近期流传的“政策变更”说法,强调当前的数据使用方式与过去一致,并未扩大对用户邮件的访问或利用范围。
尽管如此,The Verge 在测试中发现,即便用户主动选择退出部分智能功能,系统在后续更新或账户同步过程中仍可能将其重新启用,这种“默认开启”的设计机制容易让用户产生失控感。今年 1 月,谷歌确实对智能功能的个性化设置进行了优化,允许用户分别管理 Google Workspace、地图、钱包等不同产品中的相关功能开关。但这一技术调整本意是提升控制灵活性,却被部分解读为“权限扩大”,加剧了公众疑虑。
事实上,Gmail 的智能功能涵盖自动分类、订单追踪、航班信息提取并添加至日历等多项实用服务,极大提升了用户体验。根据谷歌设置页面说明,启用这些功能意味着“您同意 Google Workspace 使用您的 Workspace 内容和活动来优化您的使用体验”。然而,这并不等于授权谷歌将个人通信内容投入 AI 训练池。谷歌反复强调,此类数据处理严格限定在服务改进范围内,且受隐私协议约束。
从新闻角度看,此次事件反映出一个更深层的问题:在 AI 技术迅猛发展的背景下,公众对数据隐私的敏感度空前提高,而科技公司透明沟通的能力却未能完全跟上。哪怕是没有实质变更的政策,只要表述模糊或设置复杂,就极易被误读甚至放大为“数据滥用”。谷歌虽及时澄清,但其默认开启、难以彻底关闭的功能逻辑,客观上削弱了用户信任。
我们认为,在人工智能日益渗透日常服务的今天,企业不应仅满足于“未违规”,而应主动建立更清晰、更易操作的隐私控制机制。真正的用户赋权,不仅是提供开关选项,更要确保这些选项稳定有效、不被系统重置所绕过。唯有如此,才能在技术创新与隐私保护之间重建平衡。
留言评论
(已有 0 条评论)暂无评论,成为第一个评论者吧!