要点速览
- MIT 技术评论最新文章深入分析 AI 时代的「真相危机」
- 研究发现,即使人们知道内容是深度伪造,仍会受到情感影响
- 内容真实性倡议(CAI)等验证工具在实践中效果有限
- 美国政府机构已开始使用 AI 视频生成器制作公共内容
- 透明度和验证工具不足以重建社会信任
新闻摘要
2026 年 2 月 2 日,MIT 技术评论发表深度文章《我们对 AI 真相危机的理解错在哪里?》,分析了当前 AI 内容泛滥时代面临的信任挑战。文章指出,尽管业界推出了各种内容验证工具,但这些工具在实践中效果有限,无法解决深层的信任危机。
文章引用了一项发表在《通讯心理学》期刊上的研究:参与者观看了一个深度伪造的「犯罪供词」,即使明确被告知证据是伪造的,他们在判断个体有罪时仍会受到这些内容的情感影响。这表明,透明度本身不足以消除 AI 内容的心理影响。
文章还披露,美国国土安全部(DHS)已确认使用 Google 和 Adobe 的 AI 视频生成器制作向公众分享的内容。这发生在移民机构大量使用 AI 生成内容支持特朗普政府大规模驱逐议程的背景下。
新闻解读
验证工具的局限性:文章批评了内容真实性倡议(CAI)等验证工具的局限性。Adobe 仅在内容完全由 AI 生成时自动添加标签,其他情况下标签由创作者自愿添加。更重要的是,X(原 Twitter)等平台可以剥离这些标签,或者根本不显示它们。
情感影响的持久性:研究显示,即使人们知道内容是伪造的,其情感影响仍然存在。这意味着传统的「事实核查」模式在 AI 时代面临根本性挑战。虚假信息专家 Christopher Nehring 指出:「透明度有帮助,但仅靠透明度是不够的。」
政府使用 AI 的伦理问题:美国政府机构使用 AI 生成公共内容引发了严重的伦理问题。文章提到,白宫曾发布一张经过数字修改的 ICE 抗议逮捕照片,使被捕女性显得歇斯底里和泪流满面。当被问及是否故意修改时,白宫副通讯主任 Kaelan Dorr 没有回应,只是写道:「表情包将继续。」
新闻行业的困境:文章还提到,MS Now(原 MSNBC)分享了一张经过 AI 编辑的 Alex Pretti 照片,使其看起来更英俊。虽然该新闻机构表示在播出时不知道照片被编辑,但这反映了新闻行业在 AI 时代面临的验证挑战。
需要新的应对策略:文章最后指出,我们为 AI 真相危机所做的准备存在根本缺陷。警告围绕一个核心论点展开:无法分辨真实与虚假将摧毁我们,因此我们需要独立验证真相的工具。但现实是,这些工具正在失败,而核实真相虽然仍然必要,但已不足以产生我们所承诺的社会信任。我们需要制定应对深度伪造的新总体规划。
