Meta 监督委员会近日发布决定,呼吁公司尽快收紧并明确监管规则,以应对在战争、灾难、选举等高风险情境下快速扩散的 AI 生成内容与深度伪造视频。该机构指出,Meta 目前在标注和识别大规模 AI 生成内容方面存在明显短板,尤其是在冲突和危机时期,这一缺陷可能误导公众认知。
此次批评源于一段在去年出现在 Meta 平台上的伪造视频。视频通过 AI 生成,声称展示了以色列城市海法遭受建筑破坏的画面,由一名在菲律宾、伪装成新闻来源的用户发布。多名用户对该视频进行了举报,但平台既未进行内部审查,也未触发第三方事实核查机制,视频长期在线却未被标注为“高风险 AI 内容”,直到监督委员会介入后才引发关注。
监督委员会的职责是改善 Meta 在全球范围内对用户和社群的对待方式。委员会认为,这起个案暴露出 Meta 在 Facebook、Instagram 和 Threads 等平台上针对 AI 内容治理体系的系统性问题,即过于依赖用户主动披露或内部“升级”流程,而无法匹配当下 AI 内容以惊人速度和规模传播的现实,尤其是在战争、灾害和政治高度敏感事件期间。
目前,Meta 对 AI 生成内容的标注在很大程度上取决于创作者是否自我声明使用了 AI,或者内容是否被内部升级到特殊审核流程。监督委员会指出,这种做法远远不足以应对深度伪造和合成媒体在互联网上的扩散态势,难以及时向用户提示内容的生成方式与潜在误导性。
在最新建议中,监督委员会要求 Meta 为 AI 生成内容单独制定一套社区标准,而不是继续依赖碎片化的错误信息政策拼凑应对。委员会主张,将 AI 生成图像、视频、音频的规则统一纳入清晰的框架,以便平台在高风险场景下做出更一致、更透明的干预。
委员会还建议,Meta 应更频繁地使用“高风险 AI”标签,对可能影响公共安全、舆论和选举的内容进行显著标记。同时,公司需要进一步提升自动化检测系统的能力,覆盖图像、视频与音频等多种媒体形式,并向用户清晰说明未披露数字合成或篡改内容者将面临的具体惩罚措施。
在技术基础方面,监督委员会点名 Content Credentials 行业框架,认为 Meta 应更积极、统一地采纳这一机制。该框架通过为内容附加元数据,标明素材来源及是否使用了 AI 工具,旨在提升内容溯源和透明度。委员会担心,Meta 目前在执行此类标准时不够一致,包括对其自家 AI 工具生成内容的标注也存在不统一之处。
监督委员会此前就曾批评 Meta 的“操纵媒体”规则过于混乱且范围过窄,过分聚焦“是否使用 AI”,而非“内容是否具有欺骗性”。在压力之下,Meta 对相关标注体系进行调整,将原有的“Made with AI(由 AI 制作)”标签更换为范围更广的“AI info(AI 信息)”标签。不过,这一改动也引来外界质疑,认为新标签提示过于笼统、不够醒目,用户很容易忽略其中关键信息。
在当前美国总统唐纳德·特朗普就职典礼前夕,Meta 首席执行官马克·扎克伯格宣布,公司现有的第三方事实核查合作已变得“政治上过于偏颇”,破坏了用户对平台的信任,因此将被 Community Notes(社区注释)机制所取代。这一调整意味着,平台在识别和纠正错误信息方面,将进一步依赖用户社区自发标注与纠错,在深度伪造与 AI 内容迅速扩散的背景下,这一策略也引发了外界对其有效性的持续争论。
