核心摘要
Meta 监督委员会近日发布报告指出,Meta 在识别和标记深度伪造(Deepfake)内容方面的方法不够稳健且缺乏全面性。特别是在武装冲突等紧急时期,该机制无法有效抑制错误信息的快速传播。
调查发现与建议
- 审核机制失效:委员会调查了去年一段声称“以色列建筑受损”的虚假 AI 视频,发现 Meta 的现有系统未能及时应对。
- 安全风险加剧:在地区军事冲突升级的背景下,虚假 AI 工具被滥用于传播误导性信息,严重威胁用户获取准确、可靠信息的能力。
- 要求全面改革:委员会敦促 Meta 彻底改革在 Facebook、Instagram 和 Threads 上呈现及标记 AI 生成内容的方式。
专家观点
委员会强调,目前的审核逻辑难以跟上 AI 技术演进的速度。在风险加剧的社会环境下,Meta 必须加强其平台的技术识别能力与透明度,以保障公众的信息安全。
—
标签:#Meta #人工智能 #深度伪造 #内容审核 #社交媒体安全