CNN新闻,克莱尔·达菲报道
纽约(CNN)——meta未能删除一张由人工智能生成的印度公众人物的露骨照片,直到受到其监督委员会的质疑,该委员会周四在一份报告中表示,该报告呼吁这家科技巨头采取更多措施,解决其平台上未经同意的裸体深度造假问题。
这份报告是meta监督委员会(meta Oversight Board)今年4月宣布的一项调查的结果,调查涉及meta对深度虚假色情内容的处理,其中包括两起具体事件,其中一名美国公众人物和一名印度公众人物的露骨照片被发布。
近几个月来,人工智能色情的威胁引起了人们的关注,泰勒·斯威夫特(Taylor Swift)等名人、美国高中生和世界各地的其他女性都成为了网络虐待的受害者。广泛使用的生成式人工智能工具使创建此类图像变得更快、更容易、更便宜。包括meta在内的社交媒体平台——此类图片可以在其中迅速传播——面临着越来越大的压力,要求它们解决这一问题。
就这位美国公众人物在Facebook上发布的照片而言——这张照片是由人工智能生成的,把她描绘成裸体和被人抚摸的样子——该公司立即删除了这张照片,此前这张照片被添加到一个匹配库中,该库会自动检测违反规则的图片。但在这位印度公众人物的案例中,尽管这张照片被两次举报为meta,但该公司直到监督委员会受理此案后才从Instagram上删除了这张照片。
监督委员会在报告中表示:“meta认定,最初将内容留在Instagram上的决定是错误的,该公司因违反欺凌和骚扰社区标准而删除了这条帖子。”“后来,在董事会开始审议后,meta关闭了发布该内容的账户。”
该报告表明,尽管人工智能的进步使这种形式的骚扰越来越普遍,但meta并没有始终如一地执行针对非自愿性图像的规定。该报告还指出,在非西方国家或非英语国家,facebook在元审核内容方面一直存在问题,这是该公司此前面临的批评。
meta在一份声明中表示,它欢迎董事会的决定。该公司补充说,虽然报告中提到的具体帖子已经被删除,但该公司将对这位印度公众人物的照片“采取行动”,这些照片与监督委员会强调的“完全相同,背景相同”,“在技术和操作上可能的情况下”。
在其报告中,监督委员会——一个由言论自由和人权等领域的专家组成的准独立实体——就meta如何加强打击色情深度造假的努力提出了更多建议。它敦促该公司更新对“贬损性化photoshop”的禁令,明确包括“非自愿”一词,并明确涵盖人工智能等其他照片处理技术,从而使其规则更加清晰。
据报道,meta告诉董事会,它没有将印度公众人物的照片添加到违反规定的照片匹配库中,因为没有关于它的新闻报道,而媒体已经报道了美国公众人物的照片。该委员会表示:“这令人担忧,因为许多深度伪造私密图像的受害者不在公众视野中,他们被迫要么接受未经同意的描述的传播,要么搜索并报告每一个实例。”该委员会补充说,meta在决定是否将图像添加到银行时,可能会考虑其他因素,包括图像是否是人工智能生成的。
打击非自愿深度造假只是meta防止对用户进行性剥削的更大努力的一部分。该公司周三表示,已在尼日利亚删除了约6.3万个参与金融敲诈骗局的账户,这些账户通常是青少年,他们被骗发送裸照,然后被勒索。
The-CNN-Wire?&?2024有线新闻网,Inc.,华纳兄弟发现公司。版权所有。