华盛顿(美联社)——一名儿童精神病学家修改了他在Facebook上看到的一张开学第一天的照片,让一群女孩看起来全裸。一名美国陆军士兵被指控制作他所认识的儿童遭受性虐待的图片。一个软件工程师负责生成超现实的儿童色情图片。
美国各地的执法机构正在打击通过人工智能技术创造的东西,从篡改的真实儿童照片到电脑生成的儿童图像。司法部官员表示,他们正在积极追查利用人工智能工具的罪犯,同时确保那些制作“深度伪造”和其他有害儿童图像的人可以根据他们的法律受到起诉。
司法部儿童剥削和淫秽物品部门负责人史蒂文·格罗基(Steven Grocki)在接受美联社(the Associated Press)采访时表示:“我们必须尽早并经常发出信号,表明这是一种犯罪行为,当证据支持时,将对其进行调查和起诉。”“如果你坐在那里不这么想,那你就大错特错了。你迟早会被追究责任的。”
美国司法部表示,现有的联邦法律明确适用于此类内容,最近发生了据信是第一起涉及纯人工智能生成图像的联邦案件,这意味着所描绘的儿童不是真实的,而是虚拟的。在另一起案件中,联邦当局在8月份逮捕了一名驻扎在阿拉斯加的美国士兵,他被指控通过人工智能聊天机器人播放他认识的真实儿童的无辜照片,使这些照片具有色情内容。
努力赶上科技
在这些起诉发生之际,儿童权益倡导人士正在紧急努力遏制对技术的滥用,以防止大量令人不安的图像涌入,官员们担心这可能会加大营救真正受害者的难度。执法官员担心调查人员会浪费时间和资源,试图识别和追踪那些并不存在的被剥削儿童。
与此同时,立法者正在通过一系列立法,以确保当地检察官可以根据州法律对人工智能生成的“深度伪造”和其他儿童色情图片提出指控。根据国家失踪与受剥削儿童中心的一份报告,今年有十几个州的州长签署了法律,打击数字制作或修改的儿童性虐待图像。
加州文图拉县地方检察官Erik Nasarenko说:“坦率地说,我们作为执法部门正在追赶一项技术,这项技术的发展速度比我们快得多。”
纳萨连科推动了州长加文·纽森(Gavin Newsom)的立法,该立法明确规定,根据加州法律,人工智能生成的儿童性虐待材料是非法的。纳萨连科表示,他的办公室无法起诉去年12月至9月中旬期间涉及人工智能生成内容的8起案件,因为加州法律要求检察官证明这些图像描绘的是一个真实的孩子。
执法官员表示,人工智能生成的儿童性虐待图像可用于培养儿童。即使他们没有受到身体上的虐待,当他们的形象被扭曲成露骨的性行为时,孩子们也会受到深刻的影响。
“我觉得我的一部分被带走了。尽管我没有受到身体上的侵犯,”17岁的凯琳·海曼说。她是迪士尼频道节目《Just Roll with It》的主演,在成为“深度伪造”图像的受害者后,她帮助推动了加州的这项法案。
海曼去年在联邦审判中作证,一名男子用数字技术将她和其他儿童演员的脸叠加在进行性行为的身体上。今年5月,他被判处超过14年的监禁。
专家说,用户可以下载到电脑上的开源人工智能模型受到了罪犯的青睐,他们可以进一步训练或修改这些工具,以大量制作对儿童的明确描述。官员们表示,滥用者在暗网社区交换如何操纵人工智能工具来创建此类内容的提示。
斯坦福互联网观察站(Stanford Internet Observatory)的一项研究发现,作为“稳定扩散”(Stable Diffusion)等领先的人工智能图像制作工具的来源,一个研究数据集包含了儿童色情图像的链接,这使得一些工具能够轻松生成有害图像。该数据集被删除,研究人员后来表示,其中有2000多个涉嫌儿童性虐待的网络链接。
包括谷歌、OpenAI和Stability AI在内的顶级科技公司已同意与反儿童性虐待组织Thorn of儿童性虐待图像合作。
但专家表示,在这项技术广泛应用之前,一开始就应该做更多的工作来防止滥用。司法部(Justice Department)的一名检察官在最近的法庭文件中指出,公司现在采取的措施,是为了让未来版本的人工智能工具更难被滥用,这“无助于防止”违法者在电脑上“不被发现”地运行旧版本的模型。
斯坦福互联网观测站的首席技术专家大卫·蒂尔说:“我们没有把时间花在提高产品的安全性上,而是花在提高产品的效率上。正如我们所看到的,事后很难做到这一点。”
人工智能图像变得更加逼真
去年,国家失踪和受虐儿童网络热线中心收到了大约4700份涉及人工智能技术内容的报告,这只是3600多万份涉嫌儿童性剥削报告的一小部分。该组织的首席法律官Yiota Souras表示,截至今年10月,该组织每月处理约450份涉及人工智能内容的报告。
然而,专家们表示,这些数字可能被低估了,因为这些图像非常逼真,通常很难判断它们是否是人工智能生成的。
协助撰写加州法案的文图拉县副地方检察官里科尔·凯利(Rikole Kelly)说:“调查人员花了好几个小时来确定一张图片是真的描绘了未成年人,还是人工智能生成的。”“过去有一些非常明确的指标……随着人工智能技术的进步,这种情况已经不复存在了。”
司法部官员表示,他们已经拥有联邦法律规定的工具,可以追查这些图像的违法者。
美国最高法院正在调查虚拟儿童性虐待材料。但次年签署的一项联邦法律禁止制作包括绘画在内的视觉描绘儿童露骨性行为的作品,这些行为被视为“淫秽”。司法部表示,该法律过去曾被用于指控儿童性虐待的卡通形象,并特别指出,没有要求“所描绘的未成年人确实存在”。
当局表示,司法部在5月份对威斯康星州的一名软件工程师提起了这一指控,他被指控使用人工智能工具Stable Diffusion为从事露点性行为的儿童制作逼真的图像,并在他通过Instagram上的直接信息向一名15岁的男孩发送了一些图像后被捕。这名男子的律师在给美联社的电子邮件中拒绝就这些指控发表进一步评论,他正在努力以宪法第一修正案为依据撤销指控。
稳定人工智能的一位发言人表示,该男子被指控使用了另一家公司Runway ML发布的早期版本的工具。稳定人工智能表示,自从接管了这些模型的独家开发以来,它“投资了主动功能,以防止人工智能被滥用于有害内容的生产”。Runway ML的发言人没有立即回应美联社的置评请求。
在涉及“深度伪造”(deepfakes)的案件中,即对真实儿童的照片进行数字修改,使其具有明显的性特征,司法部将根据联邦“儿童色情”法提出指控。在一个案例中,北卡罗来纳州的一名儿童精神病学家去年因联邦指控被定罪,他使用人工智能应用程序在Facebook上分享的一张几十年前的照片中,以数字方式“脱光”了开学第一天摆姿势的女孩。
“这些法律是存在的。它们将被使用。我们有这个意愿。我们有资源。”“我们不会因为没有真正的孩子参与其中而忽视这一低优先级问题。”
有话要说...