4月23日 消息:儿童虐待者正在利用人工智能技术制作"深度伪造品"来勒索受害者拍摄自己的虐待行为,从而开始一个可持续数年的性勒索循环。
在英国,制作模拟虐待儿童图像是非法的,工党和保守党一致呼吁禁止所有由人工智能生成的露骨图像。但全球范围内对如何监管这一技术几乎没有达成共识。更糟糕的是,只需按一下按钮就能创造出更多此类图像,因为明确的图像已成为人工智能图像生成的基础。
图源备注:图片由AI生成,图片授权服务商Midjourney
研究发现,人工智能图像生成器接受了儿童性虐待图片的训练。斯坦福大学的研究人员发现,构成人工智能图像生成器最大训练集之一的数十亿张图像中,埋藏着数百甚至数千个儿童性虐待材料实例。Laion等数据集的创建者承认,当这些研究被发现时,大量链接已经失效,但非法训练数据已经刻录到人工智能系统的神经网络中。
为应对这一问题,OpenAI等公司采取了措施,试图确保其生成的图像更加清晰可信。但专家表示,即使依赖经过训练不会创造此类图像的系统,这也只是一种不太脆弱的解决方法。长远来看,如何限制一个你不完全理解的人工智能系统仍是一大挑战。
有专家呼吁为开源人工智能的发展保留空间,因为这可能是解决未来危害的最佳工具所在。政策文件建议,短期内应针对单一用途"裸体"工具的创建者和宿主采取行动,但长期应对抗明确的人工智能图像问题仍需进一步探讨。