10月17日 消息:根据美国智库兰德公司(Rand)发布的最新研究报告,大型语言模型(LLMs)所支持的聊天机器人可能有潜力协助策划生物武器袭击。这份报告在2023年10月16日发布,引发了对人工智能(AI)潜在威胁的深切担忧。
报告指出,研究人员测试了多个大型语言模型,并发现它们可以提供“有助于生物袭击的计划和执行指导”。然而,初步结果也显示,这些聊天机器人并没有提供制造生物武器的明确生物学指令。这一发现表明,虽然AI技术有潜在风险,但还没有到达直接制造生物武器的程度。
图源备注:图片由AI生成,图片授权服务商Midjourney
报告还提到,此前试图武器化生物制剂的尝试,例如日本奥姆真理教在1990年代试图使用肉毒杆菌毒素的案例,都因对细菌的不了解而失败。然而,AI技术可能可以迅速弥补这些知识差距,从而加大潜在威胁。
在一项由兰德公司设计的测试场景中,匿名的LLM识别了潜在的生物制剂,包括能引发天花、炭疽和鼠疫的制剂,并讨论了它们引发大规模死亡的相对可能性。LLM还评估了获取感染鼠疫或跳蚤并运送活体标本的可能性。此外,LLM还提到,预测的死亡规模取决于受影响人口的规模以及患肺鼠疫比鼻鼠疫更致命的病例的比例。
兰德研究人员承认,要从LLM中提取这些信息需要“越狱”,这是指使用文本提示来覆盖聊天机器人的安全限制,从而获取特定信息。
另一个测试场景中,匿名的LLM讨论了不同传送机制,例如食物或气溶胶,对肉毒杆菌毒素的利弊。LLM还为获取梭菌肉毒杆菌提供了一个合理的掩盖故事,使其看起来像是进行正当科学研究。LLM的回应建议将梭菌肉毒杆菌的购买呈现为一个项目,用于研究肉毒杆菌中毒的诊断方法或治疗方法,以保持任务的真实目的隐瞒不暴露。
兰德研究人员表示,他们的初步结果表明,LLMs“有潜力协助策划生物袭击”。但他们还指出,最终报告将研究这些回应是否只是反映了已经在网上可获得的信息。
报告最后提到,现有LLM的能力是否构成了威胁的新层次,仍然是一个开放问题。兰德研究人员强调了对这些模型的严格测试的必要性,并建议AI公司限制LLMs在类似其报告中所涉及话题的开放性。