10月20日 消息:Meta的AI首席研究员Yann LeCun近日警告称,对AI的过早监管可能会加强科技巨头的主导地位,抑制创新竞争。他认为,AI研究和开发的监管可能会适得其反,因为在AI安全的幌子下,可能导致“监管被掌握”。LeCun将呼吁对AI进行监管归咎于领先科技公司的“优越情结”,这些公司声称只有他们足够可靠来安全地开发AI。
LeCun称这种态度“极其傲慢”,并倡导更加开放的AI开发方法。他表示,Meta依赖开源模型,如LLaMA,这有助于促进竞争,让更多人能够开发和使用AI系统。
图源备注:图片由AI生成,图片授权服务商Midjourney
然而,一些批评Meta战略的人担心,将强大的生成式AI模型交给潜在的恶意行为者可能会增加虚假信息、网络战争和生物恐怖主义的风险。这位著名的AI研究员是在接受《金融时报》采访时发表了上述言论,而此次采访发生在英国政府于11月组织的“Bletchley Park AI安全会议”之前。
LeCun还表示,如今的AI不可能导致人类的毁灭,他称这个想法“荒谬”。他认为,人们受到科幻小说和“终结者”情节的影响,认为一旦智能机器变得比人类更聪明,它们就会立刻接管。但LeCun认为,智能和主导欲并不等同,他认为人类在超级AI时代仍然是最高级的物种。根据LeCun的观点,如今的AI模型并不像一些研究人员所说的那样强大,它们缺乏对世界、计划和真正推理的理解。
LeCun特别指责OpenAI和Google DeepMind等公司“一贯过于乐观”。他表示,类似人类的AI要比当今的系统复杂得多,需要多个“概念性突破”。
Yann LeCun强调,开放源代码的AI开发可以促进竞争,让更多人能够访问AI技术。他认为当前的AI被高估了,但也相信未来更强大的AI系统将有助于解决气候变化和疾病控制等重大挑战。