还记得大牛们就“AI是否可能灭绝人类”,分成了两大阵营吗?

由于并不理解为啥“AI会造成风险”,吴恩达最近开启了一个对话系列,去找两名图灵奖得主聊聊:



有意思的是,在相继和Yoshua Bengio以及Geoffrey Hinton进行深度对话后,他和他们“达成了不少共识”!



他们一致认为,双方应该共同讨论AI具体会产生什么风险,以及它究竟“理解了什么”。Hinton还特意cue了“反方代表”图灵奖得主Yann LeCun

马斯克对这次谈话也很感兴趣:



除此之外,Hinton最近还在智源大会上再一次“布道”AI风险,表示比人更聪明的超级智能很快就会出现

一起来看看这些对话的核心观点,以及不同AI大牛针对这件事的看法。

吴恩达对话图灵奖得主:AI安全应达成共识

首先是与Bengio的对话。吴恩达和他达成了一个关键共识,即:

也就是说,AI究竟会在哪些场景下,给人类带来重大危害、甚至导致人类灭绝,这是双方需要达成的共识。

Bengio认为,AI前景充满着“迷雾和不确定性”,因此找出一些AI具体带来危害的场景是有必要的。



然后是与Hinton的对话,双方达成了两个关键共识。

一方面,所有科学家必须针对“AI风险”议题好好聊聊,以便于制定良好的政策;

另一方面,AI确实在理解世界。科学家们需要列出其中的关键技术问题,这有助于在AI安全议题上达成共识。



在这个过程中,Hinton提到了需要达成共识的关键点,即“GPT-4和Bard这类对话大模型是否真的理解它们自己在说什么”:

当然,被“喊话”的LeCun也及时赶来,很认真地发表了自己的观点:



虽然这一段回应仍旧只字未提“AI风险”,不过LeCun很实在地给出了提升AI安全性的建议(打造AI“护栏”),并设想了比人类更厉害的AI“长啥样”(多感官输入+可推理规划)。

某种程度上来说,也算是双方在AI存在安全问题这个观点上达成了一些共识。

Hinton:超级智能比想象中更近

当然,不止是和吴恩达的对话。

最近离职谷歌的Hinton,在不少场合都谈到了AI风险这一话题,其中也包括最近参加的智源大会。

在大会上,他以《通往智能的两条路线》为主题,讨论了“知识蒸馏”和“权重共享”两种智能路线,以及如何让AI变得更智能,以及自己对于超级智能出现的看法。

简单来说,Hinton不仅认为(比人更智能的)超级智能会出现,而且出现的时间比人们想象中更快。

不仅如此,他认为这些超级智能会失控,但目前他还想不到什么好的方法阻止它们:

放映出“THE END”幻灯片时,Hinton意味深长地强调了一下:



参考链接:
[1]https://twitter.com/AndrewYNg/status/1667920020587020290
[2]https://twitter.com/AndrewYNg/status/1666582174257254402
[3]https://2023.baai.ac.cn/