Google 前 CEO 埃里克·施密特近期在斯坦福 CS323 课堂上的访谈(二)

2024年08月17日 174点热度 0人点赞 0条评论

 

AI与地缘政治

主持人:在国家安全或地缘政治利益方面,你认为AI将如何在与中国的竞争中发挥作用?

Eric:我曾经是一个AI委员会的主席,我们对此进行了非常详细的研究。你可以去看看。它有大约752页。我只是总结一下,我们现在处于领先位置。我们需要保持这种领先地位,并且需要大量的资金来做到这一点。我们的主要对象是参议院和众议院。由此促成了《芯片法案》以及其他相关立法。如果你假设前沿模型不断发展,少数开源模型也在进步,很可能只有少数国家能够参与这场竞争。我是指国家,而不是公司。那么这些国家是谁呢?有大量资金、丰富人才、强大教育系统以及获胜意愿的国家。美国就是其中的一个。中国也是。还有其他国家吗?我不知道,也许有。在你们这一代人的有生之年,围绕知识霸权的美中对抗将会是主要的斗争。因此,美国政府基本上禁止了NVIDIA芯片出口到中国,尽管他们并不愿明说这是他们的初衷,但实际上确实如此。我们在芯片制造技术上大约领先10年。在次紫外光刻(sub-DUV),即小于5纳米的芯片方面,我们大约领先10年。

主持人:10年,这么久?

Eric:大概10年。

主持人:哦。

Eric:所以,以现在的情况为例,我们比中国领先了几年。我猜我们可能还会领先中国几年。中国对此非常不满。他们对此感到非常沮丧。这是个大问题。这是特朗普政府的决定,并且拜登政府也同样执行了这个决定。

主持人:你觉得现在的政府和国会听取你的建议了吗?你认为他们会进行如此大规模的投资吗?显然,《芯片法案》已经出台,但除此之外,是否还会建立一个庞大的AI系统?

Eric:你知道,我领导的是一个非正式、特设的、不受法律约束的小组。这和违法是不同的。确切地说,只是为了明确。这包括所有的同行。在过去的一年里,这些同行提出了一些理论基础,最终成为了拜登政府《AI法案》的核心内容,这是历史上最长的总统行政命令。

主持人:你是在谈论特殊竞争研究项目吗?

Eric:不,这是来自行政办公室的实际法案。他们现在正忙于实施细节。到目前为止,他们做得很好。例如,过去一年中我们讨论的一个问题是,如何在一个已经学习到危险内容的系统中检测这些危险,但是你不知道该问它什么?换句话说,这是一个核心难题。系统可能学到了一些有害的东西,但它无法告诉你学到了什么,而你也不知道该如何询问它。而且威胁种类繁多,比如,它学会了一种你不知道如何询问的新的化学混合方式。因此,人们正在努力解决这个问题。但最终我们在给他们的备忘录中写道,有一个阈值,我们任意设定为10的26次方的浮点运算,这在技术上是一个计算量的衡量标准。超过这个阈值,你必须向政府报告你正在进行这种操作。这就是规则的一部分。欧盟为了有所区别,把阈值定为10的25次方。

主持人:是的。

Eric:但这差距其实很小。我认为所有这些区别都会消失,因为现在的技术——专业术语是联邦学习技术,基本上你可以将不同部分联合起来进行训练。所以我们可能无法让人们完全免受这些新威胁的影响。据传言,这也是OpenAI必须这样训练的部分原因,因为电力消耗太大无法集中在一个地方进行训练。

战争与AI的应用

主持人:好了,让我们谈谈正在进行的真正战争。我知道你非常关注乌克兰战争,尤其是,关于“白鹳”项目,我不确定你能谈多少,关于用500美元的无人机摧毁500万美元的坦克。这个改变了战争方式吗?

Eric:我曾在国防部工作了七年,试图改变我们管理军队的方式。虽然我并不特别喜欢军队,但是军队的运行开支非常大,我想看看我能否对此提供一些帮助。而现在看来,我觉得我基本上失败了。他们给了我一枚勋章,所以可能失败者也能得到勋章吧,或者随便怎么说。但我对自己的批评是,什么都没有真正改变,美国的体系不会带来真正的创新。看着俄罗斯人用坦克摧毁有老人和孩子的公寓楼,我感到非常愤怒。所以我决定和你的朋友、斯坦福大学的前任教授塞巴斯蒂安·特鲁恩,以及一批斯坦福人一起创办一家公司。其实,我们的目标主要有两个。首先是用复杂而强大的方式将AI应用于这些机器人战争中,其次是降低机器人的成本。你可能会好奇,一个像我这样的自由派为何会有这样的想法?答案是,现有的军队理论以坦克、炮兵和迫击炮为主,而我们可以消除它们。我们可以让入侵一个国家的代价,至少在陆地上,几乎是不可能的。这应该可以避免大规模的陆地战争。

主持人:这确实是一个很有趣的问题,这种方式是否能让防守方获得更多优势?我们能否做出这样的区分呢?

Eric:在过去的一年里,我一直在做这个,我学到了很多关于战争的知识,而这些知识我原本不想知道。 其中一个关键点是,进攻方总是占据优势,因为他们总能压倒防御系统。所以,作为国家防御策略,拥有一套强大的进攻机制是很有必要的,以备不时之需。而我和其他人正在构建的系统将能够实现这一点。由于系统的运作方式,我现在是一名持证军火商。所以我现在既是计算机科学家,商人,也是军火商。(笑)

主持人:我很抱歉地说——这算是一种职业进步吗?

Eric:我不太确定,但我并不建议你把这作为你的职业发展路径。我建议你还是继续做AI。由于法律的规定,我们是以私人方式进行这些工作,并且政府对此予以支持,因此我们直接进入乌克兰,随后战争开始了。不详细展开,但局势非常严峻。我认为,如果在五月或六月,俄罗斯如预期那样进行军事集结,乌克兰将会失去大片的领土,并开始逐渐失去整个国家。所以情况非常严重。

主持人:如果有人认识Marjorie Taylor Greene,我建议你从通讯录中删除她。因为她就是那个,一个人阻止了数十亿美元援助这些援助本可以拯救一个重要的民主国家。

知识的本质与AI

主持人:我想谈谈一个稍微带有哲学性质的问题。去年你和亨利·基辛格以及丹·赫特洛克写了一篇关于知识本质及其演变的文章。前几天我也和别人讨论了这个话题。对于历史上的大部分时间,人类对宇宙的理解更多是神秘的,然后出现了科学革命和启蒙运动。而在你的文章中,你们提出了一个观点,现在的模型变得如此复杂和难以理解,以至于我们不再真正知道其中发生了什么。我要引用理查德·费曼的一句话。他说:“我不能理解我无法创造的东西”我最近看到这句话。但现在人们能够创造出一些东西,却并不真正理解其中的原理。知识的本质是否正在发生变化?我们是否要开始接受这些模型的结果,而不再需要它们解释给我们听?

Eric:我想,可以将其比作青少年。如果你有个十来岁的孩子,你知道他们是人类,但你却无法完全理解他们的想法。(笑)然而,我们的社会已经适应了青少年的存在,对吧?他们总会长大成人。我是认真的。因此,我们可能会有无法完全理解的知识系统,但我们了解它们的边界,对吗?我们理解它们的能力范围。这可能是我们能够获得的最好结果。

主持人:你认为我们能理解这些边界吗?

Eric:我们会变得越来越好。我每周都会和我的团队会面,我们的共识是,最终,你会使用所谓的对抗性AI,实际上会有一些公司,你可以雇用他们,付钱让他们去破坏你的AI系统。

主持人:就像网络安全中的红队一样。

Eric:那么,将会是AI红队,而不是现在的人类红队,你将会看到整个公司和行业的AI系统,它们的任务是挖掘现有AI系统的漏洞,特别是那些我们无法理解的知识点。我认为这个观点是有道理的。对于斯坦福来说,这也是一个很好的项目,因为如果有一个研究生能够弄清楚如何攻击这些大型模型并理解它们的运作,那将为下一代技术积累的宝贵经验。我觉得这两者会齐头并进

Subbear

保持饥渴的专注,追求最佳的品质

文章评论