学生问题一:如何让AI真正按照我们的意愿行动?
学生:之前你提到过这点,和你刚才的评论有关,AI需要真正按照我们的意愿行事。你刚刚提到了对抗性AI,我想如果你能再详细说明一下就更好了。除了计算能力肯定会增加,我们可以有更强大的模型,但是如何让它们真正按照我们的意愿行动,这个问题你觉得解决了吗?在我看来,这个问题似乎还没有完全解答。
Eric:好吧,你必须认为,当前的问题会随着技术的进步而减少,对吗?我并不是说这些问题会完全消失。然后你还需要假设,我们会有对AI有效性的测试方法。因此,我们必须有一种方式,去确认事情是否成功。举刚才我提到的TikTok竞争对手的例子,我并不是建议你非法盗用其他人的音乐。如果你是硅谷的企业家,希望你们都能成为的话,如果这个产品火了,那么你就需要雇一大堆律师来收拾烂摊子,是吧?但如果没有人使用你的产品,那你盗用了所有内容也无关紧要。当然,不要引用我的话,是吧?(观众笑了)
主持人:对,你正在被摄影机记录。
Eric:是的,没错。(观众笑了)但你明白我的意思。换句话说,硅谷会进行这样的尝试,并收拾残局,这通常就是事情的运作方式。所以在我看来,你会看到越来越多的性能系统,甚至有更好的测试,最终会有对抗性测试,这将保证它们的行为在一个可控的范围内。我们通常把这称为链式思维推理。人们相信,在未来几年里,你将能够实现长达1000步的思维链条推理。做这个,再做那个。就好比是在制作菜谱。你可以照着菜谱做,并测试它是否产生了正确的结果。这就是系统运作的方式。
学生问题二:AI进步的驱动力是什么?
学生:总的来说,你对AI进步的潜力似乎持有非常积极的态度。我很好奇,你认为什么会推动这个进步呢?是更强大的计算力量?还是更多的数据?或是基础性或实质性的变化?
Eric:是的。现在投入的资金数额简直令人难以置信。我选择投资于几乎所有领域,因为我无法确定谁会是最后的赢家。跟随我投资的资金规模非常庞大,我觉得这部分原因是早期投资的回报已经出现,那些大资金的投资者,他们对他们自己在做什么并不清楚,他们只知道他们的投资中必须包含AI成分。现在所有的投资看似都与AI有关,所以他们无法区分哪些是真正的AI投资。我把AI定义为能够学习的系统,真正能够自我学习的系统。所以我认为这是其中的一个驱动力。另一个驱动力是,有许多非常复杂的新算法,这些算法可以说是超越了Transformer。我的朋友,也是长期的合作伙伴,创造了一种新的非Transformer架构。我在巴黎资助的一个团队声称他们也做出了相同的成果。这里有巨大的发明潜力,斯坦福大学也有很多创新。最后一点是,市场普遍认为智能的发明将带来无尽的回报。比如说,你投资了一家公司500亿美元,你必须从智能中获得大量的收益才能回本。因此,我们可能会经历一场大的投资泡沫,最终市场会自行调整。这在过去一直如此,而这一次也极有可能是如此。
学生问题三:AI开源与闭源的争论
Eric:你之前提到,你认为领先者正在逐渐拉开与其他人的差距,现在。这个问题可以这样理解,有一家叫做Mistral的法国公司,他们的表现非常出色,我也是他们的投资者。他们已经推出了第二个版本,但由于成本过高,第三个版本可能无法推出。他们需要收入,不能免费提供模型。所以,我们行业中关于开源与闭源的争论非常激烈。而我的整个职业生涯都是基于人们愿意共享开源的软件。我的一切都与开源有关。谷歌的许多基础设施都是开源的。我在技术上所做的一切也是如此。然而,可能是因为资本成本如此巨大,这从根本上改变了软件开发的方式。你和我之前谈到的,我认为软件程序员的生产率至少会提高一倍。有三四家软件公司正在努力实现这一目标。我投资了所有这些公司。本着这种精神。他们都在努力提高软件程序员的效率。
我最近接触的一个最有趣的公司叫Augment。我总是把它想象成单个程序员,但他们告诉我,“我们的目标并不是他。我们的目标是那些上100人的开发团队,代码行数达到数百万行,谁也不知道里面发生了什么。”这确实是一个非常适合AI解决的问题。他们能赚钱吗?我希望他们能。有很多问题需要解答。
学生问题四:上下文窗口、智能体和“文本转行动”的组合重要性
学生:你好。你一开始提到,上下文窗口的扩展、智能体和将文本转化为行动的组合将产生无法想象的影响。首先,为什么这种组合如此重要呢?其次,我知道你没有水晶球,不能预测未来。但为什么你认为这些影响将超出我们的想象?
Eric:这有助于解决新“时效性”问题。目前的模型需要训练大约一年半的时间。包括六个月的准备,六个月的训练,六个月的微调。所以它们总是过时的。通过扩展上下文窗口,你可以提供最新的信息。例如,你可以在上下文中询问关于哈马斯与以色列战争的问题。这是非常强大的。它让模型能够像谷歌一样保持时效性。
关于智能体,我给你一个例子。我成立了一个基金会,该基金会资助了一个非营利组织。首先,如果在场有化学家,我并不真正了解化学。有一个叫做ChemCrow的工具,它是一个基于大语言模型的系统,学习了化学知识。他们使用这个系统生成关于蛋白质的化学假设,然后在实验室测试一晚上,之后它会学习。这大大加速了化学、材料科学等领域的研究进程。这就是智能体模型的一个例子。
然后对于“文本到行动”,可以理解为你拥有大量廉价程序员,对吧?我们可能还不清楚会发生什么——这是你的专长领域——当每个人都有自己的程序员时会发生什么。我并不是在谈论开灯和关灯的事情。想象一下——再举一个例子——比如,你不喜欢Google。于是你说,给我打造一个可以与Google竞争的搜索引擎。没错,你一个人就能打造一个能与Google抗衡的搜索引擎,搜索网页,有一个用户界面,照原样山寨一份,以一种有趣的方式在其中融入生成式AI,用30秒钟完成,看看效果如何。很多人因此相信,包括Google在内的许多大公司,可能会受到这种方式的威胁。我们拭目以待。
关于AI和虚假信息的讨论
主持人:有很多通过Slido提交的问题,有些得到了投票。这里有一个,我们去年讨论过这个问题。我们如何阻止AI影响公众舆论,制造假消息,特别是在即将到来的选举期间?有什么短期和长期的解决方案呢?
Eric:在这次即将到来的选举中,以及在全球范围内,大部分的假消息都会出现在社交媒体上。而社交媒体公司没有足够的组织能力来管理这些问题。以TikTok为例,有很多指控称TikTok偏袒某些类型的误导信息,而忽略其他类型的误导信息。许多人声称中国强迫他们这么做,但我没有看到任何证据。我觉得这是个混乱的局面。我们这个国家必须学会批判性思考。这对美国来说可能是个不可能的挑战。但是,别人告诉你的,并不一定就是真的。
主持人:事情可能会走向另一个极端,导致真实的信息也不再被人们相信吗?有些人称这为认识论危机,比如马斯克就说过,“我从未做过那件事。证明它。”
Eric:以唐纳德·特朗普为例。我认为我们社会存在信任问题。民主制度有时也会失败。我认为对民主制度最大的威胁是虚假的信息,因为我们会变得非常擅长制造这些虚假信息。当我管理YouTube的时候,我们在YouTube上面临的最大问题是有人上传虚假的视频,然后有人因此受害甚至丧生。我们有一个禁止涉及死亡信息的政策,令人震惊。我们致力于解决这个问题,但这是一项艰巨的任务。而且,这还是在生成式AI出现之前的事情。
主持人:嗯,所以——
Eric:我没有好的答案。
主持人:有一个技术解决方案,这并不是答案,但可能有助于缓解这个问题,我不明白为什么这种方法没有被更广泛使用,那就是公钥认证。当乔·拜登发表演讲时,为什么不像SSL那样进行数字签名呢?或者,比如那些名人或公众人物,他们不能有一个公钥吗?
Eric:对,这就是公钥的一种形式,然后有一种确定的方式了解系统如何——
主持人:嘿,当我向亚马逊发送我的信用卡信息时,我知道这是亚马逊。
Eric:我和乔纳森·海德一起撰写并发表了一篇论文,他一直在研究生成焦虑问题。这篇论文并未产生任何影响。他是个非常出色的传播者,我可能不如他。所以我得出的结论是,系统没有按照你所说的那样组织起来。
主持人:你有一篇论文赞同我们的做法。
Eric:也即是对你的建议的赞同。
主持人:好的。
Eric:我的结论是,总的来说,CEO们都在努力最大化收入。为了最大化收入,他们最大化用户参与度。为了最大化用户参与度,他们最大化煽动性内容。算法选择煽动性内容,因为这会带来更多的收入,对吧?由此,算法更倾向于推荐些极端的内容。这并不是单方面的问题。我并不是在这里做出任何偏袒的声明。这是一个问题。这个问题必须得到解决。
在一个民主制度中,我对TikTok的解决方案是,我们之前私下讨论过,在我年轻时,有一个叫做"平等播放时间"的规则。因为TikTok实际上并不仅仅是社交媒体,它更像是电视,对吧?有程序在幕后控制你。根据统计,TikTok在美国的用户每天观看90分钟,每个用户平均观看200个TikTok视频。这是很大的数量,对吧?因此,政府必须采取某种形式的平衡措施
文章评论