1. 首页>>商讯

Sam Altman 最新哈佛大学创业分享:95% 创业者选择让 AI 在特定场景中勉强起作用,可能是个错误

编者按:本文来自微信公众号 有新Newin(ID:NewinData),作者: 有新,创业邦经授权转载。

近日, OpenAI CEO Sam Altman 与其首位投资人& X Fund 管理合伙人 —— Patrick Chung 在哈佛大学展开了一次对谈,重点讨论了 AI 的未来走向、其对社会的影响,以及 Sam Altman 和 OpenAI 团队在这一领域的最新研究方向。

图片

Altman 强调, AI 技术的进步不会像许多人预测的那样很快进入停滞期,反而会持续带来戏剧性的发展。他认为, AI 的潜力远未被完全开发,未来几年将会有更大的进展。创业者应该预见到 AI 技术会不断变得更强大,而不是基于现有技术做短期投资决策。

AI 创业者的战略通常有两种选择:一种是赌 AI 技术已接近顶峰,另一种是赌技术会大幅提升。他建议创业者选择第二种策略,即利用 AI 技术的快速进步,通过基础模型的增强逐步提升业务的有效性,而不是仅仅将有限的资源投入到特定场景中的小幅改进。

他还提到, OpenAI 一开始选择了非营利的模式,但如果能回到过去,他可能会选择营利性结构。他解释说,随着 AI 研发的规模和资源需求越来越大, OpenAI 需要找到可持续的商业模式来支持其技术进步。这也是 OpenAI 后来转变为“有限利润”模式以确保技术发展能够获得足够资金支持的原因。

OpenAI 每年都会推出那些人们曾认为不可能实现的技术。特别是在 GPT 系列模型的发展上, OpenAI 从 GPT-3 到 GPT-4,不断通过规模化和技术的提升,创造出更智能、更有价值的产品。

此外,在技术开发过程中, OpenAI 非常注重安全性和责任感,尤其是在决定是否部署重大技术如 GPT-5 时。他表示, OpenAI 会对这些重要决策进行极其慎重的考量,不会仅凭科学好奇心推动这些决定。

Altman 还表示, OpenAI 的策略是持续探索下一个技术突破,而不是仅仅满足于当前的成就。OpenAI 并不太关注竞争对手,而是专注于推动新范式的创新,只追随目前的技术进展并不是好的创业策略。真正的挑战在于找到未来可能实现的突破,并成为第一个实现它的人。

以下为这次对谈的主要内容,enjoy~

Patrick Chung

我们认识已经快 20 年了。那最近你在忙什么呢?说到很久以前,我给你带来了一个礼物。这是我们第一次见面时,你为你的第一家公司做的第一次融资展示。

Sam Altman

我还没见过这个呢,自那以后就没见过。

Patrick Chung

这家公司叫 Viendo,后来变成了 Looped。所以当你看着这个,如果你可以回到 19 岁的Sam Altman,你会对那时的自己说些什么是你现在知道但当时不知道的?

Sam Altman

我认为你可以在这个世界上有所作为,而这并没有被很好地教授。我 19 岁时肯定不知道,当时我对自己期望不高,也在做错误的事情。

你会很快学到这些,但当时我不确定自己是否能做到。我认为进步的方式就是,人们要非常努力工作,坚定自己的信念,并致力于此。

这是世界变得更好,事情发生的唯一方式。而且你不需要等待或获得许可,哪怕你在世界上默默无闻、资源极少,也能取得令人惊讶的成就。我是这么认为的。

Patrick Chung

你 19 岁的时候就知道这些吗?因为当时我见到你时,似乎你已经表现出了这种精神。

Sam Altman

我很快就明白了,一旦你开始行动,你会发现,哦,原来是这么回事。但在开始公司之前,我肯定没有这种意识。

Patrick Chung:

大家对 AI 、 OpenAI 以及人类命运都充满了浓厚的兴趣,我们稍后会聊到这些。但今天我们主要的观众是学生,他们看到你,心生向往,梦想着能够在世界上产生像你一样的影响。

我觉得你现在连一半的成就还没有完成,他们可能会想知道你是如何做到的。所以我想回到更早的时候,看看你的“超级英雄起源故事”。

可以和我们谈谈10年级时的Sam Altman吗?你是如何成长的?你的家庭生活是怎样的?当时你一天的生活是怎样的?

Sam Altman:

我当时就是个电脑迷。我不知道,我基本就是坐在家里玩电脑。

Patrick Chung:

用的是什么电脑?

Sam Altman:

当时我已经有一台 iMac了,算是第二代。我不是只玩游戏,虽然也确实玩游戏,但更多的是学习编程之类的事情。我有一个很普通的高中生活,没什么特别值得讲的。我上学,和朋友们一起玩,做运动,当然也会用电脑。

Patrick Chung:

你玩什么运动?

Sam Altman:

我打水球,这是我最常做的运动。我也游泳,还练击剑。

Patrick Chung:

在典型的美国高中电影里,会有一些小团体,比如运动健将、书呆子等等。你属于哪个小团体?

Sam Altman:

我肯定更偏向书呆子那一类。

Patrick Chung:

结果对你来说还挺不错的,对吧?

Sam Altman:

不过我也很喜欢运动。

Patrick Chung:

除了水球,你还玩其他运动吗?

Sam Altman:

嗯,主要是水球,不过我也游泳,因为他们让我练游泳。

Patrick Chung:

不错。

Sam Altman:

所以我平时训练时会游泳。

Patrick Chung:

那你在高中时,你最大的恐惧是什么?你在高中有什么害怕的事情吗?

Sam Altman:

我不知道,就像是普通的青春期烦恼吧。我没特别大的担忧。

Patrick Chung:

你很快乐?

Sam Altman:

是的,没有什么特别烦恼的事。

Patrick Chung:

所以你并没有在担心人类的命运?

Sam Altman:

没有,当时我只是享受当下,每天过得很开心。

Patrick Chung:

不过你在高中应该学得很好,因为你申请并被斯坦福和哈佛录取了。

Sam Altman:

对,我也被哈佛录取了。

Patrick Chung:

是什么让你选择了斯坦福?你是怎么考虑大学的?是因为大家都申请大学,所以你也申请,还是你真的很想去斯坦福?

Sam Altman:

完全是默认的选择,从来没想过不上大学。我知道我想学计算机科学,所以我去了斯坦福。我觉得那是个很棒的地方,特别是计算机科学系,那里的人就是我想要待在一起的。

Patrick Chung:

你到斯坦福后,还做了什么其他事情?你当时是一年级新生,对吧?

Sam Altman:

有趣的是,虽然我确实上了计算机科学课,但我不记得为什么,决定也选了很多其他的课程。事后看来,这些课程都比我当时预料的要有用得多。学科学课很棒,写作课也很棒。

Patrick Chung:

写作?真的吗?是创意写作吗?

Sam Altman:

对,创意写作课。

Patrick Chung:

也许预示了未来的发展?

Sam Altman:

哈哈,我也在想。但斯坦福提供的广泛视角真的很棒。而且,像很多人一样,最重要的是,我身边有一群非常聪明的人,他们都在追求各种有趣的想法。

我在大一到大二的暑假期间在 AI 实验室工作。当时人工智能完全不奏效,但我仍然觉得它非常酷。后来我花了一段时间才重新回到这个领域。

Patrick Chung:

你是在 AI 实验室里找到你最感兴趣的人吗?是在计算机科学系、创意写作课,还是其他地方?

Sam Altman:

嗯,计算机科学系是我的“部落”,确实是这样。

Patrick Chung:

当时你是在 Andrew Ng 的实验室,对吧?

Sam Altman:

是的,就是他的实验室。

Patrick Chung:

是什么让你感到兴奋?因为当时,正如 Andrew 所说, AI 还在边缘地带,没什么核心的影响。

Sam Altman:

我喜欢那些一旦成功就会产生巨大影响的事物,哪怕它们成功的概率不高。如果 AI 能成功,它会是最酷、最重要、最激动人心的事物之一,所以值得去追求。

尽管成功的几率不大,但预期价值很高,所以我想去研究它。不过当时的感觉是,我们对如何做完全没有头绪。

Patrick Chung:

你看到了这一点。

Sam Altman:

事实证明我们确实不知道该怎么做。神经网络并不是一个新概念。

Patrick Chung:

这很有趣,因为你得到了启发,然后你在大二时决定休学创业,带着你手上的商业计划书开始了公司运营。这也是我们认识的方式。

我们花了很长时间在 Looped上,遇到了许多困难,比如要与运营商达成合作。你在 19 岁时是如何完成那些大公司都难以做到的事情的?你在那个年纪能与这些大公司达成合作,这是怎么做到的?

Sam Altman:

Paul Graham 常常说的一句话,虽然没有成为备受推崇的建议,但我觉得应该如此,那就是你应该尽力保持“resolutely resourceful”。令人惊讶的是,如果你不断寻找新的解决问题的方式,你就能找到解决方案。

我认为这是生活中最重要的技能之一,而且这种能力出乎意料地是可以学习或传授的,并且在几乎所有场景中都能奏效。

Patrick Chung:

能给我们举个例子,说明这种方法是如何奏效的吗?

Sam Altman:

比如你刚提到的例子,我们需要与一家移动运营商达成合作,但他们通常不会与初创企业或技术公司合作。

我们大概尝试了 30 多种方式接触这家公司。有一次,关键的决策者最终决定见我们,理由是“我见你们是因为你们太烦了”。

我们不断尝试,直到成功。而大多数人可能在第一次被忽略的邮件或第一条未找到合适联系人时就会放弃,但我们坚持了很多次。对

于我们来说,这是公司的生死攸关的问题,所以我们非常有动力去做,最终确实通过了大概 30 个不同的接触点。

Patrick Chung:

你是如何判断什么时候该放弃的?19 岁时,你给一家大公司的首席技术官发邮件,他们不断忽略你。你怎么知道什么时候该停止呢?

Sam Altman:

我认为这里确实有个平衡点,你可能会走得太远,没有及时学习或调整。我在 YC 期间遇到的一个问题是,创业者总是问我,如何知道该放弃创业?我花了很多时间试图总结出一个标准,但从未成功。

这些事情都是判断性的,你可以通过大量数据和多次尝试来学习,但很难说有一个适用于所有场景的固定公式。

Patrick Chung:

你在 YC 任职很长时间,见证了世界上一些最杰出的创始人、初创公司和技术的发展,远早于其他人。你显然在那段时间没有被任何一家吸引,或者自己启动什么新项目。但最终当你决定创办 OpenAI 时,为什么选择了非营利组织的形式?

Sam Altman

当时我知道我想做一些与 AI 相关的事情,但你得回到2015年的心态。我们知道深度学习有些有趣的事情正在发生,且随着规模的增加表现会更好,但除此之外我们一无所知。

我们成立了 OpenAI ,第一天的早上我清楚地记得,大家坐在一起面面相觑,不知道接下来要做什么。我们决定先做一些研究,写论文,想出一些点子。最初我们甚至没有任何产品或收入来源的想法,语言模型的概念也远未成型。

当时我们完全不知道会做出一些人们真正愿意使用的产品,只想着做些研究,看看能否实现一些东西。这就是为什么我们选择了非营利形式,因为我们起初只是想看看能否搞清楚 AI 的方向,而不是想着如何盈利。

Patrick Chung

你当时怎么能有这样的信念?因为你说你刚开始研究实验室,感觉就像是在瞎碰运气,看看有什么成功的可能。

Sam Altman

其实也不完全是碰运气。2012 年,我的联合创始人 Ilya 和其他人在做 AlexNet 时,我认为那是我们应该醒悟的时刻。

我们知道深度学习有效,也知道它随着规模的扩大而表现得更好。虽然我们后来才学到它会以可预测的方式随着规模增长而提升,但这已经是个重大突破了。

大家当时应该意识到这一点,但花了我几年的时间才完全接受这个现实。最终我觉得,我们真的应该在这方面做点什么,应该推动这个领域的发展。

即便如此,尽管我们知道这些“秘密”,要找到具体的方向还是非常困难。我们坐在那里思考,“我们该怎么做?”

最后我们决定用电子游戏作为实验环境,因为它提供了一个很有趣的测试环境,你能通过得分或对抗专家来衡量进展。

我们也觉得机器人技术很酷,所以也做了一些机器人项目。经过多次摸索,我们最终证明了深度学习有效并且随着规模的扩大表现更好。

然后某个时候,有人对无监督学习和语言模型产生了好奇,这促成了 GPT-1 的诞生。然后又有人提议,既然我们已经知道规模很重要,那我们就把它扩大到 GPT-2 。

Patrick Chung

在那个时间点,你是全职投入 OpenAI 了吗?

Sam Altman

差不多是那个时候吧。

Patrick Chung

能不能回溯一下,是什么让你决定全职投入?是哪一条线让你觉得,“好吧,现在这件事足够真实了,我要全职投入了”?

Sam Altman

这是一个渐进的过程,但就在那个时候,我们开始真正理解语言模型的潜力,能够衡量它的进展,比如后来成为著名的“规模损失”论文。

我们发现,这不仅仅是随着规模的增大变得更好,而且它以惊人的可预测方式变得更好。只要我们投入更多资源,或者找到更有效的提升方式,这个系统就会变得越来越智能。

对我来说,这可能是我有生之年听到的最重要的新知识。当然,历史上有更重要的东西,但这是我在亲历的事情中,最重要的发现之一。我曾经有过一种奇怪的体验,告诉别人这些发现,试图让别人给我们资金去推动这项研究。

很多人不理解,当时我就在想,“我是疯了吗?还是我们都陷入了某种迷信?”因为这明明应该像地震一样震撼整个世界。但是那时候,我们已经意识到我们需要继续推动,接下来是 GPT-3 ,然后是 3.5,接着是 4。

Patrick Chung

你当时有了这样的洞见,为什么世界上其他人没有意识到呢?

Sam Altman

其实,自从2012年的突破以来,我觉得世界应该更加关注这个领域。在那之后,我们也经历了很多时刻,比如 GPT-2 、规模损失论文、 GPT-3 ,然而为什么直到 GPT-3.5,世界才开始真正关注?我到现在也不完全明白为什么是那个时刻,而不是其他时候。

Patrick Chung

是不是因为你把它商品化了,做成了一个产品?

Sam Altman

GPT-3 已经通过 API 被很多人使用了,尤其是在技术行业内部有很多兴奋点,但它似乎还没有完全达到突破的点。

我们未来会做出比 ChatGPT 更好的东西,但为什么是 ChatGPT ,而不是别的版本,我至今仍觉得不太容易解释清楚。

Patrick Chung

作为 CEO,你需要做很多产品决策,能不能跟我们分享一个你在 OpenAI 做出的艰难的产品决策?

Sam Altman

我们的产品决策通常是研究决策的延伸,我们选择研究的方向以及决定不研究哪些方向,往往是最困难、也是最重要的。

在产品方面, ChatGPT 的行为是一个例子,决定它应该拒绝什么、不拒绝什么,它的使用边界在哪里,如何找到对齐点(alignment),这些都是最难的产品决策。

Patrick Chung

能给我们举一个具体的例子吗?

Sam Altman

例如, ChatGPT 应该提供法律建议吗?

Patrick Chung

你是说提供法律建议?

Sam Altman

有很多理由不这样做,特别是由于 ChatGPT 的“幻觉”问题或者常见的不准确性,认为它不应该提供法律建议是很合理的。但另一方面,世界上有很多人无法负担法律建议。如果我们能提供,即便不完美,或许也是比没有更好的选择。

Patrick Chung

那么,你们是怎么思考这个问题的,最后做出了什么样的决定?

Sam Altman

现在大多数情况下它不会提供法律建议,但在某些场景下、某些方式下,它还是可以做到。不过考虑到我们运营的不同地区的法律规定,以及这种情况出错时可能带来的后果,目前我们基本上不提供这类功能。

我们想要的是一个世界,用户是足够聪明的,只要我们对事物做出明确的免责声明,解释得清楚,我相信用户能够做出成熟的决定。

我希望我们能进入一个世界,在那个世界里,我们不会提供高风险的、不准确可能导致误用的服务,但随着模型变得更好,这些问题会变得更少。

那时候,我们可以给用户一个选项,让他们明白“我得自己检查这些建议,如果没检查那是我的责任”,而不是像那些没人看的“服务条款”一样敷衍。用户真正明白风险后,如果他们仍然想要这个服务,我们会找到一种安全的方式来提供。

Patrick Chung

当你做这种决策时,你的心中是否有一种对立的思维?比如安全与进展、效率与利润,还是每个案例都独一无二?

Sam Altman

这些问题都非常复杂,每个案例都有很多细节问题,所以我们从来不会坐在那里说,“我们应该加快速度还是注重安全?” 这种权衡反而是容易的。

比如说, GPT-4是否应该生成仇恨言论?我们很容易说不,使用其他模型如果你想这样做,但我们不希望煽动暴力,因此 GPT-4不应该生成仇恨言论。再比如, GPT-4是否应该鼓励人们实施暴力?很显然我们会说不。

如果有人用西班牙语写了一段煽动暴力的文字,并让 GPT-4翻译成英语,它不应该这么做。这可能是你持有不同意见的地方,但我们可以深入探讨类似的情况。

Patrick Chung

关于那个问题,你怎么看?如果有人写了一段暴力言论,然后让 GPT 翻译?

Sam Altman

在那种有限的情况下,我可能会说是。但我想表达的重点是,我本来打算列出 10 个类似的情况,每种情况下语言模型的使用可能有不同的表现,某些情况下可能是可接受的,而其他情况下则不可接受。

我认为 OpenAI 不应该独自决定这些使用规则,社会应该通过协商来决定如何使用这项技术。规则应该宽松到让人感到不安,但默认值不一定需要如此宽松。

社会可以同意非常宽泛的边界,用户可以在这些边界内进行自定义,大多数人可能不会去接近那些边界,但仍然有一些底线。

随着这些模型变得越来越强大,我们不会允许一些特定的使用方式。即便如此,这个工具的目标仍然是为用户服务。

Patrick Chung

好。那么,关于 AGI ,你最希望被问到的问题是什么?你会如何回答?

Sam Altman

我想问题应该是,“当 AGI 被构建出来时,你希望社会是什么样子的?”或者“你如何设想一个积极的版本?” 对此我的想法已经演变了很多次,我现在的想法是这样,虽然以后可能还会改变。

我最初的设想是,某个时候我们会越过一个门槛,获得一个自我提升的超级智能系统,它像塔里的魔法存在,可以回答我们提出的任何问题,并不断改进世界。也许它还会为我们提供某种形式的全民基本收入。这种设想既乌托邦又反乌托邦。

但我现在认为,这样的发展方向很不可能。相反, AGI 会融入社会和经济中,主要是通过成为工具让人们变得更高效,但还有其他方式。

我认为,社会是一个复杂的现象,它创造了巨大的集体智能和技术的积木,这些技术架构存在于我们每个人之间。

一个人在材料科学上的发现,可能会帮助另一个人发现新的物理定律,进而推动另一个人开发出新的材料,最终让我们获得手机这样的技术成果。这是一个逐步积累的过程。

超级智能不会仅仅存在于某个神经网络中,也不会存在于 AI 的单一实例中,而是存在于人与人之间的这种复杂互动中。这就是我对 AGI 到来的设想,它会比我最初想象的更加人性化和可导航。

Patrick Chung

你觉得现在大家对 OpenAI 有什么误解?

Sam Altman

我认为最大的系统性错误是,总以为进展很快就会进入 S 型曲线的末端,停滞不前。但我们的内部视角是,进展将继续以戏剧性的方式推进。很多人似乎难以理解这一点。

Patrick Chung

好的。我们收到了超过 2000 个学生的问题。

Sam Altman

我会快速回答。

观众:

你好,我叫 Peggy,我是哈佛学院的三年级学生,主修计算神经科学和艺术史。我很好奇,当你在职业或个人层面上因价值观的转变而进行调整时,如何重建或重新发现前进的动力?

Sam Altman

这是个很好的问题。首先,我认为现在可能是有史以来,至少是非常长时间以来,最好的职业起点,因为你们正处在可能是有史以来最大的技术浪潮上。

这意味着你们可以多次调整方向,因为你们有着令人难以置信的顺风势力,这也会让你们变得更加适应环境、更加有韧性,可以快速做出转变。

我不会把任何挫折、失败,甚至只是改变想法或决定去追求更令人兴奋的东西看作是负担。我认为这是一个特殊的时代,适应性和果断快速行动会得到极大回报。

所以,我会相信这是重新激励自己的方式,不要因为转变或事情没有成功而陷入困境,因为未来几年,你们将会充满机会。

当然,这仍然是困难的,失败总是感觉像是挫折。你需要花时间去消化它,比如去度个假,散散步,思考一段时间。但当你重新站起来时,要带着目标站起来。

观众:

你好,我叫 Yuma,来自哈佛商学院。我的问题与 AI 和 OpenAI 在社会中的角色有关。我们了解到生成式 AI 可能会对行业产生影响,你认为 AI 在应对教育、医疗等不平等问题上会扮演怎样的角色?

Sam Altman

我非常相信, AI 应该减少不平等。虽然这可能需要一些帮助以确保进程不偏离轨道,但如果接下来发生的是认知劳动成本将下降一百万倍,甚至可能一亿倍,我认为这应该对贫穷的人帮助更大,而不仅仅是富人。

它将惠及所有人,但非常富有的人已经可以负担得起良好的医疗建议,或者为他们的孩子提供良好的导师。如果这些服务能在每个人的手机上免费提供,这将让全世界受益,尤其是贫困人口。

我们使命的一大部分就是为世界免费提供优秀的 AI 工具,既不依赖广告支持,也不追求商业利益,这是我们为世界履行使命的一部分,我们会尽力推动这一进程。

总的来说,我相信技术有助于缩小不平等, AI 尤其如此。它应该成为一种平等的力量,提升底线。当然,如果你是个“ AGI 最大化主义者”,你可以想象一个世界,在那里计算和能源是唯一重要的资源。

尽管一个人使用大量计算资源的回报会逐渐减少,但仍然可以产生一些增量价值。这种情况可能会带来一些科幻小说式的结果,比如计算资源的价格,资本相对于劳动力的价值。

对此,我有两点想法:第一,我们有道德责任尽可能降低计算和能源的成本,这是应对可能出现的资源短缺的最佳方法。

第二,我可以想象一个世界,我们不再讨论财富的重新分配,而是将计算资源的获取视为基本人权。我们或许需要为计算资源引入类似 UBI(全民基本收入)的概念,我完全能看到这种可能性。

观众:

Altman 先生,我叫 Sal Porso,来自哈佛肯尼迪学院。在提问之前,我想说我很喜欢你的鞋子。

在过去的二十年里,我们见证了互联网格局的演变,像 Google这 样的企业通过广告模式革新了搜索,推动了创新浪潮,并为我们提供了许多免费的服务。

我个人对 GPT 技术非常看好,我认为它将成为平台,催生出许多我们现在无法想象的新业务。然而,目前 GPT 的订阅模式,虽然公平,但对早期创业者或小型企业来说,可能是一个障碍。

在这种背景下,你是否考虑过 OpenAI 探索其他货币化方式,比如支持广告的免费 API 访问,以促进创新?

Sam Altman

我会坦白说,我个人对广告并不太喜欢。我认为广告在早期为互联网提供了商业模式,但它确实在某种程度上与用户和公司之间的激励机制不完全一致。

我并不完全反对广告,我不是说 OpenAI 永远不会考虑广告,但我总体上不喜欢它。而且,广告与 AI 的结合让我尤其不安。

想象一下,如果 GPT 给我写了一篇回复,我还得弄清楚,谁为这篇内容付了钱,影响了我看到的内容,这会让我非常不舒服。随着时间的推移,我会越来越不喜欢这种模式。

我非常喜欢我们当前的简单模式,我们做出优质的 AI ,你为此付费。我们的目标就是为你提供最好的服务。

这种模式固然有一定的访问不平等性,但我们作为公司承诺,将把富人支付的费用用于为较贫穷的人提供免费访问。

你可以看到,我们目前通过 ChatGPT 的免费版正在做这件事,未来我们会做更多的努力,让免费版变得更好。我也在思考,如何将这一概念引入 API 。

广告模式对我来说是最后的手段,我只有在无法找到其他方式让全球每个人都能使用这些优质服务时,才会考虑使用广告。如果我们能找到不需要依赖广告的方式,我更愿意选择那些方式。

Patrick Chung

那你会考虑将 API 的访问权限出售给广告商,用你的技术来投放广告吗?

Sam Altman

那样是可以的。

观众

你好,我是 MIT 的学生,研究 AI 。我想问的是,当你们最初发布 GPT 技术时,它具有开创性,独树一帜。但在那之后,几乎立刻出现了很多竞争者。你们的创新或者产品研发方向因此发生了改变吗?

Sam Altman:

我不会说我们完全忽略了竞争对手,因为每个人都会稍微关注一下,毕竟可以从中得到一些灵感之类的。但坦白说,我不知道我们目前的市场份额是多少,我猜可能在 90% 以上。

我并不花太多时间去考虑竞争对手,而是努力去发现下一个范式和伟大的想法。如果其他人只是追随我们现在的进展,我不认为那是一个很好的策略,至少这不是我们想要追求的策略。

我的希望是每年我们都能做出一些令人惊叹的事情,大家曾认为这些是不可实现的。一旦你知道某事是可行的,并且大致知道怎么做,别人很快就会复制。

这不是最难的部分,最难的是找到那些你不知道是否可能实现的东西,并且成为第一个实现它的人。我们会继续做这些事情,其他人会继续复制我们的旧进展,而我对此没什么意见。

观众:

你好,Sam。我是 Thomas,哈佛大学大三的学生,主修计算机科学。我的问题是,你认为公众通用的人工智能教育课程的理想形式应该是什么样的?接下来五到十年,一般人需要了解什么?

Sam Altman:

这是个好问题。我认为最重要的是人们需要学会如何使用这些工具。我们发布 ChatGPT 后看到,一些学校系统非常迅速地决定禁止它,但几乎同样快地又解禁并要求老师使用它。

我觉得这大概是所有新技术都会经历的过程,每当有新事物出现,人们都会认为它会终结某种形式的教育。

我认为,鼓励人们在学习中有效使用这些工具是非常重要的,因为它们会改变学生在毕业后、乃至在校期间如何为社会作出贡献。

所以,首先,每个人都应该学会如何使用这些工具。你无法抗拒它,也不应该抗拒它,它只是技术树上的新工具,人们需要善于使用它,这将是他们今后工作的一部分,学校里应该教会他们如何使用它。

其次,就像现在许多大学生,即使不打算长期从事计算机科学领域,也会选修一门计算机科学入门课程。你可能不会再编程,但有一点基础了解或许对你有用。

我认为如果所有大学新生都能训练一下 GPT-2 的模型,熟悉一下整个技术栈,这会是很棒的事情。当然这可能不像学习如何使用工具那么重要,但我猜三年后,大多数哈佛新生可能都会做类似的事情。

观众:

你好,Sam。我是 Jonas,来自 MIT。我有两个问题。第一个问题是,你之前谈到过研究方向,你能否分享在 transformers 之后会有什么新发展?

Sam Altman:

我很想分享,但不能。

观众:

第二个问题是对 Patrick 之前问题的延伸,你觉得创业者和投资者对 AI 未来的认知最大错误是什么?

Sam Altman:

另一个好问题。我认为目前构建 AI 创业公司的基本策略有两种。你可以选择相信我们已经接近技术的顶峰,认为 AI 技术几乎不会再有大突破,或者你可以相信技术将会变得大大更好。

比如你在构建一个 AI 辅导公司,当基础模型变得更聪明时,学生学习的水平自然也会不断提高。

也许当前的版本只对六年级的学生有用,但下一个版本可能对八年级、十年级,甚至博士生都有效。

你可以一路乘着这波浪潮前进。或者你可以选择专注于刚刚勉强让八年级历史课的 AI 辅导起作用,投入大量的人力来纠正事实错误,只为这个特定的课程服务。在第一种情况下,当 GPT-5 发布时你会很高兴。

在第二种情况下你会很难过。我本以为 95% 的创业者会选择第一种策略,但看起来 95% 的创业者选择了第二种策略。

因此你会听到有人抱怨“ OpenAI 毁了我的创业公司”,但我们一直很大声地说,我们每天起床的目标就是让模型变得更好。如果你只做一些小事情,让 AI 在某个特定场景中刚刚能勉强起作用,那可能是个错误。

观众:

你好,我叫 Fletcher,来自哈佛学院,主修经济学和计算机科学。我的问题是关于能源的。我想知道 OpenAI 和 AI 领域对能源限制的关注有多大?你认为创业者、投资者或政治家应该如何应对这些问题?

Sam Altman:

能源和 AI 是我长期以来最感兴趣的两件事。我认为,这两者是通向技术繁荣的关键输入。虽然我不认为这是世界上最重要的事情,但对我个人来说,这是最重要的。如果你能把这两者做好,我们几乎可以做成任何事情。

我没有预料到的是,这两者实际上是同一个问题。最终,智能的成本应接近于能源的成本。移动物质,或者在这种情况下移动电子,依然会有些难度。算法是可以重复的,制造芯片本质上并不昂贵。

但我认为能源将会是 AI 发展的最大约束。如果我们快进到多年以后,能源将是 AI 进步的最大限制。因此,我非常鼓励任何人从事这方面的工作。

我相信我们在未来几年会取得巨大进展,我对核聚变感到非常兴奋。不过即便是太阳能加储能技术,我们也应该投入更多的努力,还有许多其他的想法。但我认为它们不仅是未来的关键组成部分,这两个问题还是深度相关的。

观众:

你好,我叫 Andrew,来自哈佛学院。我的问题是,你和 OpenAI 的其他领导者在什么问题上有最大的分歧?

Sam Altman:

最大的分歧通常是那些非常细致且极其重要的研究方向决策问题。因为我们有有限的资源,比如计算能力不够,人手也不多。我们的战略在于果断下注,所以我们会说,“我们要做这个,不做那个。”

我们不会同时做两个。这些都是高风险的决策,是“我们把公司押注在研究路径 A 上还是研究路径 B 上”这样的事情。

要么是这种极其重要的问题,要么就是最琐碎的、无关紧要的事情,比如“我们要给下一个模型起什么名字?” 这些都会引发激烈争论。

观众:

你好,Sam。我是 Cedric,来自机器人研究实验室。我准备了一个难的问题。你看过《奥本海默》了吗?从更广泛的角度来看,你觉得我们是否有时会因为对科学进步的纯粹热情,而走上后来回望时才意识到可能是错误的道路?

Sam Altman:

我认为我们不应该仅仅因为对科学进步的热情,就做出那些会显著影响世界的决定。但有时候你并不知道哪些决定会有巨大的影响。

目前,我认为 AI 的发展是必然的,大家对它的需求太大,益处也太多,我觉得这是好事。

当我们做出那些关键决定时,我们并不知道当时的决定会如此重要。事实上,如果你问我,我会说那些决定不会产生多大的影响。

当时根本不明显它们会在未来产生如此巨大的曲线转折。但现在,我们确实感受到责任感,并试图以影响为基准思考每个决策。

然而,即便是现在,我敢打赌我们正在做的最重要的决定,我们当下并没有意识到它们的重要性。

所以,这就是问题的难点。像决定是否部署 GPT-5,或设置哪个阈值,我们会极其慎重地对待这些决定,这些决定不会基于科学好奇心作出。

但目前, OpenAI 中某个地方,有人在做某个非常重要的发现。我不知道是谁,也不知道是什么,但我知道它会发生。

统计上来说,这个发现可能会极大地影响未来。他会告诉另一个人,那个人又告诉另一个人,这就是“蝴蝶效应”,你永远不知道这会什么时候发生。

所以我完全同意,在表面上,我们应该对重大决策承担巨大责任,并确保我们做出正确的决定,但你并不总是能意识到哪些决定是重要的。

观众:

你好,Sam。我是 Lepia,来自 MIT。在你看来,关于 AI 你遇到过的最大误解是什么?你认为行业应如何解决这些问题,以提高公众对 AI 的理解和信任?

Sam Altman:

关于模型的误解有很多,比如它们在什么地方会出错,人们误以为它们具备哪些能力,或者认为它们有有害的地方。媒体对这些问题的报道总是显得特别紧张。

但我认为用户其实很聪明,他们很快就能对工具的使用方式形成良好的判断。我觉得最大的误解是人们低估了这些模型即将达到的水平。

我基本上已经放弃了试图向外界传达这一点。要么是很难理解,要么是我解释得不好,但我希望世界能更加重视这一点。

我觉得目前,分阶段的发布和让这些技术逐步进入现实世界,是唯一能让人们更新认知的方式。逐步推进是很重要的,这确实能让世界对这些技术产生反应。

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://m.ylfx.com/shangxun/10541.html