ChatGPT的火,已经从AI圈烧到了全球。
自2022年11月推出后,这款强大的聊天机器人仅用60天月活过亿,被《财富》认为是划时代的产品,引微软、谷歌等巨头纷纷下场。更重要的是,以ChatGPT为代表的AIGC(Artificial Intelligence Generated Content,生成式AI),正在人工智能领域掀起AI商业化的新一轮浪潮,打开了诸多行业变革的想象天窗。如果要问谁是当下离 AI 技术革命最近的人,ChatGPT之父、OpenAI CEO 山姆·阿尔特曼(Sam Altman)一定位列其中。
2017 年,还在担任硅谷知名创业孵化器 Y Combinator总裁的他,和伊隆·马斯克、彼得・蒂尔、雷德・霍夫曼等人一起投资了 10 亿美元,共同成为 Open AI 的创始人。又过了两年,他将工作重心转移到了 AI,担任 OpenAI 的 CEO 直到今天。在去年秋天,山姆·阿尔特曼与 Open AI 创始人之一、领英联合创始人雷德・霍夫曼(Reid Hoffman)展开了一场精彩对话。其中,山姆·阿尔特曼分享了他对于未来AI发展的预测:AI 大模型技术,将成为继移动互联网之后,未来最大的技术平台;而以聊天机器人为界面,加上图像、音乐、文本等多模态模型的发展,将诞生大型企业。
他是如何判断AI未来商业化发展的?大型AI企业将诞生于哪些领域?AI将取代人类的工作,还是更好地帮助人类工作?
Q:很多AI大模型都通过API(application programming interface,应用接口)开放使用,它真正的商业机会是什么?A:现在,语言模型已经可以很好地应用到文案写作和教育服务领域。我相信未来几年内,语言模型会更加强大,将能与Google这一价值万亿美元的搜索产品一较高下。语言模型的应用将会改变我们的日常生活。
以前,人们太早嘲笑许多趋势,比如聊天机器人,其实它很有价值,只是当时的技术还不能满足需求。现在的聊天机器人更加成熟,几乎可以达到人类水平。聊天机器人可以用于医疗服务行业,提供咨询和教育服务,这方面将能催生出大型企业。我相信,不久之后会出现多模态模型,这将开辟新的事物。现在,人们可以直接用自然语言命令计算机为你完成你想做的工作。例如DALL-E图像生成工具和Copilot编程工具,都是用户向它们输入自然语言描述,然后工具自动生成用户想要的东西,用户还可以不断迭代修改自己的描述,直至工具给出满意的输出。类似的AI应用方式会成为大趋势,可以孕育出许多大型企业。强大的AI模型可以成为孵化各种AI应用的平台,就像智能手机的出现催生出众多APP一样,它们的共同点都是可以制造无数的商业机会。
Q:作为大型语言模型 API 的服务提供商,关键是什么?如何创建一个持久的差异化业务?A:将来应该会出现几个大型的基础模型,开发人员都将基于这些基础模型研发AI应用。但目前的情况依然是某一家公司开发出一个大型语言模型,然后开放API供他人使用。我认为,将来在基础模型和具体AI应用研发之间会有一个中间层:出现一批专门负责调整大型模型以适应具体AI应用需求的初创企业。能做好这一点的初创公司将会非常成功,但这取决于它们能在「数据飞轮」上走多远。
数据飞轮:使用更多数据可以训练出更好的模型,吸引更多用户,从而产生更多用户数据用于训练,形成良性循环。我对初创企业训练模型的能力持怀疑态度,将来承担模型训练角色的应该不会是初创公司,但这些企业可以在上述的中间层角色中发挥巨大价值。我认为中间那一层会创造很多价值。Q:一个大型语言模型初创企业,如何区别于另一个大型语言模型初创企业呢?从某种意义而言,创业公司会训练自己的模型,只不过不是从头开始。他们将采用基础模型,这些模型已经经过大量的计算和数据训练,然后在这些模型之上进行训练,为每个垂类创建模型。
他们所做的 1% 的训练,对于应用来说至关重要。我认为,这些创业公司将会非常成功,并且与众不同。可能包括一段时间内存在的 prompt engineering(提示工程)或基础核心模型(core base model)。注:提示工程是指将任务的描述、或者提问放在输入中,让 AI 模型输出理想结果的调试过程;ChatGPT 走红之后,提示工程师这一岗位也被人所关注。Q:五年内,大多数用户与基础模型交互的方式是什么?prompt engineering 将是许多组织的内部职能吗?A:我不认为五年后我们还做 prompt engineering,这将被整合进所有地方。无论用文本还是语音,取决于上下文,只需要语言接口,让计算机做你想做的任何事情。将来的AI系统不会因为增补了某个特定词就会产生截然不同的输出,而是可以较好地理解自然语言,用户只需以文本和语音形式输入指令,即可让计算机完成图像生成、资料研究、心理咨询等复杂任务。总的来说,用户只需使用自然语言就可以与计算机交互,当然,如果艺术家能想出更有创造性的描述,也自然就可以生成更好的图像。Q:当有一个伟大的视觉思考者,他们可以从 DALL-E 中获取更多,因为他们知道如何更深入思考,知道如何在测试中迭代循环。你认为这是大部分这类事的普遍真理吗?A:百分百确定。重要的是思想的质量,和对你想要的东西的理解。所以艺术家仍然会在图像生成方面做得最好,不是因为他们在图像最后加上了这个神奇单词,而是因为他们能用我没有的创造性的眼光来表达。Q:最令你惊讶的是什么?如果没有意识到事情已经发展到这一步,你认为会有什么样的惊喜呢?A:人们现在所犯的最大的系统性错误,就是他们会说,「好吧,我也许持怀疑态度,但是这种语言模型真的会起作用,当然,图像和视频也会起作用。但它不会为人类产生新知。它只会做其他人已经做过的事情。这还是让智力的边际成本非常低,不能治愈癌症。它不会增加人类科学知识的总和。」 我认为这将被证明是错误的,让目前该领域的专家最感到惊讶的地方。
Q:无论是建立在 API 之上,还是科学家使用 API,有哪些地方的科学会加速,以及如何加速?一种是将AI工具直接用于科学目的,如AlphaFold(用于蛋白质结构预测),它们可以创造巨大价值,相信未来会出现无数这样的工具。另一种是将AI工具用于提升科研工作效率,如帮科学家和工程师找到新研究方向、写代码等。Copilot编程工具就是一个例子。但AI工具的能力远不止于此。上述两种AI应用将会大大推动科技前进。此外,目前科学界也在探索对AI的第三种应用方式——让AI成为可以「自我改进」的科学家。这件事情既有好处也有风险。
好的一面是,可以利用AI将人类的工作内容自动化,教会AI做任何人类可以做的事情:探索新科学、提出理论解释、验证、思考等,或许还可借此解决困扰人类已久的「AI对齐问题(Alignment Problem)」(即如何让AI系统的目标符合人类的价值观)。风险在于,有人担心懂得「自我改进」的AI有可能会像科幻小说描写的那样,擅自改动代码或修改优化算法。我深信,真正有利于促进人类和经济的前行的,是一个能够推动科学进步的社会架构。我们能从这样的社会架构中获益很多。A:建立一个非常强大的系统,如果它不按我们的意愿行事,或者它的目标与我们的冲突,就会变得非常糟糕。因此,对齐问题是:我们如何建立做最符合人类利益事情的 AGI(Artificial General Intelligence 通用人工智能)?如何确保人类能够决定人类的未来?我们如何避免意外和故意误用,前者是没有预料到的错误,后者是一个坏人使用 AGI 造成巨大伤害;内在而言的对齐问题是,如果这个东西变成一个生物,视我们为威胁怎么办?我们对如何在小范围内解决对齐问题有一些想法,已经能够使 OpenAI 最大的模型(表现得)比想象的要好。我们对下一步做什么有些想法,但不能诚实地看着任何人的眼睛说,看到了 100 年后将如何解决这个问题。但是,一旦人工智能足够好,我们可以问它,「嘿,你能帮助我们做对齐研究吗?」这将是工具箱里的一个新工具。
Q:我们之前的一次谈话是,能不能告诉 agent(注:AI 中的一个概念,通常指环境中的智能主体),「不要种族歧视」?A:当然。一旦模型变得足够聪明,真正理解了种族主义是什么样子,以及它有多复杂,你就可以说,「不要成为种族主义者。」
Q:「AGI」这个术语已经被广泛使用。有时困惑来自于人们对 AGI 有不同定义。你如何定义 AGI,怎样知道我们什么时候实现它?A:我理解的AGI相当于一个可以共事的普通人,任何远程同事可以通过电脑帮你完成的工作,AGI也可以做,包括让AGI学习医疗知识和写代码等等。AGI的重点不在于掌握某一种难得的技能,而是拥有学习的元能力,然后只要人类需要,它就可以往任何技能方向发展并精通。另一个概念是「超级智能」(Super Intelligence),它指的是比全人类加起来还要聪明的智能。Q:如何看待像 GPT-3 这样的基础技术,对生命科学研究进度的具体影响?生命科学研究中速率限制的因素是什么?我们无法超越这个限制,因为自然法则就是这样?A:我目前的可用模型还不够好,不足以对生命科学领域产生重大影响——不少生命科学家了解这些模型之后都说,它们只能在部分情况下发挥些许作用。