返回上一页  首页 | cnbeta报时: 01:22:28
李彦宏接受《时代》专访:AGI可能不存在 中国模型落后的不太多
发布日期:2026-01-27 12:54:45  稿源:凤凰网科技

1月27日,百度CEO李彦宏接受了美国《时代》杂志的专访,谈到了百度在AI领域的发展历程。李彦宏表示,他甚至不相信存在所谓的通用人工智能(AGI),没有一个模型能够“面面俱到”,OpenAI不行,Google也做不到。在模型发展上,中国落后的没那么多。


李彦宏

在百度北京庞大总部入口大厅的墙上,悬挂着一块镶嵌着金色数字“1417”的小木牌。这个数字取自北大对面的一间宾馆房间。正是在那里,李彦宏于2000年创立了这家市值500亿美元的公司。

在公司创立早期,李彦宏的重点是巩固百度作为中国领先搜索引擎的地位。然而,他早在本科阶段在北京大学和清华大学上课时,就对AI产生了浓厚兴趣。但是在1991年他赴美攻读研究生时,这份兴趣被暂时搁置。

“我对教授说,我对AI感兴趣,但他却说:‘别搞这个,否则你将来会找不到工作的!’”李彦宏笑着回忆道。

如今,事实证明了这位教授当年的判断大错特错。据估计,去年全球AI市场规模已达2440亿美元,而AI芯片先锋英伟达已成为全球市值最高的公司,价值超过4万亿美元。李彦宏早早地预见到了这一趋势,如今百度已成为中国领先的全栈式AI企业之一,提供从芯片、云基础设施,到模型、智能体、应用和消费产品的全套服务。

去年11月,《时代》在百度世界大会期间采访了李彦宏。以下是采访全文:

问:你在2000年创办百度时,有没有预料到AI能在今天发挥如此重要作用?

李彦宏:没有。当时我创办百度时,我意识到互联网将在中国成为一件大事,而搜索技术对于中国互联网的发展非常重要。但我当时并没有把AI和搜索引擎联系起来。大约在2010年,我们意识到机器学习(AI的一个分支)开始在搜索结果排名中发挥作用。我们大约在那时开始投资AI,以便研究有多少人会点击某个链接。随后在2012年,我们意识到深度学习将变得非常重要。它识别图像的精确度远超上一代技术。百度对AI的实质性大规模投资,正是从2012年左右开始的。

问:你曾提到,去年在将AI融入社会和经济各个领域方面,许多门槛已被打破。你认为2025年是AI普及的关键之年吗?

李彦宏:就应用而言,是的。因为在2023年或2024年,主要关注的还是基础模型。基础模型的能力不断提升,同时推理成本持续下降。但未来,人们必须考虑应用层面的增值。在过去大约半年里,我们已经看到,这波AI浪潮在应用层面创造价值的各种场景。

问:你最近发布了文心一言5.0,在多个指标上都能与ChatGPT、DeepSeek及其他大语言模型一较高下。但这是一个竞争非常激烈的领域。是什么让你觉得文心一言能够脱颖而出?

李彦宏:在开发我们的基础模型,也就是文心一言时,我们采取的是以应用为驱动的策略。特别是5.0版本,我们并不试图“面面俱到”,而是专注于我们非常关心的应用领域,例如搜索或数字人。在这些领域,无论基础模型层面需要哪些能力,我们都会训练模型在这些技能上表现出色。

举例来说,我认为我们的模型在指令执行和创意写作方面表现非常好,创意写作方面甚至被评为第一。因为这些能力可以用在数字人层,尤其是在数字人进行直播、电商销售时。要卖东西,你需要写出非常有说服力的脚本,让用户愿意为商品付费。因此,我们会针对这些应用场景优化模型。

我们认为,未来没有任何基础模型能够在每个方面都做到最好,OpenAI做不到,GoogleGemini也做不到,我们自己也做不到。但我们会优化模型,使其在我们最关心的应用方向上表现更好。

问:你是否认为基础模型领域会像其他技术一样,很快进行整合,只剩下少数几个佼佼者?

李彦宏:我认为最终确实会如此。桌面互联网是这样,移动互联网是这样,AI也将会是这样。最终可能只会剩下少数几个基础模型,但在应用层,将会有许多在不同方向上取得成功的参与者。我认为那里蕴藏着最大的机遇,否则这一切只会成为一个泡沫,迟早会破裂。

问:你曾表示芯片的价值存在误导性,而应用层的附加值需要提升。作为一家全栈AI公司,百度在哪些应用领域看到了增长和收入的潜力?

李彦宏:这正是我的观点。我认为目前的格局像一个金字塔:大部分价值体现在芯片层面,模型层面可能只实现了十分之一,而应用层面实现的价值更少。这显然不健康。我之所以这么说,是因为自2023年初我们在开发基础模型时采取了非常不同的策略,当时大家的注意力都集中在文心一言上。我公开表示:“不要只关注模型,要关注应用。”这正是我们过去两三年坚持的方向。因为我坚信,必须在应用层创造更多价值,才能持续支撑对模型、芯片等底层技术的投入。

问:百度积极拥抱开源模型,你为何认为这是最佳选择?

李彦宏:我们一直支持开源社区,尤其是在深度学习框架层面。我们的飞桨开源深度学习平台有数千万开发者在使用,其影响力可与TensorFlow和PyTorch媲美。在模型层面,我们也认识到开源能吸引更多关注,让人们更愿意尝试并验证其效果。但必须说明的是,我不认为开源是价值创造的关键。准确地说,这并非真正的“开源”,而是“开放权重”。你可以获得模型所有权重参数,却无法知晓训练数据,因此难以完全复现模型开发者的成果。不过这并不重要:关键在于为你的应用提供最佳性能的模型。它可能是一个小型开源模型,也可能是昂贵的大型闭源模型。只要它能创造的价值远超过你在推理和训练上的投入,就值得采用。当前行业正处于模型爆发期,几乎每周甚至每天都有新模型发布。开发者拥有丰富的选择,但这种局面终将趋于稳定并走向成熟。当更多模型开发者转向应用层,为各类场景开发智能体时,生态系统便会真正成熟起来。

问:与上次交流时相比,我感受到一个显著变化是百度正坚定推进国际化扩张,特别是萝卜快跑自动驾驶出租车在中东和欧洲的布局。你们如何应对这一进程中监管与地缘政治方面的挑战?

李彦宏:无论在中国还是海外,这始终是充满挑战的领域。目前自动驾驶技术已到达临界点:我们完全具备在高度拥堵的城区大规模部署自动驾驶出租车的能力,但很多城市目前还不允许自动驾驶车辆上路。目前。萝卜快跑已在约22个城市运营,我们正快速扩大规模:持续增投车辆、提升订单量。因此,只要当地监管允许,我们都乐于推进部署。我们有时独立运营,有时与Uber、Lyft等各类本土伙伴合作。我们非常灵活,我认为我们的技术已经为此做好了准备。此外,由于中国拥有非常有竞争力的供应链,我们能够以低于西方车辆的成本制造自动驾驶出租车。因此,我们在全球大多数城市都能实现独特且健康的经济效益。这也是为什么只要监管允许,我们就准备好部署的原因。

问:中国在传感器、电池以及其他电动车零部件的供应链方面非常强大,但芯片是美国似乎牢牢掌控的一个领域。百度刚刚发布了新款M100芯片,并正在开发新的芯片集群。我们现在是否可以说,中国已经不再依赖美国芯片了?

李彦宏:不,在GPU或AI加速器方面,我认为我们可能落后美国两到三代。但这并不会阻碍我们开发非常有价值的应用。芯片层位于技术金字塔的最底层,其上是各种框架、基础模型,然后才是应用层。我们在芯片上可能落后几年的时间,但在模型层面并不算太远。而在模型之上,我们有很多其他地方找不到的应用场景。美国的人甚至都不知道这些问题需要被解决。这正是价值创造的地方。因此,我并不太担心芯片限制,虽然我非常希望能够使用最先进的英伟达芯片。

问:美国政策制定者讨论用“曼哈顿计划”式(美国研发首个原子弹的代号)的力量来推动AGI。而在中国,政策框架更多关注将AI技术普及到社会各领域。你觉得美国以军备竞赛的方式讨论AI有帮助吗?

李彦宏:在这个问题上,我们的看法非常不同。美国主流观点确实把它当作“曼哈顿计划”,国家投入巨资去实现所谓的AGI,以便领先中国和其他国家。而我们更关注应用。中国在制造业方面非常强大,我们有大量工厂,需要高效率、低成本地生产各种产品,而AI正是用来解决这些问题的。这才是我们更关心的。我甚至不认为所谓的AGI存在,也就是有一个模型能“包打天下”,在每个方面都优于其他模型。我认为,我们必须考虑实际应用。即使你像爱因斯坦一样聪明,如果你甚至都不知道某些事情存在,也很难去解决问题。

问:所以你们是把AGI放在一边,只专注于应用吗?

李彦宏:我并没有花很多时间去思考AGI。我们当然在训练模型,但训练模型的目的,是为了解决具体的应用问题。我并不认为我们应该去打造一个“无所不能、适合所有人的超级智能AI”。

问:在开发AI应用,并克服监管等阻碍以实现大规模普及方面,你认为最大的挑战是什么?

李彦宏:创新几乎总是需要处理前所未有的问题,尤其是当试图将技术部署到现实世界时。以自动驾驶出租车为例:道路上存在出租车司机和各类由人驾驶的车辆。这是一项新事物。总体而言,中国政府是支持创新的,他们常说“我们支持你的创新努力”。但另一方面,他们也需要顾及各利益相关方的种种关切。如果没有任何法规允许自动驾驶汽车上路,那就意味着它不能上路。这与美国的情况略有不同。在美国,如果没有法规说你不能让自动驾驶汽车上路,那么你就是被允许的。在得州或佐治亚州等地方,对自动驾驶出租车运营根本没有监管。但在中国,在AGI和基础模型方面,很多情况下你必须获得监管机构的许可。

早在2023年初,美国很多意见领袖就声称“AI非常危险,我们需要监管。我们需要将基础模型的发展推迟六个月,以确保其安全,或符合我们的价值体系”。但在中国,其实并没有发生类似的事情。我们并不经常讨论这类监管问题,但实际上,已经存在一整套引导新技术发展的监管规则。

问:现在看起来,美国在AI领域推动更多安全措施和护栏的努力已经消失。美国正全速推进、试图赢得他们所说的“AI 竞赛”。你觉得这是不是有些鲁莽?你认为美国是否应该退一步,像中国那样制定一些恰当的监管措施?

李彦宏:我对此会非常谨慎地看待。一方面,我确实认为应该有一定的护栏;但另一方面,由于技术发展得如此之快、进步如此迅猛,在制定监管规则时必须非常小心,避免伤害创新的节奏。我们很难指望监管者对技术有比基础模型开发者更深入、甚至更好的理解。如果采取一种过于“事先预防式”的态度,可能并不是一件好事。你希望监管它,但应该退后半步,观察它的演变,然后再制定恰当的法规。你不应该走在技术路线图的前面,哪怕只是领先一步或半步,因为那样做,它会成为创新的减速带。

问:对于那些担心AI取代工作、取代人类的人,你想说什么?你理解他们的担忧吗?

李彦宏:是的,中国和美国都面临类似的问题。从长远来看,人们普遍认为新技术将为人类创造更多的工作机会。但短期内,我们确实面临挑战。由于AI带来的生产力提升,就业将面临下行压力,我们需要找到方法来应对这个问题。在美国,人们讨论全民基本收入;在中国,我们则更多谈论新的就业机会,比如数据标注这类工作。百度就帮助许多城市建立了数据标注中心,雇佣了成千上万的人。我认为未来,我们将能够创造出许多我们从未设想过的全新工作岗位。

问:你如何看待数据中心能耗巨大的问题?这个问题如何解决?

李彦宏:这个问题我们很早就面对过,大概在10到15年前,当我们开始建设大规模数据中心时,就开始关注所谓的PUE(电源使用效率)。我们投入了大量精力来确保数据中心的能效。在中国,我们的数据中心可能仍是能效最高的。随着AI的扩展,我们确实需要更多的算力和电力。因此,这方面的努力变得越来越重要,也多少有些不同。在GPU时代,有很多不同的节能方法。但也许最明显的一个是让你的模型更小,推理成本更低。如果你能做到这一点,自然就会减少电力需求。在这方面,中国遥遥领先。我们能够开发出推理成本是美国同行十分之一甚至百分之一的模型。我认为美国更侧重于开发最强大的AI模型,而中国,可能因为我们的购买力较弱、竞争更激烈,我们总是不得不降低推理成本,顺带也节约了能源。

问:像DeepSeek这样的公司只花了600万美元就做出了V3 模型,而Meta却在AI上砸下了数十亿美元,成效却备受质疑。你怎么看?你是否认为美国正陷入一种泡沫,只是在不断往研发里砸钱,却并没有真正关注产出和回报?

李彦宏:我认为这是两条不同的发展路径。在中国这边,我们努力让模型变得更高效。我们必须这么做,因为我们无法获得最先进的芯片。而在美国这边,你们拥有更先进的芯片,也更愿意在前沿技术上进行大规模投入。我觉得这同样是好事,这有助于人类去探索技术的极限、可能性的边界。我对这方面的努力非常感兴趣,也一直在密切关注。正如我之前说的,我们可能无法在模型训练投入上与Google、OpenAI相匹敌,但我们离应用更近。我们更清楚要解决什么问题,也希望在美国意识到这些问题存在之前,就已经把它们解决掉了。

问:你认为在未来大约10年里,AI将以哪些最不被理解、或者最出人意料的方式改变社会?

李彦宏:这存在着巨大的不确定性,因为技术演进得实在太快了。要去想象10年之后会发生什么非常困难,甚至回头看一年前,我都无法想象今天的AI会如此强大。所以我们能做的,就是持续观察技术所能达到的可能性,并努力找到利用这些创新的方式。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 01:22:28

文字版  标准版  电脑端

© 2003-2026