网页版本的whatsapp为什么不能发动态了
对英伟达来说,如果非要有什么比其年会 GTC 更重要的会,就是 SIGGRAPH 大会,世界上最重要的图形研究和发现的孵化点。对英伟达来说,「在许多方面,SIGGRAPH 帮助英伟达成为今天的样子。」
今年的 SIGGRAPH 大会在今日凌晨拉开帷幕,这是 SIGGRAPH 的 50 周年,特别的时刻,老黄为此请来了特别的客人——扎克伯格。第一次来到 SIGGRAPH 的扎克伯格并不怯场,他对老黄说,「比你们我们是嫩点,但 Meta 参加 SIGGRAPH 也有 8 年了。」
在大会上,扎克伯格在和黄仁勋的炉边谈话中,从做元宇宙建立 FAIR(Meta 内部的 AI 研究部门)谈起,细数了 Meta 在 AI 上的一切过往和未来。他痛批了多年来受制于苹果的闭源生态,承认了部署大模型做晚了所以选择开源,此外,他回应了开源如何赚钱的质疑。
二人的同台,其实并不意外,Meta 几乎是英伟达最大的金主,占据了英伟达年营收的 1/5。早些时候,扎克伯格承诺,到今年年底,Meta 将拥有 35 万个英伟达 H100。
但从这场炉边谈话中,英伟达朝着 AI 软件的第二增长曲线愈演愈烈,Meta 则亲手写下亿万个智能体的未来。二人势必将 AI 的蛋糕做得更大,在当下也成为了最佳盟友。
黄仁勋:Mark,欢迎你第一次来到 SIGGRAPH。你能相信吗?作为计算机领域的先驱之一,现代计算的推动者,我居然要邀请你来 SIGGRAPH,很高兴你能来。
黄仁勋:是的,这就是 SIGGRAPH,这里 90% 都是博士。SIGGRAPH 最棒的地方在于,这是一个结合了计算机图形学、图像处理、人工智能和机器人技术的展会。多年来,许多公司在这里展示和揭示了令人惊叹的东西,比如迪士尼、皮克斯、Adobe、Epic Games,当然还有英伟达。
今年在这里做了很多工作:我们在人工智能和仿真(simulation)的交叉领域发表了 20 篇论文;我们正在使用AI来帮助仿真或者说模拟(simulation)这件事以更大规模、更快速度运行。例如,可微分物理(differentiable physics),我们正在使用仿真来为人工智能创建模拟环境,用于合成数据生成,这两个领域正在真正融合。
Meta,其实在AI方面做了令人惊叹的工作。我觉得有趣的是,当媒体写到 Meta 在过去几年突然投入 AI 时,好像不知道 FAIR(Facebook AI Research,Meta 的人工智能研究部门,成立于 2013 年)过往的成就。事实上,我们都在使用来自 Meta 开源的深度学习框架 PyTorch(人工智能研究和开发中不可或缺的工具),并且,Meta 在计算机视觉、语言模型、实时翻译方面的工作都是开创性的。
我想问你的第一个问题是,你如何看待 Meta 在生成式AI的进展?它将如何增强你们的业务或引入新的能力?
扎克伯格:相比你们,我们还是新手。但是,Meta 参加 SIGGRAPH 已经有八年了。在 2018 年,我们最早展示了一些手部追踪工作,用于我们的 VR 和混合现实头显。我们也已经讨论了很多在编解码器化身(codec avatars)方面取得的进展,用以在消费级头显里展示的逼真化身(avatar)。
还有我们在显示系统方面所做的大量工作,一些未来的原型和研究,让混合现实头显能够变得非常薄。我想要的是,非常先进的光学堆栈、显示系统和集成系统。
所以很高兴能来到这里,今年,不仅仅是谈论元宇宙,还有关于 AI 的一切。如你所说,我们在开始 Reality Labs(Meta 元宇宙研发部门)之前,就成立了 FAIR,那时候我们还叫 Facebook,现在当然叫 Meta。所以在 AI 上,我们有多年的积累。
关于生成式 AI,这是一场有趣的革命,我认为它最终会彻底改变我们所做的所有产品。比如,Instagram 和 Facebook 的信息流和推荐系统,我们已经演化了数十年,AI 还将进一步改变它。
最初的信息流只是有关朋友的联系,在这种情况下,信息流的排序是关键。因为如果有人做了非常重要的事情,比如你表弟生了孩子之类的,你希望它出现在顶部。如果我们把它埋在你的信息流的某个角落,你会非常生气。
但过去几年,信息流已经发展到另一个阶段,你需要的内容展示更多是关于公共内容。在这种情况下,推荐系统变得超级重要。因为不仅仅是来自朋友的几百、几千个帖子等着被展示到你面前,而是有数百万条内容,这变成了一个非常有趣的推荐问题。
而有了生成式 AI,我们很快会进入一个新阶段。今天你在 Instagram 上看到的大部分内容都是推荐给你的、世界上有人写下的、与你兴趣相匹配的内容,无论你是否关注了这些人。但在未来,其中一些将是创作者使用工具创建的新内容,甚至有些内容将是为你即时创建的,或者是通过综合现有的不同内容而产生的。
这只是一个例子,说明我们正在做的核心业务将如何演变,它已经演变了 20 年了,但很少有人意识到。
扎克伯格:这是一个完全不同的路径,它不完全是人们现在谈论的生成式 AI。尽管它都是 Transformer 架构,都在构建越来越通用的系统,将非结构化数据嵌入到特征中。
但两种方式产生了质的差别,过去我们为不同类型的内容训练不同的模型,比如一个模型用于 Meta 短视频 APP Reels 的排序和推荐,另一个模型用于长视频的排序和推荐。然后,你需要做一些产品工作,使系统能够内联显示任何内容。
随着你创建越来越多的通用推荐模型,它就变得越来越好,因为你可以从更广泛的内容池子中抽取,而不是像从不同池子里抽取一样低效率。
现在,随着模型变得更大更通用,它会变得越来越好。我梦想有一天,Facebook 或 Instagram 的全部内容,就像一个单一的 AI 模型在驱动,它统一了所有这些不同的内容类型和系统。在现实中,不同的时间段 APP 有不同的推荐目标,其中一些只是为了向你展示你今天想看的有趣内容,但有些是帮助你建立你的长期人脉网络,在这种情况下,这些多模态模型往往更擅长识别模式、弱信号等。
黄仁勋:原来AI在你的公司中用得如此深入。你们一直在构建GPU基础设施,运行这些大型推荐系统已经有很长时间了。
现在,用AI真正酷的地方在于,当我使用 WhatsApp 时,我感觉我在与 WhatsApp「合作」。想象我在打字,它顺着我打字的意思接着生成图像。当我改变我的用词,它又生成其他图像。比如我输入,一个老中国人在日落时享受一杯威士忌,旁边有三只狗;它就生成一张相当不错的图片。
但另一方面,所有这些全新的东西可以被创造、生成出来。就像 Meta AI 这样的 AI 助手,可以帮助你完成不同的任务。在我们的世界里,它将会是非常具有创造性的,它将能够随着时间的推移回答任何问题。
未来,当我们从 Llama 3 的模型切换至 Llama 4 及以后的版本,我认为 Meta AI 就不再只像一个聊天机器人,你问一句他答一句了。取而代之地,他会在理解你的意图后,在多个时间框架内自主工作。比如,你一开始给了他一个意图,它会启动,在几周或几个月的计算任务后,他会回来告诉你结果,我认为这将非常强大。
黄仁勋:就像你说的,今天的 AI,是一来一回、有问有答的方式,但显然,人类的思考不是这样。当我们被给予一个任务或一个问题时,我们会考虑多个选项,可能会想出一个决策树,我们在脑海中模拟运行,每个决定的不同结果是什么。像这样的规划、决策,未来 AI 也能做类似的事情。
扎克伯格:我们已经谈论过一点,但我们今天正在更广泛地推出它。我不认为只会有一个 AI 模型,这是行业中一些其他公司的做法,建立一个中心化的智能体。
我们不一样,我们会有 Meta AI 助手供你使用,但我们想让所有使用 Meta 产品的人都有自己创建智能体的能力。无论是,平台上的数百万创作者,还是数亿小企业,都能快速建立一个业务智能体,能够与你的客户互动,比如销售和服务客户等。
所以 Meta 现在开始推出更多的是,我们称之为AI Studio,它是一套工具,最终将使每个创作者都能建立某种 AI 版本的自己,作为一种代理或助手,社区成员可以与之互动。
如果你是一个创作者,想与你的社区有更多的互动,你其实是受到时间、精力限制的。更好的选择是能让人们创建这些 AI,它可以基于你的语料把它训练成你想要的方式,来代表你。你非常清楚,不是在与创作者本人互动,但这是另一种有趣的方式,就像真人创作者在这些社交系统上发布内容一样,能够有代理来做这件事。
同样,我认为人们会为不同的用途创建自己不同的代理或者助手,有些将是为了完成特定任务,有些将是娱乐性的。
我们看到的一个有趣的用例是,人们使用 Meta AI 来角色扮演他们将面临的社交困难情况,以获得帮助,比如,我想问我的经理,如何获得晋升或加薪?或者我正在与我的朋友吵架,或者我与我的女朋友有一个困难的情况,这个对话应该如何进行?
当然,也有很多人不只是想与通用的代理互动,还想要创建自己的、特定的代理。这大致就是我们的 AI Studio 要去做的方向。总体上,我们认为不应该只有一个 AI 供人们互动,如果有多样性,世界会变得更好、更有趣。
黄仁勋:很酷,如果你是一个艺术家,你有自己的风格。你可以用你的作品,可以微调一个你的模型,可以让它按照你的艺术风格创作一些东西,作为草图、作为灵感。未来每一家餐厅,每一个网站可能都会有这些AI。
扎克伯格:是的,就像每个企业都有一个电子邮件地址、一个网站和社交媒体账号一样,我认为在未来,每个企业都会有一个与客户对接的 AI 代理,这在过往的组织里很难实现。
黄仁勋:而且这些所有的「客户支持」互动,尤其是他们的投诉,都可以进入分析,从而改进AI,这将使你的公司变得更好。
扎克伯格:所以我认为会有更多的集成,我们仍然处于相当早期的阶段,但 AI Studio 能够让人们创建他们的 UGC 代理和不同的东西,并开始这个让创作者创建它们的数据飞轮。我对此相当兴奋。
黄仁勋:然后我可以给它,加载我写过的所有东西,以便将其用作我的 RAG。每次我交互时,它都会再次加载它的记忆,记得上次停留的上下文,继续我们的对话,就像没有中断一样。
扎克伯格:像任何产品一样,它会随着时间变得更好。训练它的工具会变得更好。这不仅仅是关于你想让它说什么。随着时间的推移,你基本上几乎能够像与代理进行视频聊天一样。随着时间的推移,我们会实现的,飞轮正在快速旋转。
我认为我们会有大约五年的产品创新时间,弄清楚如何最有效地使用到目前为止已经构建的所有东西。同时,基础模型和基础研究的进展也正在加速,所以这是一个相当疯狂的时期。
黄仁勋:在上次咱俩的对话中,我们是CEO,我们是脆弱的花朵,我们需要很多支持,到这个时候已经很坚强了。
黄仁勋:我喜欢你的愿景,每个人都可以拥有一个AI,每个企业都可以拥有一个 AI。在我们公司,我希望每个工程师和每个软件开发人员都有一个 AI,而且有很多 AI。
并且,你也相信每个人和每个公司都应该能够制作自己的AI。所以当你开源 Llama 时,我觉得很棒。顺便说一下,我认为 Llama 2 的开源可能是去年 AI 领域最大的事件,而原因是。
黄仁勋:是的,谢谢。我说它是去年的最大事件,是因为它的出现激活了每个公司、每个企业和每个行业。突然间,每个医疗保健公司都在构建AI,每个公司都在构建 AI,每个大公司、小公司都在构建 AI。它使每个研究人员能够再次重新参与 AI,因为他们有一个起点可以做一些事情。
现在 Llama 3.1 已经出来了,我们一起合作部署 Llama 3.1,将它推向世界各地的企业,兴奋程度简直是空前的。我认为它将能够实现各种应用。
你的开源哲学从哪里来?过去你们开源了 PyTorch,现在它是被广泛使用的AI框架。现在你开源了 Llama 3.1,并围绕它建立了一个完整的生态系统。我认为这很棒。但这一切的想法是从哪里来的?
扎克伯格:我们一直在做很多开源工作。坦率地说,我们在构建像分布式计算基础设施和数据中心这样的东西时,是在其他一些科技公司之后开始的,而且,因为这个原因,当我们构建这些东西时,已经不是竞争优势了。
我认为最有潜力的可能是 Open Compute,我们把服务器设计和网络设计,最终还有数据中心设计都公开了。通过让它成为某种行业标准,所有的供应链基本上都围绕它组织起来,这带来了为每个人节省资金的好处。所以通过公开和开放,我们基本上已经节省了数十亿美元。
扎克伯格:那是很棒的经历。我们对一些基础设施工具也这样做了,比如从 React 到 PyTorch。所以到了 Llama 出现时,我们对于开源是积极的。
我看待这个问题有几个角度。一方面,Meta 在过去 20 年构建的东西真的很有趣。一直以来必须面对的最困难的事情之一,就是要通过竞争对手(苹果)的移动平台发布我们的应用。
我成长的那个时代,Facebook 的第一个版本是在网络上开放的。当它在手机上运行时,好处是每个人口袋里都可以有一台电脑,但可以实现的功能受到了更多限制。在移动端,苹果靠封闭系统基本上赢了比赛、设定了规则。虽然安卓手机在技术上有很多优势,但苹果拥有几乎整个市场和所有的利润,安卓基本也跟随苹果的策略。
如果回到上一代,苹果做封闭系统,但微软是很开放的公司。与苹果相比,Windows 在所有不同的 OEM 上运行,不同的软件和硬件构成一个更加开放的生态系统。在 PC 这一代中,开放的生态系统 Windows 赢了。
我希望,在下一代的计算机发展中,我们回到一个开放生态系统获胜并领先的局势。封闭的和开放的系统总会共存,我认为两者都有理由存在,都有好处。我不是开放系统的狂热分子,我们也做闭源的东西,并不是发布的所有东西都开放。
但总的来说,对于整个行业正在构建的计算平台,如果软件源码开放,将有很大的价值,这是我在这个问题上的哲学。在 Llama AI 和在 AR/VR 领域,我们都在构建一个开放操作系统,像 Android 或 Windows 一样能够与硬件公司合作,制造各种各样的设备。
我对下一代的开放系统将获胜持乐观态度。对我们来说,未来 10 或 15 年的一件事就是构建基础技术,提升社交体验。过去我试图构建太多事情,但被平台拒绝了,所以我对下一个技术周期的目标是从头构建所有东西。
黄仁勋:你们做的 Llama 3.1 线 B 的 API,可以用于生成合成数据、或者通过蒸馏来教小模型。
你们构建模型的方式是透明的,还有世界级的安全团队、伦理团队,可以用所有人都知道的方式正确构建它,我真的很喜欢。
扎克伯格:我们这样做是因为我们希望这种东西存在,不希望被某个封闭的模型排除在外,而且希望这不仅仅是可以构建的软件,而是一个生态系统。如果我们不开放源代码,它几乎不会运作得很好。
我们这样做不是因为利他主义,而是因为我们认为这会形成一个强大的生态系统使我们构建的东西更好。
黄仁勋:有多少人为 PyTorch 生态系统做出了贡献,数以百计的工程师啊。仅英伟达可能就有几百人专门致力于使 PyTorch 变得更好、更可扩展、性能更好等等。
扎克伯格:而且当某些东西成为行业标准时,其他人会围绕它做工作,这将使每个人受益,同时它也会与我们正在构建的系统很好地协同工作。
扎克伯格:你们真是太棒了。每当我们发布新的东西时,你们总是第一个发布、优化并让它运作起来的。我很感激,你们总是能迅速地投入到这些事情上。
黄仁勋:我是个老年人,但我很敏捷,这是 CEO 必须做的。我认识到一件重要的事情——Llama,围绕它构建了「AI 工厂」的概念,这样我们就可以帮每个人构建 AI。
很多人都有构建 AI 的愿望,对他们来说,拥有 AI 非常重要,因为一旦他们把 AI 放到他们公司的数据飞轮中,他们的业务信息就被嵌入到 AI 里了。他们无法让 AI 飞轮、数据飞轮、经验飞轮在别的地方(闭源模型 API)运行,开源允许他们这样做。但,他们其实不知道怎么实现整个东西。
所以我们创造了叫「AI 工厂」的东西。我们提供工具、专业知识、Llama 技术,帮他们把整个东西转变为 AI 服务。当我们完成之后,由用户/客户接管它。这就是叫 NIM 的东西,英伟达推理微服务,只需下载它,就可以用它,在任何用户喜欢的地方运行它,包括在本地。
我们也有一整个生态系统的合作伙伴,从可以运行 NIM 的 OEM(原始设备制造商) 到 GSI(全球系统集成商)。现在我们正在帮助世界各地的企业做这件事。这是一件令人兴奋的事,它们都是由 Llama 的开源触发的。
扎克伯格:对,特别是这种帮人们从大模型中提炼出自己的模型的能力(蒸馏),会是一个非常有价值的新事物。但就像我们在产品方面聊到的,至少我不觉得会有一个中心化的 AI Agent,我也不认为会有一个人人都在用的模型。
黄仁勋:我们有芯片来设计 AI,有编写代码的 AI 软件,这个软件可以理解 USD,来为 Omniverse 编码。还有一个理解 Verilog 的 AI 软件,一个理解我们的错误数据库的 AI,知道如何帮助我们分类 bug,还会把它们发送给正确的工程师。这些 AI 里的每一个都是基于 Llama 微调的。
我们还给它们装上「护栏」,因为如果有一个用于芯片设计的 AI,那我们对它的政治、宗教之类的观点不感兴趣。因此,我认为每个公司本质上都会为他们的每一个功能专门打造一个 AI,想做到这一点的话,他们就需要帮助。
扎克伯格:是的。我是想说,我认为未来的一个大问题会是,在多大程度上,人们只是用上了更大、更复杂的模型,而不是为了特定的功能训练自己的模型。我打赌,最起码,各种不同模型肯定会大规模增加。
黄仁勋:我们用的是最大的模型,现在我们正在为了更好的性能优化 Llama 3 405B。405B 的模型无法在单个 GPU 运行,英伟达的互联产品 NVLink 就很重要了,GPU 通过 NVLink 连接,形成集群来运行 405B 模型。
这样做是因为工程师的时间对我们来说真的非常宝贵,我们想用最好的模型,其实它在成本效益上可能只差几分钱。
扎克伯格:我认为 405B 的模型大约是 GPT-4 模型推理成本的一半。在这个水平上,它已经相当不错了。人们在端侧设备上做事,或者想用更小的模型的时候,他们会做减法。像是完全不一样的两套服务。
黄仁勋:我们来假设一下,假设我们雇 AI 设计芯片,时薪大概是 10 美元。如果你一直在用它,而且在一大群工程师之间共享那个 AI,每个工程师可能都有一个跟他们一起工作的 AI,成本其实并不高。但我们付给工程师很多钱。所以对我们来说,每小时几美元就能放大某个人的能力,这真的很有价值。
黄仁勋:我还很喜欢你们团队做的计算机视觉相关的事。我们内部有一个大规模使用的模型,是 Meta 的 Segment Anything。现在我们现在正在训练能处理视频的 AI 模型,这样我们就可以更好地理解世界,为机器人和工业数字化建模我们的用例,把这些 AI 模型连接到 Omniverse,更好地模拟和表现物理世界,让机器人在这些 Omniverse 世界中运行得更好。
扎克伯格:你提到的 Segment Anything Model(SAM)模型,我们其实正在今天的 SIGGRAPH 大会上展示它的下一个版本,名叫 Segment Anything 2。它现在运行得更快了,而且现在也能处理视频了,能用来制作很多有意思的视觉效果。
而且因为它是开放的,在整个行业中也会有更多严肃的应用。比如说,科学家们可以用它来研究珊瑚礁和自然栖息地、景观的演变等等。他们在视频中就能做到这一点,能够零样本学习,能跟它交互,告诉它想跟踪什么。这是相当酷的研究。
黄仁勋:举个例子,比如说你有一个仓库,里面有很多摄像头,仓库的 AI 正在观察发生的一切。假设一堆箱子倒下了,或者有人在地上洒了水,或者任何即将发生的事故,AI 识别出来,生成文本,发送给某人,这对我们会很有帮助,这是使用它的一种方式。
而不是在发生事故时记录所有内容,记录每一秒的视频,然后再回去检索。AI 只记录重要的东西,因为它知道它在看什么。所以拥有一个视频理解模型和视频语言模型对所有这些应用来说真的很有帮助。
扎克伯格:还有所有的智能眼镜。当我们考虑下一个计算平台时,我们把它拆解为 MR 头戴设备和智能眼镜。我认为现在几乎每个戴眼镜的人最终都会升级到智能眼镜。全世界有超过十亿人,这将是一个相当大的市场。
我的观点是,这两种设备都会存在于世界上,智能眼镜将成为下一个计算平台的移动电话,并且始终在线。而 MR 头戴设备将更像是你的工作站或游戏机,当你坐下来进行更沉浸式的会话,并想要使用更多计算能力时使用。眼镜因为形状的问题,它们会有很多性能的限制,就像你不能在手机上进行同样级别的计算一样。
一方面,我们一直在构建理想的全息 AR 眼镜所需的技术,准备所有需要的定制硅片、定制显示配件等。眼镜毕竟不像其他头戴设备,看起来看起来和用起来像眼镜,现在仍然距离大众日常佩戴的眼镜还有些距离,主要是厚度方面。即使是我们现在制造的 Ray-Ban 眼镜,暂时也没办法将全息 AR 需要的技术都塞进去网页版本的whatsapp为什么不能发动态了。但接下来的几年里,我认为我们会越来越接近目标,可能仍然会昂贵一颗,但我认为它已经开始成为流行品了。
我们解决这个问题的另一个思路是,通过与世界上最好的眼镜制造商 Essilor Luxottica 合作,从好看的眼镜开始。他们基本上拥有你使用的所有大品牌。Ray-Ban 或 Oakley 或 Oliver Peoples 或只是少数其他品牌,基本上都是 Essilor Luxottica 的。我们一直在与他们合作开发 Ray-Ban。现在已经是第二代。我们的目标是,在外形受限的基础上,尽可能多地放入技术,我们可能不会达到我们想要在技术上达到的理想状态,但最终它会是很棒的眼镜。
现在,我们有摄像头传感器,可以拍照和录像。可以在 Instagram 上拍照和录像。你可以在 WhatsApp 上进行视频通话,并向其他人直播你正在看到的。我的意思是,它有麦克风和扬声器。扬声器实际上非常好。它是开放式的,很多人觉得它比耳塞更舒适。可以听音乐,可以用它接电话。
但后来发现,这个传感器恰好是用户与 AI 交谈所需要的。这有点意外,如果你五年前问我,我们是否会在 AI 之前实现全息 AR,我可能会说,是的,可能吧。我的意思是,这似乎就是显示技术的进展,对吧?在所有虚拟和混合现实的东西上,我们正在不断地朝着那个方向取得进展。
然后大语言模型的突破发生了。结果发现,我们现在有了相当高质量的 AI,而且在快速提高,这发生在我们拥有全息 AR 之前。这是一个我没有预料到的逆转。我们幸运地处于有利位置,因为我们一直在研究所有这些不同的产品。但我认为我们最终会得到一系列不同价位、不同技术水平的眼镜产品。
基于我们现在看到的 Ray-Ban 眼镜,我猜测在 300 美元价位的无显示屏 AI 眼镜将成为一个真正畅销的产品,最终会有数千万或数亿人拥有。而且。
黄仁勋:所以你将拥有可以互动的 AI,还有刚刚展示的视觉语言理解。还有实时翻译。你可以用一种语言和我说话,我用另一种语言听。
扎克伯格:显示屏显然也会很棒,但它会给眼镜增加一些重量,而且会使它们更贵。所以我认为会有很多人想要那种全息显示头显。但也会有很多人,他们想要最终会像真正薄的眼镜一样的东西。
扎克伯格:是的,我在 Covid 期间经常想这个问题,当每个人都远程工作一段时间,感觉所有时间都花在 Zoom 上。很高兴我们有这个设备,感觉我们离能够进行虚拟会议不远了,我不是真的在这里,只是我的全息影像。但就像我们真的在那里一样,大家可以一起工作,一起合作。但我认为这对于人工智能来说很重要。
扎克伯格:但我认为我们会达到实际上的那个理想目标。在眼镜中,有更薄的框架和更厚的框架,还有所有这些风格。我认为我们还需要一段时间才能在眼镜的外形尺寸中拥有全息眼镜,但我认为把它放在一副时尚的、更厚实的框架眼镜里并不遥远。
扎克伯格:这是一个非常有帮助的风格趋势。就像我在尝试成为一个时尚达人一样,这样我就能在眼镜进入市场之前,引领市场的潮流。
我觉得如果未来业务的一大部分是建造人们愿意佩戴的时尚眼镜,我可能应该开始多关注时尚。没错,我们将不得不退休那个每天穿同样衣服的我的版本。
但我的意思是,这就是眼镜的特点,它不像手表或手机,人们真的不想都看起来一样,而且,而且就像是一个平台,成为一个开放的生态系统,我认为人们喜欢的形式和风格将是巨大的,不是每个人都想要像别人设计的那一种眼镜。
Mark,我们正在经历的这个时代真是不可思议,整个计算堆栈正在被重新发明。我们如何思考软件?Andrej Karpathy之前说过 software 1.0 和 2.0,感觉我们现在正处于 3.0 阶段。
现在我们计算的方式,从通用计算到神经网络处理的计算方式,我们现在可以开发的能力和应用在过去是不可想象的。对于生成式 AI,我不记得有其他技术能以如此快的速度影响消费者、企业、行业和科学,能够跨越所有这些不同的科学领域,从气候技术到生物技术再到物理科学。在我们遇到的每一个领域,生成式 AI 都处于这个基础范式转变的中心。
有人早些时候问我,是否会有一个 Jensen AI?那正是你所说的 Creator AI,我们构建了我们自己的 AI,把我写过的所有东西都加载进去,并用我回答问题的方式对它进行微调。希望随着时间的推移,使用的累积,它会成为一个真正伟大的助手和伙伴,对于很多只想问问题或交流想法的人来说。它将是 Jensen 的一个版本,所以你可以一直来和它互动。
我认为这些都是非常不可思议的事情。你知道,我们一直需要写很多东西。现在只需给它三四个主题,就可以从我的角度出发来创作,这听起来太不可思议了。
我知道建立一家公司并不容易,你把你的公司从桌面转向移动,再到 VR,再到 AI,所有这些设备。真是非常了不起,NVIDIA 自己也多次转型,我完全知道这有多难。而且,你知道,我们两个人多年来都被狠狠地打击过很多次,但这就是想要成为先驱和创新所需要的。
扎克伯格:如果你继续做之前在做的事情,这不算是转型。但你增加了更多新的支线,我认为同样的事情适用于你们。看着你们的旅程真的很有趣。你们经历了一个时期,每个人都在说,一切都将转移到这些设备上——超级便宜的计算设备。而你们只是继续坚持下去,开发这些可以并行计算的大系统。
我们开始制造图形芯片——GPU。现在当你部署 GPU 时,你仍然称它为 Hopper H100。Mark 的数据中心里有数百个 H100,我想你们快到 60 万个了。你们构建的这些系统,非常难以协调,非常难以运行。而且,你说你比大多数人晚进入 GPU 领域,但你的运营规模比几乎任何人都大,这真是令人难以置信。