手机代理ip翻墙
7月初,在约翰霍普金斯大学,资深科技记者、播客Pivot的联合主持人Kara Swisher与OpenAI CTO Mira Murati展开了一场火药味十足的对话,计算机科学家、斯坦福大学教授李飞飞也加入了提问阵营,他的另一个身份是Google云人工智能和机器学习首席科学家
Mira Murati因去年的OpenAI“宫斗”事件被推上风口浪尖,她曾在Sam Altman被解雇时担任临时CEO。事实上,这位OpenAI的CTO是GPT-3模型开发团队的核心人物,并推动了ChatGPT 向公众开放。
这场对话中,Kara Swisher尖锐发问,将“OpenAI训练数据来源于哪”、“Sora是否比对话机器人风险更大”、“OpenAI被质疑用保密协议阻止员工公开发言”、“斯嘉丽·约翰逊指控OpenAI抄袭声音”等敏感问题,一个接一个地抛向了Mira Murati,还直白询问了她对Sam Altman的评价以及二人现在的关系。
对所有尖锐提问,Mira Murati“机智地”选择不直面回应,哪怕记者不断变化方式追问,她也尽量保持着自己的节奏,更多时候,她自说自话、带点官方地表达着OpenAI的理念。
数据隐私、虚假信息、价值观影响,这些人们至今都在担忧的AI风险问题是这场对话反复提及的内容。
在Mira Murati看来,这是人类对AI技术的误解,消除误解的方式除了AI公司要做更多的安全部署工作取得信任外,还需要人们深度参与与AI大模型及应用的交互,从而了解技术的潜能和限制,承担起与开发团队形成共同责任,来确保AI技术朝着有利于人类安全的方向发展。
Kara Swisher还多次追问了OpenAI对于AGI的实现进度,Mira Murati则严防死守,不肯透露具体的时间表。不过,她表示,“在接下来的十年内,我们将拥有极其先进的智能系统”,而且不是“我们已经有的传统意义上的智能系统”。
Swisher:苹果的电脑、手机和平板将在今年开始内置 ChatGPT,这是一个重大事件。苹果首次这样做,未来他们可能也会与其他公司合作。我曾和 Tim Cook(苹果公司CEO)有过简短交流,了解了他的观点。这次,我想从你(Mira Murati)的角度谈谈,这个合作关系是怎样的?
Murati:这次合作对我们来说是一个重要的里程碑。苹果是一家标志性的消费产品公司,而我们的目标是尽可能地将人工智能及优秀的AI应用推向大众,双方合作是将ChatGPT 带给所有苹果设备用户的一个绝佳机会,用户无需再在设备间切换。接下来的几个月里,我们将与苹果紧密合作,确定在产品层面的具体情况,很快就会有更多细节分享给大家。
Swisher:如果你不介意的话,我想了解更多具体细节。你们具体在做什么?我跟Tim Cook讨论过这个问题,他告诉我的是,用户可以去 ChatGPT 获取答案 以此改进 Siri,因为 Siri 现在真的很糟糕。
但你们目前的情况让我想到了网景公司(Netscape),而你显然不希望 OpenAI 成为 AI 领域的网景。(编者注:Netscape是 1990 年代互联网浏览器最早也是最重要的初创企业之一。然而,微软靠着在Windows 操作系统中捆绑 Internet Explorer 浏览器,对Netscape的主导地位构成挑战,Netscape逐渐失去了市场份额,最终被收购。)所以,为什么你们比其他人更早和苹果达成合作?
Murati:我可以讨论产品集成方面的问题。我们希望带来实际上是我们正在开发的模型功能、多模态和交互性,将这些成熟地运用到苹果设备中。
最近你可能注意到了 GPT-4o 的发布。这是我们第一次看到这些模型在交互维度上的飞跃。这很有意义,因为到目前为止,我们与设备的互动受限于文本输入,所以这是一个拥有更丰富手机代理ip翻墙、更自然的信息交互方式的绝佳机会,这将大大减少交互的局限性。它开启了很多可能性,而这就是我们所追求的。
此外,用户的请求在发送给OpenAI后不会被我们存储,用户IP地址也将被隐藏,这对苹果来说也很重要。
Murati:不会,现在我们也不会用用户和客户的数据来训练我们的模型,除非他们明确允许我们这么做。
Swisher:苹果十分注重声誉,特别是在隐私与虚假信息方面,他们会关心这些信息的去向和用途。
Murati:我们的看法非常一致,这会引领我们朝着我们希望的方向前进。隐私和信任对OpenAI 的使命也至关重要,因为我们要以一种让人们感到信任的方式构建和部署技术,让他们觉得自己对我们的构建有代理权和发言权。
具体到你提及的虚假信息,这非常复杂,因为虚假信息已经存在了数十年。当我们有了互联网,有了社交媒体,这些都在某种程度上加剧了问题。随着AI的发展,虚假信息的情况变得越来越严峻,AI反而将这些问题推向了高潮。这是一件好事,因为问题引起了关注,似乎有一种集体努力和责任感推动我们去做一些有意义的事情来应对这个问题。
我认为,这是一个迭代的过程,必须边走边试。如果你回顾过去100年新闻和媒体的治理就会发现,每当有新技术出现,事物其实会适应变化,也许这不是一个好例子,但技术创新会帮助我们处理虚假信息,然后才会涉及到更复杂的其他问题,比如社会对此的准备。
Swisher:说到苹果,你得小心翼翼,不能出错,否则他们就会找你麻烦。我很好奇,这场合作是怎么开始的?Tim Cook 和 Sam Altman之间的讨论从哪里开始?或者你是如何参与进来的?
Swisher:你们是否在与其他公司探讨类似的合作。显然,你们与微软有合作关系。最近,OpenAI 已经与新闻集团、《大西洋》和 Vox Media 签署了协议,授权使用这些媒体的内容,至少有三个潜在的法律纠纷可以避免了。
我确实拥有自己的播客,但它并未包含在你们与 Vox Media 的交易中,我可能会考虑授权,但可能性不大,因为我不愿意让任何人包括你们,拥有我的信息。所以,你们会如何说服我授权信息呢?
Murati:当我们使用数据来训练模型时,我们会考虑三类不同的数据源:公开可访问的数据、与我们建立合作关系的出版商以及我们付费请标注员标注的特定数据,还包括那些选择同意我们使用其数据的用户。这些是我们数据的主要来源。
至于与出版社的合作,我们非常重视信息的准确性和新闻价值,因为我们的用户也关心这些。他们希望获得准确的信息,并能在ChatGPT上看到新闻。因此,这种合作关系是基于产品的,通过产品向用户提供价值。
我们正在探索不同的商业模式,给予内容创作者一定的补偿,因为他们的数据被用于产品展示或模型训练,但这都是与特定的出版社建立的一对一合作。
Swisher:你们的确与一些媒体达成了协议,但还有些公司选择起诉你们,比如《纽约时报》。为什么会走到那一步?我认为诉讼在某种程度上也是一种谈判手段。
Murati:这的确令人遗憾,因为我们确信在产品中融入新闻数据和相关信息是有价值的。我们原本试图就此达成合作,但事与愿违。
Swisher:是啊,或许有一天情况会好转的。不过,我认为这是因为媒体多年来一直与互联网公司打交道,结果往往是他们吃亏。接下来,按照节目的传统,请另一位嘉宾提出问题。
李飞飞:数据尤其是大数据,被认为是现代人更智能的三个要素之一,我想就数据方面提问一个问题。OpenAI的成功很大程度上与数据有关,我们了解到OpenAI从互联网和其他来源获取了大量的数据。那么,你认为数据与模型之间的关系是怎样的?是否像人们通常认为的那样,数据量越多、喂给模型的越多,模型就越强大?还是说,我们需要投入大量精力来筛选不同类型的大量数据,以确保模型的高效运行?最后,你们如何平衡对大量人类生成数据的需求与这些数据的所有权和权利问题之间的矛盾?
模型的开发者并非预先编程让模型执行特定任务。实际上,他们是在输入大量数据。这些模型摄入了巨大的数据量,它们是卓越的模式匹配系统,通过这个过程,智能涌现了出来。模型因此学会写作、编码,学会做基本数学运算,学会总结信息,以及各种各样的事情。
我们不知道它到底是如何工作的,但我们知道它非常有效,深度学习真的很强大。然而这一点很重要,因为人们经常询问它是如何运作的,这就引出了透明度的问题。
大语言模型的工作原理是将神经网络架构、大量数据和大量计算相结合,从而产生了这种惊人的智能。这种能力随着你投入更多数据和更多计算而持续提升。
当然,为了让这些数据变得可消化,我们需要做大量工作。当我们思考如何提供模型行为以及事物如何运作地透明时,我们有一些工具可以利用,因为我们希望人们在使用这些模型时感到自信,同时也能有一种代理感和参与感。
因此,我们所做的一件事实际上是与公众分享一份文档,我们称之为模型规范,它展示了模型行为的工作原理,还有我们在OpenAI内部做出的决策类型,以及我们与人工标注员一起做出的决策。规范决定了模型当前的行为方式,以及未来所需的模型行为,这是跨平台的。
查看规范你会发现事情的复杂性,有时在方向上是冲突的,比如我们希望模型对我们非常有帮助,同时不能违反法律。
假设有人输入提示要求提供“从超市偷东西的技巧”,那么本应提供回答的模型是不应该处理非法事务的,但有时模型可能将提问解释为如何避免被入室行窃,然后在举反例时反倒给出了一些“有用”提示。这恰恰表明模型行为实际上非常复杂,它无法简单地选择自由价值观或其他价值观。这种情况下就更多地取决于人们如何用它。
Swisher:但我认为让人们困惑的一点是,哪些数据在模型中而哪些数据不在,数据来源是一个重要的环节。3月份,你接受《华尔街日报》采访时被问到OpenAI是否使用了来自YouTube、Instagram 和 Facebook 的视频数据,来训练你们的文本生成视频模型Sora。当时,你说不确定。但你作为CTO不应该了解用了什么数据吗?
Murati:我不能具体告诉你数据来自哪里,它是保持我们竞争力的商业机密,但我可以告诉你数据类别:1、公开可用的数据;2、我们通过许可和与内容提供商签订的交易支付的数据;3、用户授权的数据。
Swisher:Perplexity 最近就遇到了麻烦,因为他们快速抓取了网上的报道却没有明确引用源,任何一家媒体公司都会对此感到担忧。
Murati:确实如此,我们希望确保对内容创作者的尊重,正在尝试一些方法来补偿数据创作者。因此,我们正在开发一个叫做「内容媒体管理器」(content media manager)的工具,这将帮助我们更具体地识别数据类型。
Murati:我们还没有Sora公开发布的时间表,目前,我们已经让一些早期用户和内容创作者使用Sora,以帮助我们找出增强功能的方法。
我们在安全方面做了很多工作,也在研究如何以适合公众使用的方式推出它。这并不简单,这也是我们开发每项新技术时的一贯流程。发布DALL-E时,我们也是先与创作者合作,他们帮助我们创建了一个更易用的界面。所以基本上,我们希望扩展人们的创造力。
Swisher:所以Sora可能比聊天机器人更危险?这项技术令人担忧吗?比如人们(借助AI)能很容易地看到换头为斯嘉丽·约翰逊的色情电影。你是否更担心视频问题?
Murati:确实,视频还存在很多问题,特别是当它做的很好时。我认为 Sora 做的非常出色,它生成视频非常直观,且可表达出情感。因此,我们必须解决所有安全问题,并制定保护措施,以确保我们推出的产品既有用还安全。从商业角度看,没有人希望产品引发安全或声誉危机。
Murati:这项神奇的技术确实令人难以置信,但它的影响力和后果也是巨大的。因此,确保我们做好这件事非常重要。
我们采用迭代部署策略,通常先向一小部分人发布,以试图识别极限情况。一旦我们能很好地处理这些情况,才会扩大访问权限。但你需要弄清楚产品的核心是什么,以及围绕它的商业模式是什么,进而去改进。
Swisher:我曾做过一个“早期科技公司对后果缺乏关注”的选题,他们让我们成为了那些互联网早期产品的测试者。如果他们按这种态度发布一辆车是绝对不会被公众容许的,他们会被告到破产。
但很多技术以测试版本形式发布,然后被公众所接受。对于后果这个概念,作为CTO,即使你无法弄清楚所有后果,你是否觉得对每一项发明都要有足够的人本尊重并意识到它们会产生的后果?
Murati:我们会从自身和社会层面评估后果,而且并不一定指的是监管或法律后果,而是在道德层面要正确对待事情。
我很乐观,我认为 AI 技术非常不可思议,它将让我们产出惊人的成果,我对它在科学、发现、教育特别是医疗方面的潜力感到兴奋。但你也知道,每当你拥有如此强大的东西时,就存在一些灾难性风险的可能,而人类一直在尝试放大它的后果。
Swisher:确实,我曾在书中引用过Paul Verily的话,“当你发明船只时,你也发明了船难”,但你纠正了我过度担忧的想法。
Murati:我不同意这类过度担忧的观点,因为我的背景是工程学,工程是有风险的。我们整个人类文明建立在工程实践之上。就像我们的城市,桥梁架起了一切,但总是伴随着风险。所以需要我们通过负责任的方式来管理这些风险。
这不仅仅是开发者的责任,而是一种共同责任。为了使责任共担成为现实,我们实际上需要给人们提供访问权限和工具,引导他们参与进来,而不是在真空中构建技术,创建那些人们无法触及的技术。
Swisher:你们先前宣布了 ChatGPT-4 的迭代——GPT-4o,我很喜欢这个名字。你们还宣布了正在训练新的模型——GPT-5。它是否会呈指数级提升?预计何时发布?
Murati:O代表Omni,即“全模态模型”,意味着它将所有模态——视觉、文本、音频都整合在一起。这个模型的特别之处在于首次实现了与模型的无缝且自然交互。此外,它的延迟几乎与面对面交流无异,几乎察觉不到。这是与AI互动的巨大飞跃,与我们之前发布的版本有很大不同。
我们想让所有用户都能免费体验最新功能,希望每个人都能了解这项技术能做什么,这些新模态看起来怎么样,同时也能理解它的局限性。正如我之前所说,你给人们提供访问权限,引导他们参与进来,只有体验它才能有一种直观的感觉,那么理解技术的潜力和限制就容易得多。
Swisher:GPT-4o像个小开胃菜,第五代会有什么不同?它是渐进式的改进还是巨大的飞跃?
Murati:我们还不知道,但会一点点地放出……我实际上也不知道我们会怎么称呼它,但下一代大模型将非常强大,值得期待,就像我们从GPT-3到GPT-4看到的那种巨大飞跃。具体会怎样我们还不确定。
Swisher:真的吗?好吧。你曾和我谈论过OpenAI内部的路线年实现AGI,即通用人工智能,这将是一件大事。请为我们解释一下AGI重要性,你估计何时能实现AGI?
Murati:人们以不同的方式定义AGI,我们对AGI的定义有章程依据,它是能够跨不同领域完成经济上有价值的工作系统。
从我们现有情况看,智能的定义一直在变化。以前,我们会通过学术基准测试来检验系统的智能程度;一旦达到这些基准测试,我们转向考试,比如学校考试;最终,当我们饱和了考试基准后,我们不得不想出新的测试。这会让你思考,在工作环境中我们如何评估适应性和智能,比如面试、实习等等各种方法。
所以我预计这个(智能和AIG)的定义将持续演变。我认为,或许更重要的是评估、评价和预测它在现实世界中的影响,无论是社会影响还是经济影响。我认为重要的是它如何影响社会,以及它实际渗透的速度如何。
Swisher:OpenAI内部既有为了造福人类的人,也有追求万亿美元的人,或者介于两者之间,我认为你就属于这类人。
去年6月份时,13位现任和前任OpenAI及Google DeepMind员工发表公开信呼吁公司赋予他们警告先进人工智能的权利。然后Meta、Google和Microsoft的员工都曾经签署过这封公开信。
这种情况下,有OpenAI员工表示,“广泛的保密协议阻止我们表达担忧,除非公司解决这些问题”,在我看来,这根本上在说“我们不能告诉你们真相,不然就会死”。既然有OpenAI员工们担心遭到报复,你对此如何回应?
我不会深入探讨股权问题,因为你们已经为此道歉并修正,但你们的员工不应该表达他们的担忧吗?不能表达不同意见吗?
Murati:我们认为辩论非常重要,可以公开表达这些担忧并讨有关安全的问题,我们自己也这样做,自OpenAI成立之初,我们就非常公开地表达了对虚假信息的担忧,甚至在 GPT-2时代就早早开始研究这些问题。
我认为在过去几年,科技取得了令人难以置信的进步,这是无法预测的,也加剧了人们对社会应对的普遍焦虑。随着我们持续取得进展,也看到了科学引导我们走向何方。
人们对未来感到恐惧和焦虑是可以理解的,我要特别指出的是,我们在OpenAI所做的工作以及我们部署这些模型的方式,是来自一个不可思议的团队、以非常安全地的方式、部署的最强大的模型。对此,我感到非常自豪。
我也认为,鉴于技术进步的速度和我们自身进步的速度,加倍努力关注所有这些事情、讨论我们如何思考训练和部署前沿模型的风险,是至关重要的。
Swisher:我再明确下我的意思。一是,你们为什么需要比其他公司更严格的保密制度?二是,这封公开信是在你们一系列高调离职新闻之后发出的,比如Jan Leike和Ilya Sutskever,他们曾领导负责安全的超级对齐团队。
我认为Ilya离开并不令人惊讶,但Leike曾在X发帖称,过去OpenAI一年的安全文化和流程已经被光鲜的产品所取代。这可能是对你们最为有力的批评,也可能是公司分裂的原因之一。
Murati:首先,对齐团队并不是OpenAI负责安全的唯一团队,它是一个非常重要的安全团队,但也只是其中之一。在OpenAI,有很多人从事安全工作。我一会儿会继续解释这一点。
Jan Leike是一位了不起的研究同事,我和他共事三年,对他非常尊敬,他离开OpenAI后加入了Anthropic。
考虑到我们在领域内预期的进步,我认为行业内的每个人,包括我们在内,都需要在安全、安保、准备和监管参与等任务上加倍努力。但我不同意“我们把产品放在安全之前”,或者“优先于安全”的说法。
许多人将安全视为与能力分离的事物,认为它们是二选一的。我很熟悉航空航天和汽车工业,这些行业有着非常成熟的安全思维和系统。这些行业里的人们不一定总是在会议桌上争论什么是安全,因为这是理所当然且相当成熟的事情。因此,我认为整个行业需要越来越多地转向一个非常有经验的安全学科。
我们有安全系统,在运营安全方面有严格纪律,不仅仅是操作纪律,还包括今天我们的产品和部署的安全,其中涵盖了有害偏见之类的事情,比如虚假信息、错误信息、分类器等工作。
我们也在考虑长期的模型对齐问题,计划通过RLHF(人类反馈的强化学习)来做这件事,而且还同时解决因模型越来越强大而产生的对齐问题。
Swisher:但OpenAI经常遭受这种指控(产品安全)。我认为,这是因为你们是当前的领军公司。但当有人从OpenAI离职并提出这种指控的时,就不太一样了。
甚至Sam Altman自己也曾在国会说过,“AI会对世界造成重大伤害”,他还签署了一封关于AGI带来的灭绝风险的警告信。这很糟糕,我认为他说的话和“AI悲观主义者”、“AI末日论者”所说的有重叠,但你们依旧还在推出AI产品。所以很多人会说,OpenAI 只想要钱,他们并不担心危害。
Murati:在我看来这是过于愤世嫉俗的说法。我的意思是,OpenAI有一个不可思议的团队,他们都是为了公司的使命,所有人都在非常努力地以安全的方式开发和部署系统,且我们是世界上第一个部署AI系统的人,我们还以API形式跨平台部署了GPT-3、GPT-3.5,DALL-E3和GPT-4。我们非常小心,以免发生极端情况。
Swisher:所以我们在安全标准上还没达到汽车安全带的水平,我的意思是,汽车制造商过去对在汽车中安装安全带或其他提高汽车安全性的措施持有抵制态度。我们是否已经到了这个阶段,或者监管机构会迫使你们采取行动吗?
联邦贸易委员会7月份对OpenAI展开了一项调查,了解你们对消费者可能造成的未指明伤害。上周,他们宣布对微软与OpenAI之间的交易进行反垄断调查。当时我认为,微软实际上收购了OpenAI但却装作没有。从技术上讲,他们拥有49%的股份。如果被迫与微软切断联系,这将如何影响你们的竞争力?无论是关于安全性还是其他,如果政府开始介入,你们能做些什么?
我们正在构建一个极其强大的工具并全力以赴让它变得卓越,但它的确存在风险。所以,人们应该深入参与,了解这项技术的本质,同时也需要弄清楚它对不同领域的影响。
因此,我认为受到审视是好事,它促使人们参与进来,有独立的验证者等等。我们比任何人都早地讨论过这些问题。
关于与微软的具体合作,他们是一个很好的合作伙伴,我们在紧密合作、共同建造最先进的超级计算机。众所周知,超级计算机是构建AI模型的核心。所以,对我们而言,这是一个极其重要的伙伴关系。
Swisher:我还想谈谈你和你在公司的角色、和Sam Altman的关系。我很喜欢 Sam,我认为他像大多数技术人员一样具有野性和侵略性。他去年被解雇然后又复职,当时发生了什么?你当时暂时成为公司的CEO,那感觉如何?
Swisher:董事会的一些成员说你对他的行为有意见,你的律师回应说,你只是对他有所反馈。所以,你能告诉我们你对他的评价吗?
Murati:我们只是在运营公司的人,我们会有分歧,需要解决分歧。归根结底,我们都深深关心着我们的使命,这就是我们在这里的原因,我们将使命和团队放在第一位。
Sam Altman是个有远见的人,他有着宏伟的抱负,建立了一个了不起的公司。我们有牢固的合作关系。我已经向询问我的董事会分享了我所有的想法,所以没有什么秘密可言。
Swisher:那么你怎么看待你们之间的关系?因为你现在是公司里的重要员工之一,而他们刚刚聘请了其他人来加强管理层的经验。
Murati:我们是一个非常坚固的伙伴关系,可以直接谈论遇到的任何问题。过去几年确实很艰难,我们经历了成长的痛苦,需要把使命放在第一位,不断改进,还要有谦逊的态度去进步。
Swisher:随着公司的成长,伙伴关系也会发生变化。我很了解这种情况,在Google、Microsoft 的早期阶段以及亚马逊都曾发生过。Google的早期很混乱;Facebook 经历了很多COO,扎克伯格不喜欢的高管被换了很多批。
所以,你怎么看待你俩的伙伴关系?你每天如何与 Sam Altman相处?会在什么事情上反驳他?他已经投资了400家公司,有些公司为了与OpenAI 合作而投资。他还投资了3.75亿美元给一家叫Helion的能源公司,目前它为OpenAI提供大量电力。众所周知,计算需要大量电力。
Murati:哪些时候反驳?我一直在反驳他,我认为这在我们做事过程中很正常。Sam会非常努力地Push团队,我认为这很好。拥有宏大的愿景并测试我们的极限是非常棒的。当我觉得超出了限度,我就会反驳他。这是我们六年来一直保持的关系。我认为这很有成效,我可以反驳他。
Swisher:你能举个例子吗?比如在斯嘉丽·约翰逊事件中,你参与了那个声音项目,对吗?(编者注:斯嘉丽·约翰逊控诉OpenAI在ChatGPT-4o的语音系统Sky中未经授权使用了她的声音)
Murati:我们有很好的合作关系,但选择声音并不是我们的优先事项,也不是我们共同决定的。事实上,我做参与了决策,我选定了Sky的声音后,他联系了斯嘉丽·约翰逊,Sam有他自己的人脉,在这个决定上没有沟通,这是不幸的。他有自己的关系网络,所以这次我们没有完全协调。
Swisher:你认为这是 OpenAI 的一次重大失误吗?因为大家都在说你们看起来就是“偷”了斯嘉丽的声音。虽然事实不是这样,实际上你们用了另一个相似的声音。但这也反映了人们对科技公司夺取资源的恐惧。
Murati:我确实担心这种看法。但我们能做的就是做好工作,做好每一个项目,这样人们就会看到我们的努力,从而建立信任。我认为除了真正做好工作外,没有什么神奇的方法可以建立信任。
Murati:没有。当时事发非常紧急,我专注在工作上,同时我是在阿尔巴尼亚和巴尔干国家长大,没有接触到太多美国的流行文化。
新的研究表明,在线虚假信息的问题比我们想象的小,虚假信息本身的效果不大。一项研究发现,OpenAI处理的是需求方面的问题,如果人们如果想听到阴谋论,它们会在广播、社交媒体等渠道寻找答案;而其他人则认为虚假信息是一个非常大的问题。
你听到了之前的讨论,很多人有很多阴谋论,这在很大程度上是由社交媒体推动的。那么,当你思考AI对虚假信息的力量以及这对即将到来的总统选举的影响,你担忧的问题是什么?从你的角度看,最糟糕的情况和最可能的负面结果是什么?
Murati:现有系统非常具有说服力,可以影响你的思维方式和信念。这是我们研究了一段时间后发现的问题,我确实认为,这是一个真实的问题。特别是在过去一年里,我们非常关注AI如何影响选举。我们正在做几件事情。
首先,我们尽可能防止信息滥用,其中包括提检测政治信息的准确性,了解平台上的情况并迅速采取行动。第二是减少政治偏见,你可能看到 ChatGPT 被批评为过于自由,这并非故意,我们非常努力地减少模型行为中的政治偏见,会将继续这样做。第三是我们希望在选民寻找投票信息时能指向正确的信息。
关于虚假信息,深度伪造是不可接受的。我们需要有非常可靠的方法让人们知道他们所看的是深度伪造。我们已经做了一些事情,比如为图像实施C2PA,它类似于护照,随着内容在不同平台上传播;我们还开放了DALL·E的分类器,可以检测图像是否由 DALL·E 生成。
所以,元数据和分类器是处理这个问题的两种技术方法,这是信息来源的证明,专门针对图像。我们还在研究如何在文本中实现水印技术。但重点是,人们应该知道哪些是深度伪造,我们希望人们能放心地看到的信息。
Swisher:联邦通信委员会(FCC)刚刚对一家创建深度伪造音频的公司罚款 600万美元,该音频听起来像拜登在新罕布什尔初选中的录音。可能会有更复杂的版本。
OpenAI正在研发一个名为Voice Enunciation的工具,可以用15秒的录音重现某人的声音,它能够创建一个人用另一种语言说话的录音。因为产品经理告诉《纽约时报》,这是一个敏感的问题。你们为什么要开发这个?我经常对科技人员说,如果你们开发的东西像黑镜里的情节,或许就不该开发。
Murati:我认为这是种无望的态度。这项技术是令人惊叹的,有着巨大的潜力,我们可以做好它,我们还是要充满希望。
我们在2022年开发了Voice Enunciation(语音引擎),但没有发布。即使现在也是以非常有限的方式(访问),因为我们还在努力解决这些(安全)问题。但你不能单独解决这些问题,你实际上需要与各个领域的专家、民间社会、政府和创作者合作。这不是一个一站式的安全问题,它非常复杂,因此我们需要做大量的工作。
Swisher:你这么回答是因为你对这项技术非常乐观。我接下来的比喻可能有点夸张:如果你是个悲观主义者,甚至有公司说如果我不阻止 Sam Altman,他会毁灭人类;而其他人则认为,无论如何,这是件最好的事情,我们都会在火星上享受美味的士力架。
这感觉就像共和党和民主党现在的局面,会有非常不同的版本。所以你能告诉我,你最担心的事情和最希望发声的事情是什么?
Murati:我不认为这是一个可以预定的结果。我觉得我们有很多机构可以决定如何构建这项技术以及如何部署它,为了做好这件事,我们需要找到一种创造共同责任的方法。
这很大程度上取决于对技术的理解,问题出在误解技术上,很多人不了解它的能力和风险,我觉得这才是最大的风险。就具体情境而言,我认为,我们的民主如何与这些技术互动非常重要。
今天谈论了很多次这个问题,我认为“说服”本身的风险很大,特别是强烈说服人们做特定的事情或者控制人们做特定的事情,控制社会朝特定方向发展,这非常可怕,
对于希望,我非常兴奋的一件事是能够在任何地方提供高质量和免费的教育,特别是在一些偏远村庄、在没有任何资源的地方。
教育切实改变了我的生活。今天我们有这么多工具可用,在有电和互联网的地方,这些都可用。可惜,现在大多数人还是在一个教室里学习,一个老师,50 个学生,每个人都在学同样的东西。想象一下,如果教育能够根据你的思维方式、文化和具体兴趣进行定制,这将极大地扩展知识和创造力的水平。
我们开始考虑如何学习这件事,通常发生在人生较晚的时候,也许得到大学甚至更晚。但如果我们能够真正掌握人工智能,在很年轻的时候就学会如何学习,我认为这会这非常强大,能推动人类知识的进步,进而推动整个文明进步。
我们对于技术的构建和全球部署有着极大的主动权,但为了确保技术的正确发展,我们需要建立一种共同的责任感。关键在于,我们要全面理解技术,确保其易获取性。技术的偏差往往源自对其本质的误解,这会导致既忽视潜能也忽视潜在风险。在我看来,这正是最大的隐患。