在对话中,Mira与主持人Jeff Blackburn探讨了她的职业生涯、人工智能的未来发展以及其对社会的影响。
- 详细介绍了ChatGPT和DALL·E的工作原理。
- 讨论了这些AI技术在各个领域的应用,例如教育、医疗和商业。
- 博士级别的人工智能有望在一年半的时间内发布
- Mira认为AI会影响各行各业,尤其是在认知工作方面。她谈到AI在客户服务、写作和数据分析中的应用。
- 讨论了AI对工作岗位的潜在影响,包括一些重复性工作的消失和新工作的出现。
- 她强调教育是AI最有潜力的应用之一,可以提供个性化、高质量的教育。
以下为对话全文 @宝玉 翻译
欢迎致辞
Alexis Abramson: 各位下午好。很高兴看到我们新大楼的会议室人满为患。我是 Alexis Abramson,达特茅斯工程学院的院长,非常荣幸欢迎大家参加这个特别的活动,与 Mira Murati 进行交谈,她是我们国家人工智能领域的杰出领导者之一,也是达特茅斯工程学院的校友。在开始之前,我想特别欢迎一位贵宾,Joy Buolamwini,她在 AI 方面的工作也享誉全球,特别是在 AI 伦理和算法公正方面。她明天也将从达特茅斯获得荣誉学位。
热烈欢迎 Mira 以及你们中的所有人,无论现在是她的家人,还是在她在达特茅斯时的家人,包括她的兄弟 Ernel Murati,他也是 2016 届的 Thayer 校友。感谢我们在 Neukom 计算科学研究所和计算机科学系的合作伙伴。从达特茅斯 1956 年举办的首次有影响力的人工智能会议,到我们现在的跨学科研究,包括大语言模型和精准健康方面,达特茅斯一直是 AI 创新的先锋。
因此,我们非常荣幸地邀请到了 Mira,OpenAI 的首席技术官,Thayer 工程学院 2012 届的校友与我们共度今天。她以对当今最热门的 AI 技术的开创性工作而广受赞誉。在 OpenAI,她引领了像 ChatGPT 和 Dall-E 这样的革新性模型的开发,为未来的生成式 AI 技术铺平了道路。在她就读于 Thayer 的期间,她运用自己的工程技能,设计并制造了混合动力赛车与达特茅斯的 Formula Racing Team 一起。明天在毕业典礼上,她将被授予达特茅斯科学荣誉博士学位。
最后,我们今天的对话将由达特茅斯 1991 届的校友、现任达特茅斯董事 Jeff Blackburn 主持。Jeff 在全球数字媒体和技术的发展上有着丰富的职业生涯。他曾担任亚马逊全球媒体和娱乐部门的高级副总裁至 2023 年,并在公司中担任过各种领导职务,他在技术、媒体和娱乐的交叉领域的深刻洞察无疑将确保我们今天的对话引人入胜。那么,我们不再赘述,接下来就让我们开始对话吧。请与我一起欢迎 Mira Murati 和 Jeff Blackburn。
(观众鼓掌)
对话部分
Jeff Blackburn: 谢谢,Alexis。这座漂亮的建筑,真是太棒了。Mira,感谢你能抽出时间来这里。我可以想象你现在的日子一定非常忙碌。
Mira Murati: 很高兴能来到这里。
Jeff: 你能抽出时间来,真是太好了。
Mira: 我也很高兴在这里。
Mira 的职业经历
Jeff: 我想直接进入主题,因为我知道大家都迫切想知道你的生活状况和你正在做的事情,因为这些都非常吸引人。也许我们应该从你的经历讲起,你离开了 Thayer,去了特斯拉一段时间,然后又去了 OpenAI。如果你能描述一下那段时间,还有早期加入 OpenAI 的情况。
Mira: 是的,我…在离开 Thayer 后,我实际上在航空航天领域工作了一段时间,然后我发现航空航天行业的发展速度有些慢,我对特斯拉的使命和其在建设可持续未来交通方面所面临的创新挑战深感兴趣,所以我决定加入特斯拉。在 Model S 和 Model X 上工作之后,我发现我并不想仅仅局限于汽车行业。我想在不同的领域工作,既能推动社会向前发展,又能带来一些工程上的挑战。
当我在特斯拉工作的时候,我对自动驾驶汽车产生了浓厚的兴趣。我对这些技术的交叉应用产生了兴趣,比如将计算机视觉和 AI 应用于自动驾驶汽车。我想,我应该更深入地学习 AI,但需要在不同的领域进行。于是,我加入了一家创业公司,在那里我负责工程和产品的领导,将 AI 和计算机视觉应用于空间计算领域,这涉及到了计算的下一代接口。那时,我认为未来的计算接口应该是虚拟现实和增强现实。但现在我对此有了不同的看法,我开始思考如果可以用手来与复杂的信息进行交互那会是什么样的体验?比如公式、分子,或是拓扑学的概念。这样可以以更直观的方式来学习和理解这些内容,从而拓宽我们的学习视野。然而,虚拟现实的应用似乎还为时过早。尽管如此,但这给了我一个机会,在不同的领域深入学习 AI。我发现我的职业生涯始终处于技术与各种应用的交叉点,这使我从一个不同的角度去看待 AI 的发展进度以及其可能的应用领域。
AI 技术的发展与应用
Jeff: 所以在特斯拉的自动驾驶项目中,你看到了机器学习和深度学习的运用。你能看出这个趋势。
Mira: 是的。
Jeff: 你和 Elon 一起工作过吗?
Mira: 对,尤其是在过去一年中。但当时这个方向并不清晰。那时,我们还在把 AI 应用于特定的、小的领域,而非通用领域的应用。你只把它应用于非常具体的问题,VR 和 AR 也是如此。从那时起,我就想我并不只想把 AI 应用于特定问题。我想要去了解研究,真正理解正在发生的事情,然后再去应用到其他领域。所以我加入了 OpenAI,OpenAI 的使命对我非常吸引人。当时它是一个非营利性的组织,使命没有改变。组织结构发生了变化,但当我六年前加入时,它是一个致力于建立安全的人工通用智能的非营利性组织,除了 DeepMind,没有其他公司在做这个。现在当然有很多公司都在构建自己版本的人工通用智能。
Jeff: 少数几个,是的。
Mira: 是的。这就是我加入 OpenAI 的过程。
AI 的基本知识与当前应用
Jeff: 明白了。你在那里做了很多建设性的工作。也许我们可以为大家介绍一些基础知识,比如机器学习,深度学习,以及现在的人工智能。它们都是相互关联的,但也有它们各自的特性。那么,这些是怎么运作的呢?又是如何在 ChatGPT,Dall-E,或者你们的视频产品中展现出来的呢?它们是如何工作的呢?
Mira: 对于这些,其实并没有什么特别新颖的地方。我们所做的,实际上是建立在过去几十年人类的努力基础之上。事实上,这一切就是从这里开始的。过去十年间,发生的主要变化是 “神经网络”、”大数据”和”强大算力”这三者的结合。将这三者结合起来,创造了这些具有变革性的 AI 系统或模型。这些系统能够完成许多惊人的任务,比如说处理各种通用任务,但具体是如何实现的并不清楚。深度学习确实能奏效。我们一直在尝试理解并应用各种工具和研究方法,去理解这些系统是如何真正工作的,但我们知道它能工作,因为我们在过去的几年里已经实践过了。我们也看到了它们随着时间的推移,表现得越来越好。就像我们大约三年半前部署的 GPT-3 那样的大型语言模型。GPT-3 的能力…
Jeff: 所以说,其实就是预测下一个词元。
Mira: 没错,基本上就是这样。
Jeff: 对。
Mira: 然后我们发现,如果你给这个模型设定一个目标,让它预测下一个词元,你用大量的数据来训练它,并且使用了大量的计算能力,你得到的也是一个模型,它在理解语言的水平上与我们人类非常接近。
Jeff: 因为它读过很多书。它读遍了所有的书。
Mira: 基本上所有的内容在互联网上的。但它并没有记住什么是下一个词。它实际上是通过理解先前接触过的数据模式来生成对语言的理解。然后我们发现,好的,这不仅限于语言。事实上,如果你输入不同类型的数据,比如代码,它也能编写代码。所以,说到底,它并不关心你输入的是什么类型的数据。无论是图像、视频还是声音,它都能做同样的事情。
Jeff: 哦,我们稍后会谈到图像。
Mira: 是的。
(Jeff 笑了)
Jeff: 但是,对的,文本提示可以生成图像或视频,现在你甚至看到了反过来的情况。
Mira: 是的,正是如此。所以你可以…我们发现,这个公式实际效果非常好,数据 + 算力 + 深
度学习,你可以输入各种类型的数据,提高算力,那么这些 AI 系统的性能就会越来越好。我们称之为规模化定律。但这些并非真正的定律。它更像是一个统计预测,你投入更多的数据和计算力,模型的能力就会相应提高。这就是目前推动 AI 进步的原动力。
Jeff: 你们为什么从聊天机器人开始呢?
Mira: 是的,在产品开发上,我们其实是从 API 开始的。我们并不清楚如何将 GPT-3 商业化。将 AI 技术商业化实际上非常困难。最初,我们以为这是理所当然的,因此我们专注于构建这个技术和进行研究。我们认为,我们有这个了不起的模型,商业伙伴们,拿去吧,然后在它的基础上开发出惊人的产品。然后我们发现,事实上这非常困难。这也是为什么我们开始自己动手的原因。
Jeff: 这促使你们开始构建聊天机器人,
Mira: 是的,我们一直在努力理解,为什么对这些非常成功的公司来说,将这项技术转化为实用的产品如此艰难?
Jeff: 我明白了。
Mira: 这是因为构建产品的方式非常特别。你是从能力着手。你是从技术入手。而不是从我想解决的世界性问题入手。这是一种非常通用的能力。
AI 未来的发展与挑战
Jeff: 这很快就会导向你刚才说的那种情况:也就是更多的数据,更多的算力,更强的智能。这种智能最终会有多聪明呢?我是说,你的描述似乎表明,这个东西的规模化是相当线性的,你增加更多的这些元素,它就会变得更聪明。过去几年里,ChatGPT 变得更聪明了吗,它何时能达到或接近人类的智能水平?
Mira: 是的,这些系统在特定任务中已经达到了人类水平,当然在许多其他任务中,它们还达不到。如果你观察一下我们的进步轨迹,像 GPT-3 这样的系统,大概可以说智能水平相当于一个幼儿。而像 GPT-4 这样的系统更像是高中生的智能水平。在未来几年,我们期望看到针对特定任务的博士级别的智能。
Jeff: 比如说什么样的任务?
Mira: 那么,事情正在迅速改变和进步。
Jeff: 你的意思是从现在算起一年后吗?
Mira: 是的,差不多一年半的时间。
Jeff: 你正在和 ChatGPT 交谈,感觉它比你更聪明。
Mira: 在某些方面,是的。在很多方面,是的。
Jeff: 也许离那个时间只有一年。
Mira: 嗯,或许吧。
Mira: 已经非常接近了。
Jeff: 大体上。好吧,这确实引发了一些其他问题,我知道你对 AI 安全问题一直持有强烈的看法,我很高兴也为你感到骄傲,你一直在重视这个问题。但是,人们确实想听听你对此的看法。那么,三年后,当它的智能惊人地高时,会怎么样呢?它可以通过全球的每一次律师资格考试和我们曾经进行过的每一个测试。然后它决定自己连接到互联网并开始行动。这是真的吗,还是…或者,这是你在思考的问题作为首席技术官并引领产品方向时?
Mira: 是的,我们正在深入思考这个问题。确实会有具备智能体能力的 AI 系统,它们能连接到互联网,相互交流,智能体之间相互连接并共同完成任务,或者与人类无缝协作。就像我们今天与人相互合作一样与 AI 合作。在谈及此项工作的安全性、保密性和社会影响时,我认为这些并非是事后才需要考虑的问题。你可能需要在开发技术的过程中就考虑如何应对这些问题。你必须要与技术一同构建这些应对措施,而且要深入地融入其中,才能做得正确。智能和安全性实际上并不是两个独立的领域。它们是相辅相成的。引导一个更聪明的系统更容易,只需告诉它,“好的,不要做这些事情”即可。他们需要引导一个不那么智能的系统。就像训练一只聪明狗比一只笨狗更容易,所以智能和安全是相辅相成的。
Jeff: 它更聪明,因此更了解安全防护栏。
Mira: 对,是的,完全正确。现在有一场辩论,究竟是进行更多的安全研究,还是进行更多的能力研究。我认为这种看法有些误导,因为在部署产品时,必须考虑安全性和周围的防护措施。但说到研究和开发,实际上,他们是相辅相成的。从我们的角度看,我们对待这个问题的思考方式是非常科学的。那就是,试着预测这些模型在我们实际完成训练之前会具备什么能力。然后在这个过程中,我们要准备好如何处理这些模型的防护措施。然而,这在目前的行业中并没有真正实现。我们训练这些模型,然后有一些我们称之为“能力涌现”的情况,就像突然出现的。我们并不知道它们会出现。我们可以看到一种统计表现,但我们并不知道这种统计表现是否意味着模型在翻译,或生物化学,或编程等方面变得更好。开发这种新的能力预测科学有助于我们为未来做好准备。
政策与监管
Jeff: 你的意思是,所有的安全工作都是为了与你的开发工作保持一致。
Mira: 是的,没错。
Jeff: 这是一个相似的道路。
Mira: 是的,因此你需要引领它前行,
Jeff: 但是,Mira,像 Volodymyr Zelensky 在视频中说的 “我们投降”,Tom Hanks 的视频,或者是某个牙医广告,这些问题怎么办?我记不清楚了。这些类型的用途呢?这在你们的责任范围内吗,还是需要对此进行规定?你对这个问题的发展有什么看法?
Mira: 是的,我的观点是,这是我们的技术。所以我们有责任管理它的使用方式,但同时也需要与社会、公民社会、政府、内容制作者、媒体等共同承担责任,一起确定如何使用它。但是要使这成为一个共同的责任,你需要引导人们,你需要提供他们访问的机会,你需要为他们提供理解和提供防护措施的工具。
Jeff: 那些事情还是有点难以阻止的,对吗?
Mira: 嗯,我认为无风险是不可能的,但真正的问题是,你怎么去降低风险?并为人们提供实现这一目标的工具。举个例子,对于政府来说,引导他们参与其中,并尽早让他们了解事情发展,向他们解释正在发生的事情,这非常重要。
Jeff: 政府。
Mira: 是的,当然,还有监管机构。我认为 ChatGPT 最重要的事情之一是将 AI 带入公众的意识,让人们对这项技术的能力有一种直观的感觉,并了解它的风险。阅读和亲自尝试是两回事,当你在业务中尝试时,会发现它不能做这些事,但能做其他惊人的事,这对劳动力或业务的实际意义是什么。这能让人们做好准备。
Jeff: 是的,你说得很好。这些你们创造的界面,像 ChatGPT,让人们了解即将到来的事物。你可以使用它。现在你可以看到背后的内容。你觉得…就政府的观点做一个总结。我的意思是,我们先谈谈美国吧。你希望我们现在制定某些法规吗?在未来一两年内。它非常智能,有点吓人。所以现在是否应该采取些措施?
Mira: 我们一直倡导对拥有这些惊人能力但因滥用也有缺点的前沿模型进行更多监管。我们一直在与政策制定者公开交流并积极地与监管机构合作。在更为近期和小型的模型上,我认为应该允许生态系统具有丰富的多样性,而不应阻止那些在计算或数据资源上相对匮乏的人的创新。因此,我们一直在倡导对风险更高的前沿系统进行更多的监管。另外,你可以预见并提前准备即将发生的事情,而不是一直在追赶已经正在快速发生的变化。
Jeff: 但你可能不希望华盛顿特区来监管你发布的 GPT-5,比如你能或不能做这个。
Mira: 实际上,这取决于情况。这取决于监管本身。我们已经在做很多相关工作,现在这些工作已经成为白宫承诺中的一部分,这个进程——
Jeff: 已经在进行
Mira: 就是我们已经做了的工作。实际上,这个进程影响了白
宫的承诺和联合国委员会正在制定的 AI 部署原则。我认为,最好的做法是,实际工作,理解实践中它的含义,然后基于此来制定监管。迄今为止的情况就是如此。要想在这些前沿技术中保持领先,我们需要做更多的预测,更深入的探索预测能力的科学,以便做出正确的监管决定。
行业影响与未来应用
Jeff: 我希望政府中有足够的人能理解你们在做什么。
Mira: 看起来正在有越来越多的人加入政府,他们对 AI 有更深的理解,但这还不够。
Jeff: 好的。在行业方面,你可能有全球最佳视角,可以看到 AI 将如何影响不同的行业。我的意思是,它已经在金融、内容、媒体和医疗保健等行业产生了影响。但是,向前看,你认为什么行业将受到 AI 和你在 OpenAI 的工作的最大影响?
Mira: 是的,这其实和我以前经常被问到的问题类似,当我们开始基于 GPT-3 构建产品的时候,创业者们经常会问我,”我能用它做什么?它有什么用处?”我会回答他们,可以做任何事。所以,去试试吧。所以,我认为 AI 会影响所有的事物,没有哪个领域不会受到影响,至少在高级脑力工作和一般脑力劳动工作方面是如此。也许人工智能进入物理世界的步伐会稍慢一些但我认为所有的领域都将受到其影响。到目前为止,我们发现在一些风险较高的领域,比如医疗和法律,人工智能的应用相对滞后。这是可以理解的,因为我们需要先在风险较低和中等的领域进行试验,确保在这些领域中的应用能够得到有效的处理,然后再将其应用到风险更高的领域。最初,人工智能的运用应该在更多的人类监督下进行,然后逐渐的,人工智能应该被赋予更多的任务,并且在可以的情况下,人工智能应该与人类更加紧密的合作。
Jeff: 有你个人特别感兴趣,或者正在看到,或者期待看到的应用场景吗?
Mira: 是的,我认为无论你在尝试做什么,无论是设计新的项目,编写程序,写文章,写邮件,或者其他任何事情,人工智能都能让你的第一步变得更加容易。这就是我最喜欢的应用方式。到目前为止,我一直在用它来帮助我完成。
Jeff: 所有事情的初步草稿。
Mira: 是的,所有事情的初稿。它使得工作的效率大大提升。人工智能降低了开始做某事的难度,使你能够专注于更具创意和难度更大的部分,尤其在编程中。你可以把大部分繁琐的工作交给它来做。
Jeff: 文档和所有这些东西。
Mira: 是的,文档和…但在行业中,我们看到了很多应用。客户服务绝对是与聊天机器人的一个大应用,还有写作,还有数据分析,因为我们已经让很多工具和核心模型相连接,这使得模型的使用更加方便,效率也更高。所以,你有像代码分析这样的工具。它可以分析大量的数据。你可以把各种数据导入,它会帮你分析和筛选数据,或者你也可以使用图像,也可以使用浏览工具。所以,如果你正在准备一篇论文,这项工作中的研究部分可以更快、更严谨地完成。所以我觉得,提高生产力的下一步,是将这些工具添加到核心模型中,使其运行更加流畅。模型会自行决定何时使用分析工具,何时搜索,或者进行其他操作。
Jeff: 编写一个程序。是的,是的。有趣。它看过全球所有的电视节目和电影吗?它会开始写剧本和制作电影吗?
Mira: 嗯,它是一个工具。因此,作为一个工具,它绝对有能力做这些,我预计我们实际上会和它一起工作,它将能够激发我们的创造力。现在,人们对创造力的理解往往是,它是一种只有少数才华横溢的人才能接触到的特殊东西。而这些工具实际上降低了门槛,让任何人都可以认为自己是有创造力的,并且进一步激发他们的创造力。所以在这个意义上,我认为它将是非常令人惊奇的。
Jeff: 是的,它可以轻松地给我提供 200 种不同的第一集结尾的悬念。
Mira: 是的。你可以继续编写故事,故事可以无休无止。你可以继续。
Jeff: 继续下去。我写完了,但可以继续。这很有趣。
Mira: 但我认为它实际上将是一个合作的工具,尤其是在创新领域。
Jeff: 我也这么认为。
Mira: 是的,会有更多人变得更有创造力。
Jeff: 现在有一些恐惧。
Mira: 当然,这是肯定的。
Jeff: 但你的意思是,这种情况会改变,人们会找出如何更好地进行创作性工作?
Mira: 我觉得会的。有些创造性工作可能会消失,但也许它们本就不应该存在,如果它们产出的内容质量不高的话。但我坚信,将其作为教育工具,创造力能够扩大我们的智力,增强我们的创造力和想象力。
Jeff: 嗯,人们曾经担心 CGI 和其他类似的东西会摧毁电影业。他们非常恐慌。这是,我认为是更大的变革,但是是的,面对这类新事物,人们的第一反应总是,“天哪,这是…”。但我希望你对于电影和电视的看法是正确的。
AI 对就业的影响
Jeff: 好,你提到了工作岗位的问题,我们先不谈好莱坞的事情,但是有很多工作岗位,人们担心它们可能面临风险。你对 AI 导致的就业流动,以及你在 OpenAI 的工作,甚至整体状况有什么看法?人们是否真的应该对此感到担忧?哪些工作受影响最大,或者你怎么看待这整个问题的?
Mira: 是的,我的意思是,我们其实还不太理解 AI 会对就业带来什么影响。首先,我们需要做的是帮助人们明白这些系统有什么能力,能做什么,把它们融入到他们的工作流程中,然后开始预测和预见它们的影响。同时,我觉得人们没有意识到这些工具已经在大范围内被使用了,这是一个目前尚未被研究的问题。所以,我们应该去研究现在的情况,研究现在的工作性质和教育性质,这将帮助我们预测如何为这些能力的提升做好准备。在具体的工作岗位方面,我不是经济学家,但我确实预计很多工作会发生变化,有些工作会消失,有些工作会增加。我们并不特别清楚这会是什么样子,但你可以设想,那些重复性的工作,那些完全重复的工作,并且人们没有进一步发展的工作,这些工作可能会被取代。
Jeff: 像 QA,和测试代码,和类似的工作,这些工作都都已经完成了。
Mira: 是的,如果只是那种或者仅仅是
Jeff: 这只是一个例子。有很多类似的情况。
Mira: 是的,很多情况。
Jeff: 你认为会有足够的工作在其他地方创建出来来补偿那些失去的工作吗?
Mira: 我认为会有很多新的工作岗位产生,但具体会有多少新工作,改变多少工作、以及失去多少工作,我真的不确定。我甚至认为没有人能够准确预测,因为这是一个没有被深入研究的领域,但它确实应该被重视和研究。然而,我相信经济会随之改变,这些 AI 工具将会创造出巨大的价值。所以,问题在于我们如何有效利用这些价值?如果工作的性质发生了根本性的改变,那么我们应如何将经济价值更公平地分配到社会各个角落?是通过公共福利?还是通过无条件基础收入(UBI)?或者是通过其他全新的系统?这些都是需要我们去探索并找出答案的问题。
AI 在教育中的作用
Jeff: 你刚才提到的这个任务中,高等教育起着重要的作用。只是现在还没完全开始。
Mira: 是的。
Jeff: 那么对于高等教育以及 AI 的未来还有什么?你认为高等教育在你眼中的这个演变过程中应该扮演什么样的角色?
Mira: 我觉得我们真正需要搞清楚的是如何利用这些工具和 AI 来推进教育。因为我认为 AI 的最大用途之一就是在教育中,它能够提升我们的创造力和知识水平。我们有机会建立高质量且易于获取的教育资源,理想情况下可以免费提供给世界上任何人,不论其语言或文化背景。我们真的可以为全世界的任何人提供定制化的理解和教育。当然,在像达特茅斯这样的学校里,由于教室规模较小,学生可以得到更多关注。但即使在这里,你也可以想象存在一对一的辅导,更不用说世界上的其他地方了。
Jeff: 辅助。
Mira: 对。因为我们并没有花足够的时间学习如何学习。这种情况通常在大学才开始发生。这其实是一种很基础的东西,你如何学习,否则你可能会浪费大量的时间。课程、课程大纲、习题,所有这些都可以根据你作为个体的学习方式来定制。
Mira: 所以你认为,像在达特茅斯这样的地方,AI 可以补充一些正在进行的学习吗?
Mira: 哦,绝对的,是的。
Jeff: 就像让 AI 当私教一样。
观众问答
Jeff: 我们应该开放讨论吗?你介意接受观众提出的一些问题吗?可以吗?
Mira: 我很愿意,是的。
Jeff: 好的。那我们开始吧。戴夫,你先来吗?
Dave: 当然,如果你愿意的话。
Speaker: 请稍等。我给你个麦克风。
应该如何把尊重、公平、诚实、正直这样的价值观嵌入到 AI 工具中?
Dave: 达特茅斯大学的首批计算机科学家之一,约翰·凯梅尼,曾经演说过,人类构建的每一个计算机程序都会无意识或有意识地将人类的价值观嵌入其中。我在想,你认为 GPT 产品中嵌入了哪些人类的价值观?或者换个角度说,我们应该如何把尊重、公平、诚实、正直这样的价值观嵌入到这些工具中?
Mira: 这是个非常好的问题,也是个非常难的问题,这是我们已经思考了很多年的问题。现在,如果你看这些系统,很多价值观都是输入的,基本上是在数据中输入的,这些数据来自互联网,获得许可的数据,也包括来自外包人员的数据,他们会对某些问题或问题进行标记。每一种输入都有其特定的价值。因此,这是他们价值观的一个集合,这是很重要的。然后当你真正将这些产品推向市场时,我认为你有机会通过让更多的人使用它,收集到更广泛的价值观。现在,我们提供了一个免费的 ChatGPT 产品,它是功能最为强大的系统,全球已有超过一亿人在使用。每个人都有机会对 ChatGPT 提供反馈。只要他们允许我们使用这些数据,我们就会将这些数据转化为一个综合的价值体系,使系统更加卓越,更能满足人们的需求。不过,这仅仅是系统的默认设置。你或许还希望在此基础上添加一个定制化的层次,让每个社区都能够拥有自己的价值观,比如一个学校、教堂、国家,甚至一个州。他们可以在这个包含基本人类价值观的默认系统之上,提供更具特色、更精准的价值观。我们也正在探索如何实现这一点。但这无疑是一个极具挑战性的问题,因为我们不仅要解决人类价值观的分歧问题,还需要解决技术问题。在技术问题上,我认为我们已经取得了很大的进步。例如,我们已经有了一些方法,比如通过人类反馈进行强化学习,这让人们有机会将他们的价值观注入到系统中。我们还开发了一个我们称之为“规格”的功能,它可以让人们看到系统中的价值观。我们也正在构建一种反馈机制,收集用户的反馈和数据,以便更好地完善和提升“规格”。你可以将其理解为 AI 系统的宪法,但这是一种随着时间推移不断演进的宪法。因为我们的价值观也会随着时间的推移而发展,所以这个宪法会变得越来越精细。这是我们正在深入研究的事情。我认为现在我们正在关注的是基础价值观。但随着系统变得越来越复杂,我们需要对价值观进行更细粒度的思考。
Jeff: 你能避免它变得愤怒吗?
Mira: 愤怒?
Jeff: 是的。那是一种价值观吗?
Mira: 嗯,那应该是…并不是。所以实际上这应该取决于你。所以如果你作为用户…
Jeff: 哦,如果你想要一个愤怒的聊天机器人,你就能拥有它。
Mira: 是的,如果你想要一个愤怒的聊天机器人,你就可以拥有一个愤怒的聊天机器人。
Jeff: 好的,就在这里,是的。
如何看待创作权和生物识别权的问题
Joy: 你好。谢谢你。这里是 Joy 博士。也祝贺你获得荣誉学位以及你在 OpenAI 所做的一切。我很好奇你是如何看待创作权和生物识别权的问题。你之前提到,可能有一些创造性的工作不应该存在,同时你们有很多创作者正在思考关于同意、补偿、甚至是拥有私有模型或开源模型的问题,这些模型的数据都是从互联网上获取的。我很想听听你对创作权涉及的同意权和补偿权的看法。我们现在在大学里,你理解复合问题的构成吗?另一个需要思考的是生物识别权,比如涉及到声音、人脸等等。关于“Sky”声音的最近争议,以及存在声音相似、长相相似的人,更不用说在重要的选举年份里出现的各种虚假信息威胁,我对你关于生物识别权方面的看法很感兴趣。
Mira: 是的,所以……好的,我将从最后一部分开始……我们对声音技术进行了大量的研究,由于这些技术带来了如此多的风险和问题,我们直到最近才发布了它们。但同样重要的是,我们需要带领社会了解这项技术,通过设立防护措施和控制风险,让其他人研究并解决相关问题。例如,我们正在与一些机构合作,帮助我们思考与 AI 的互动问题,尤其是当人类在使用情感上具有强烈吸引力的语音和视频时。我们需要开始理解这些事情将如何发展,以及我们应该为什么做好准备。在提到的那个例子中,Sky 的声音并不是 Scarlett Johansson 的,也不应该是 Scarlett Johansson 的,这是一个完全独立的过程。我在负责挑选声音,我们的 CEO 正在和 Scarlett Johansson 进行沟通…然而,出于对她的尊重,我们撤下了音频。有些人觉得听起来有些相似。这些都是主观的,我认为你可以…
Jeff: 是的,你可以设定一个红队流程,例如,如果某个声音被认为与某个非常知名的公众声音极其相似,你可能就不会选择那个。
Mira: 在我们的红队中,这个问题并没有出现,但这也说明了我们需要更大规模的红队,如果有需要,他们可以早点发现这样的问题。但更广泛地说,对于生物识别权的问题,我认为我们的策略是先让少数人,比如专家或红队的成员,来帮助我们全面理解风险和能力。然后我们制定缓解策略,随着我们对这些策略的信心增强,我们会让更多的人接触到。因此,我们目前并未允许人们利用这项技术来模拟自己的声音,这是因为我们正在评估相关风险,且对于我们能否妥善处置潜在的滥用行为尚无把握。但是,我们对如何处理滥用问题有足够的信心因为我们已经在一些特定的语音上设置了防护措施并且目前只在小范围内使用这基本上是扩大了的红队操作。当我们将其扩展到一千个用户,即我们的 Alpha 版本时我们将与用户紧密合作收集反馈,了解边缘情况以此为将使用范围扩大到十万人做好准备然后,用户数将增长到一百万然后是一亿,以此类推。但是,这一切都是在我们严格的控制下进行的我们称之为迭代部署。如果我们对这些使用情况都能感到满意那么我们就不会在特定的情况下或针对特定的使用者推出它们我们可能会试图以某种方式限制产品的功能因为能力和风险总是并存的。
同时,我们也在进行大量的研究以帮助我们解决内容来源和真实性的问题让人们有工具可以判断一件事是否是深度伪造或者是否在传播虚假信息等等。实际上,从 OpenAI 成立开始我们就一直在研究虚假信息并且我们已经开发了很多工具,比如水印,内容策略这些都能帮助我们管理虚假信息的传播尤其在今年这样的全球选举年。我们一直在进一步加强这项工作。但这是一个极具挑战性的领域,我们作为技术和产品的开发者,需要投入大量的精力,同时还需要与公民社会合作,与媒体和内容创作者合作,共同探讨如何解决这些问题。
当我们开发像音频技术或 Sora 这样的技术时,我们研究风险的红队成员之后的首批合作伙伴就是内容创作者。以此来了解技术如何帮助他们,并探讨如何打造一个产品,这个产品既要安全、实用、有益,又能推动社会进步。这就是我们在
Dall-E 上所做的,也是我们在 Sora 视频生成模型上所做的。关于你问题的第一部分。
Joy: 创作权。
Mira: 所以对于…
Joy: 创作权
Joy: 关于报酬、同意,
Mira: 是的。
Joy: 控制和归功。
Mira: 是的,这也是非常重要和具有挑战性的。我们现在与众多媒体公司建立了合作关系,我们也赋予用户在产品中使用他们数据的大量控制权。因此,如果他们不希望他们的数据被用来改进模型,或者让我们进行任何研究或在其上进行训练,那是完全可以的。我们并未使用这些数据。对于创作者社区,我们提前提供了这些工具的使用权限。这样,我们可以第一时间听到他们对如何使用这些工具的想法以及如何制作出最有用的产品。而且,这些产品都是研究成果,我们并不需要不惜一切代价来制作。只有当我们找到一种真正有助于推动人类进步的方式时,我们才会去制作这样的产品。我们也正在尝试用各种方法旨在通过我们的工具使数据贡献者获得补偿。从技术角度和产品制作角度来看,这都非常复杂,因为需要弄清楚特定数量的数据在经过训练后的模型中创造了多少价值。单个数据的价值可能难以衡量,但如果能创建数据联合体和数据池,人们可以贡献他们的数据,或许效果会更好。所以,在过去的两年里,我们一直在试验这种方法的各种版本。虽然还没有正式部署,但我们一直在技术层面进行试验,试图真正理解这个技术问题。我们已经有了一些进展,但这确实是一个非常棘手的问题。
Jeff: 的确如此。我想肯定会有很多新公司尝试为这个问题构建解决方案。
Mira: 是的,的确有其他公司在尝试。
Jeff: 这真的非常困难。
Mira: 确实。
如果你现在回到学校,你会选择什么专业或者你会参与更多的活动?
Jeff: 就在那儿怎么样?对。
参与者: 非常感谢您抽出宝贵的时间来与我们交流。我的问题很简单。如果你现在回到学校,再次身处在 Thayer 工程学院或者达特茅斯学院,你会做些什么和避免做些什么?你会选择什么专业或者你会参与更多的活动?这样的问题。
Mira: 我想我会选择相同的专业,但可能会降低一些压力。
(大家都笑了)
Mira: 对,我想我还是会学习数学,并从事…对。或许我会上更多计算机科学的课程。不过,我会尽量减少压力,因为这样你可以更加充满好奇心和快乐地去学习,这样会更有效。不过,我记得,当我还是学生的时候,我总是对未来感到有些紧张和焦虑。如果我能告诉年轻的自己我现在所知道的,我会说,其实每个人都告诉我 “不要太紧张”,但出于某种原因,这个建议我总是无法接受…当我和年长的校友交谈时,他们总是告诉我:“尽量享受学习,全身心地投入,尽量减少压力。”我觉得,尤其是现在,课程可以涵盖各种各样的主题,对每一样都有一些了解是很好的。我发现无论是在学校还是毕业后,我都在不断学习,因为即使现在我在研究机构工作,我也在持续学习。学习永无止境。这样能帮助我们对所有事物都有一些了解。
Jeff: 非常感谢你,我想你的生活一定充满了压力。
Mira: 谢谢
(大家都笑了)
(观众鼓掌)
Mira: 非常感谢。
Jeff: 感谢你今天的到来,也感谢你为社会做的重要工作,这真的很重要,我很高兴你能坐在这个位置上。
Mira: 感谢你的邀请。
主持人: 我们在这里代表 Thayer 工程学院和达特茅斯学院的所有人感谢你。所以我认为这是一个很好的结束点,这对我们的学生来说是个很好的建议。这次交谈很有趣,我想再次感谢所有来的人。享受剩下的毕业周末。