来源:聪明投资者作者:欣晴
一场科技巨头齐聚白宫的会议,美国总统拜登“顺便”参加,并透露自己曾“亲身试用”。
【资料图】
美国东部时间5月4日,拜登出席了在白宫举行的一个人工智能(AI)会议,会见包括谷歌、微软和OpenAI在内的顶级AI公司的首席执行官。
会议对AI技术所带来的风险和治理措施进行了讨论。拜登和美国副总统哈里斯均强调科技公司需对AI产品的安全负责。
今年以来,以ChatGPT为代表的生成式大模型成为全球范围内的热词,数以亿计的用户开始使用相关产品,但与此同时,相关的风险也越来越不容忽视。
近期,各国纷纷开始监管介入,讨论人工智能时代下一系列的法律与社会问题。
在此次会议中,拜登强调了公司确保其产品在部署或公开之前安全可靠的基本责任,并且为了实现人工智能进步带来的好处,必须减轻当前和潜在风险,包括对安全、安保、人权和公民权利、隐私、工作和民主价值观的风险。
会议讨论了三个关键领域:公司需要在人工智能系统方面更加透明;评估、验证和验证人工智能系统的安全性、保障性和有效性的重要性;以及确保人工智能系统免受恶意行为者和攻击的需要。
在会议结束后,OpenAI首席执行官山姆·奥特曼表示:“各公司在人工智能需要发生的事情(指安全监管等问题)上意见一致,我支持推进新的人工智能监管规定,支持新的立法。”
CNBC对山姆·奥特曼和美国希望行动公司首席执行官约翰·霍普·布莱恩特就此次会议内容展开了采访,一起讨论人工智能军备竞赛的状况以及监管AI的必要性等内容。
以下是关于此次采访的完整翻译版,分享给大家。
问:山姆,你能展开谈谈此次白宫人工智能会议的具体内容吗?
以及当你听到人们发表对AI的看法时,你有什么感想?
山姆·奥特曼:我们当下的任务是,弄清楚如何建立这些先进的人工智能系统,并将它们应用到社会中,以获得最大的利益。
我们在会议中讨论了一个问题,AI确实可以做很多事情,但我们还是要与政府和监管部门互相配合。
从长远来看,我们需要世界各地的政府采取行动,制定法规和标准,确保公司可以从这些技术中获得尽可能多的好处,并将负面影响降到最低。
会议的核心内容就是这点。
我认为这是一个很好的开始,我们还有很长的路要走。
问:你一直在强调监管的必要性,尤其是长期监管,这可能会让一些人感到惊讶。
在你看来,长期监管应该怎么做?
以及你认为短期监管将会带来什么样的挑战?
山姆·奥特曼:从短期来看,我知道人们现在正在讨论很多问题,“内容为王”就是一个至关重要的例子。
比如,当我们在和一个人工智能聊天时,我们该怎么知道它所说的内容是否真实?
从长远来看,随着这些AI系统越来越强大,我认为我们需要国际权威机构去监督那些建造AI系统的人,确保我们正在进行安全评估,并能够跟踪他们的一举一动。
我们这样做也有利于其他先进技术的推广,我认为人工智能仅是其中之一。
问:倘若综合去考虑事情发展的速度和你开发这项技术的速度,我们实际上需要等待多少时间?
山姆·奥特曼:这有点像光谱(很难简单说清楚)。这并不是说我们很好,然后突然间需要有一个强有力的监管了。
我认为我们现在需要开始考虑这些问题,然后在接下来的很多年里,需要把越来越严格的监管落实到位。
问:约翰,你曾经花了很多时间去关注那些弱势群体,比如说未饱和的市场、得不到充分服务的人群等,以及AI对他们就业所产生的影响。
那么你认为AI会颠覆哪个领域呢?
约翰·霍普·布莱恩特:我曾在你的节目中说过,目前我们正在经历第四次工业革命。
从马到汽车的过渡,我们花了50年的时间才完成,而AI对蓝领工人的取代可能会在5年内发生。
从现在到2030年,AI有可能会扰乱1亿工薪家庭的生活。
如果我们做得好,只有对人们进行适当的培训,他们就将会拥有更多的工作机会。如果我们做错了,那么可能就会让更多人面临着失业的情况。
问:山姆,你不仅致力于开发ChatGPT,同时还探讨了全民基本收入的必要性。
这两个想法是如何交织在一起的?
山姆·奥特曼:我认为全民基本收入是一种有趣的政策,值得我们去探索,但它只能算是一部分的解决方案,去弥补因AI取代的工作所造成的损失。
在我看来,人们仍然需要其他原因去支撑他们继续工作。未来将会出现许多新的工作方式让人们去消磨时间,为彼此创造价值。
无论我们开发出什么样的技术,人类对有用感、地位感、差异化感以及创造令人难以置信的新事物的渴望都不会消失。
假若我们能够用比现在更好的政策来消除贫困,或者有一种新的方式去分享巨额财富,我们都将实现富裕。
我对此很感兴趣。我不认为全民基本收入是一个完全的解决办法,这也是我这两个想法交织在一起的原因。
问:山姆,当你看到埃隆·马斯克在那封“呼吁暂停巨型AI实验”的公开信上签名时,你是怎么想的?
山姆·奥特曼:事实上,我并不认为这封信呼吁的是暂停发展AI,它呼吁的是暂停扩大AI模型的发展规模。
我理解那些签名的人来自哪里,我也理解他们对事物发展速度感到焦虑的真正原因。
但我认为,这是一项细致入微的政策。
我们更应当去研究什么样的评估、实践与系统可以确保AI技术持续安全地发展。
问:当AI变得非常强大时,我们并不真正了解未来可能会发生什么。
我们能否建立一种安全措施,确保20年、30年、40年后,人类对机器来说不是完全多余的。
你有思考过这点吗?
山姆·奥特曼:我们该如何去整合AI这项技术,并将它很好地应用于我们想要建立的新社会之中,这是这个时代最重要的问题之一。
现在我们对外公开的AI技术都存在内部监管,未来也将会有不同的监管标准。
在未来的几年里,我们将会有一个非常严格的讨论,关于我们如何将这项技术整合到我们的生活中。
我们会去建立各种保障措施与各种规则。
但倘若我们不与一个非常广泛的群体进行讨论,仅仅局限于我们公司内部的话,那么我们建造的东西也只是人类的一小部分,无法成为人类的整体。
问:在当前这个人工智能的背景下,我们该如何去保护好自己的数据呢?
山姆·奥特曼: 用户显然是不希望我们去处理他们的个人数据的,我们也不会那样做,并把这项原则写进了官方政策中。
我们此前确实有这样的想法,即在尽可能多的数据上进行运行,但这点很难做到。
目前我们正在开发需要更少数据的新技术。
问:你认为数据和内容会随着时间的推移变得越来越有价值吗?
山姆·奥特曼:我们并不想强迫任何人去运行他们的数据。
有些人会希望我们根据他个人的数据去进行个性化的推荐,但也有人并不希望,我们会尊重这一点。
人工智能不是一个数据库,不是用来存储一堆人数据的东西。
这些AI模型都具有通用的推理能力,它们会据此在互联网上搜索数据。如果你给予许可,他们就可以去访问你的数据,为你推荐你想要的信息。
事实上,如果有这样一种商业模式的话,它将会发挥重要的作用。