GPT提示工程
人工智能的风险真实存在

本文是比尔·盖茨关于"人工智能风险的思考"一文的中文译文
英文原文:https://www.gatesnotes.com/The-risks-of-AI-are-real-but-manageable (opens in a new tab)

人工智能带来的风险似乎是巨大的。

  • 那些因智能机器而失业的人会怎样?
  • 人工智能会影响选举的结果吗?
  • 如果未来的人工智能决定不再需要人类并想要摆脱我们,怎么办?

以上人们提出的问题都是合理的,对于这些担忧我们需要认真的对待。但是我们有充分的理由认为我们可以应对它们:这并非首次必须对“一个重大的创新引入新的风险”加以控制。我们曾经已经解决过了。

无论是汽车的引入,还是个人电脑和互联网的兴起,人们都成功渡过了变革性的时刻。尽管经历了很多动荡,但最终还是取得了更好的结果。第一批汽车上路后不久,发生了第一起车祸。但我们并没有禁用汽车——我们采用了速度限制、安全标准、牌照要求、醉酒驾驶法等道路规则。

我们现在正处于另一场深刻变革的早期阶段,即人工智能时代。这类似于限速和安全带之前的那些不确定的时期。人工智能变化如此之快,以至于我们不清楚接下来会发生什么。我们面临着由“当前技术的工作方式、人们可能恶意使用它的方式,以及人工智能将如何改变我们作为一个社会和个体的方式”所引发的重大问题。

在这样的时刻,感到不安是很自然的。但历史表明,解决“新技术带来的挑战”是可能的。

我之前写过关于人工智能将如何彻底改变我们生活的文章。它将有助于解决健康、教育、气候变化等曾经看似棘手的问题。盖茨基金会(The Gates Foundation)将其作为优先事项,我们的首席执行官马克·苏兹曼 (Mark Suzman) 最近分享了他如何看待盖茨基金会在减少不平等方面的作用。

在未来,我会进一步讨论人工智能的好处,但在这篇文章中,我想承认我经常听到和阅读到的担忧,其中很多我也有同感。我将会解释我是如何看待这些担忧的。

从迄今为止关于人工智能风险的所有文章中(已经写了很多),可以看出有一件事是明确的,那就是没有人知道所有的答案。另一件对我来说很清楚的事情是,人工智能的未来并不像一些人想象的那么严峻,也不像其他人想象的那么美好。风险是真实存在的,但我乐观地认为它们是可控的。在讨论每个问题时,我将回到几个主题:

  • 人工智能引起的许多问题都有历史先例。例如,它将对教育产生重大影响,几十年前的手持计算器也对教育产生了巨大影响,最近,计算机进入课堂也产生了巨大影响。我们可以从过去的成功经验中学习。
  • 许多由人工智能引起的问题也可以借助人工智能来解决。
  • 我们需要调整旧的法律并采用新的法律,就像现有的反欺诈法律必须适应网络世界一样。

在这篇文章中,我将重点关注已经存在或即将发生的风险。而不会讨论如果开发出可以学习任何主题或任务的通用人工智能(与现在的专用人工智能不同)会发生什么。无论我们是在十年内还是一个世纪内达到那个阶段,社会都将需要面对一些深刻的问题。

  • 如果超级人工智能设定了自己的目标怎么办?
  • 如果它们与人类的目标发生冲突怎么办?
  • 我们是否应该制造一个超级人工智能?

但是,思考这些长期的风险不应以牺牲关注更迫在眉睫的风险为代价。我现在就转向这些较为紧迫的风险。

人工智能产生的深度伪造和虚假信息可能会破坏选举和民主

技术可以用来传播谎言和不实信息的想法并不新鲜。几个世纪以来,人们一直通过书籍和传单来做到这一点。随着文字处理器、激光打印机、电子邮件和社交网络的出现,这一切变得更加容易。

人工智能使得虚假文本问题进一步扩大,使得几乎任何人都可以创建虚假的音频和视频,即所谓的深度伪造。如果您收到一条语音消息,听起来像是您的孩子在说“我被绑架了,请在接下来的 10 分钟内向此银行账户汇入 1,000 美元,并且不要报警”,这将会对您的情绪产生可怕的影响,并且超出了“表达相同内容的电子邮件”的效果。

从更大的范围来看,人工智能生成的深度伪造内容可以被用来试图影响选举。当然,并不需要使用复杂的技术来破坏选举的正当性,但人工智能会让这变得更容易。(尽管在没有使用高级技术的情况下也可以散播对选举结果的怀疑,破坏选举,但使用人工智能会使这一过程变得更加容易。)

已经出现了伪造知名政客镜头的虚假视频。想象一下,在一次重大选举的早上,一段显示一名候选人抢劫银行的视频在网上疯传。虽然视频是假的,但新闻媒体和竞选团队需要几个小时才能证明这一点。有多少人会看到它并在最后一刻改变他们的投票?它可能会扭转局势,尤其是在势均力敌的选举中。

当 OpenAI 联合创始人 Sam Altman 最近在美国参议院委员会作证时,两党参议员都将注意力集中在人工智能对选举和民主的影响上。我希望这个议题能够得到更多人的关注。

我们确实还没有解决虚假信息和深度伪造的问题。但有两件事让我保持谨慎的乐观态度。一是人们能够学会不轻信所有信息。多年来,电子邮件用户经常被一些诈骗所欺骗,其中有人假扮尼日利亚王子,承诺给予大量报酬以换取你的信用卡号。但最终,大多数人都学会了仔细查看这些邮件。随着这些诈骗手段变得更加高级,许多目标用户也变得更加警惕。我们需要对深度伪造也建立同样的意识。

另一件让我充满希望的事情是,人工智能既能够进行深度伪造,同时也可以识别它们。例如,英特尔开发了一种深度伪造检测器,政府机构 DARPA 正在研究识别视频或音频是否被操纵的技术。

这将是一个循环过程:有人找到检测造假的方法,有人找到应对“该检测造假”的方法,又有人开发出应对“该反制措施”的方法,等等。虽然这并不是完美的解决方案,但我们也不会束手无策。

人工智能使得针对人民和政府的攻击变得更加容易

如今,当黑客想要在软件中找到可利用的漏洞时,他们会使用暴力破解的方式——通过编写代码不断地试错,直到找到入侵的方法。这一过程充满了尝试和错误,因此需要大量的时间和耐心。

而安全专家为了阻挡这些黑客的攻击,也需要进行类似的努力。你在手机或笔记本电脑上安装的每个软件补丁,都意味着长时间的研究和努力,无论是好人还是坏人。

人工智能模型将通过帮助黑客编写更有效的代码来加速这一过程。他们还可以利用有关个人的公共信息(例如他们在哪里工作以及他们的朋友是谁),来开发出比我们今天看到的更先进的网络钓鱼攻击。

好消息是,人工智能虽然可以被恶意利用,但也可以用于正面的目的。政府和私营部门的安全团队需要使用最新的工具,来及早发现和修复安全漏洞,以免犯罪分子利用这些漏洞。我希望软件安全行业能够扩大他们在这方面的工作——这应该是他们的首要关注点。

这也是为什么我们不应该像一些人建议的那样,暂时阻止人们实施人工智能的新发展。网络犯罪分子不会停止开发新的工具,那些想利用人工智能来设计核武器和生物恐怖攻击的人也不会停下脚步。所以,我们实施反击以阻止这些行为的努力,也需要以相同的步伐持续推进。

在全球范围内,也存在一个相关的风险:一场可以用来设计和发动“针对其他国家的网络攻击”的人工智能军备竞赛。每个政府都希望拥有最强大的技术,这样就可以阻止对手的攻击。 这种不让任何人领先的动机,可能引发一场制造日益危险的网络武器的竞赛。 每个人的情况都会变得更糟。

这是一个可怕的想法,但我们有历史的经验可以来指导我们。尽管世界核不扩散制度有其缺陷,但它阻止了我们这一代人在成长过程中所担忧的全面核战争。各国政府应考虑建立一个类似于国际原子能机构的全球人工智能机构。

人工智能将夺走人们的工作

在未来几年,人工智能对工作的主要影响将是帮助人们更高效地完成工作,无论他们是在工厂工作还是在办公室处理销售电话和应付账款。最终,人工智能在表达思想方面会变得足够好,以至于能够为你编写邮件和管理收件箱。你可以使用简单的英语或其他语言编写请求,人工智能将会生成有关工作的丰富文稿。

正如我在2月份的文章中所说,生产力的提高对社会是有好处的。它让人们拥有更多的时间做其他的事情,无论是在工作上还是在家里。对于那些帮助他人的工作(比如教书、照顾病人和赡养老人),则永远不会消失。但随着我们向以人工智能驱动的工作进行过渡时,确实需要针对一些工人提供支持和再培训。这是政府和企业的职责,他们需要妥善的进行管理,以使工人们不会掉队,避免出现像美国制造业就业岗位减少时那样对人们的生活造成干扰。

另外,请记住,这并不是新技术第一次引起劳动力市场的重大转变。我认为人工智能带来的影响并不会像工业革命那样剧烈,但它肯定会像个人电脑的出现时那样大。虽然文字处理程序并没有取代办公室的工作,但它确实永远的改变了办公室的工作。雇主和雇员们都必须适应这些转变,他们确实也做到了。人工智能所引起的转变将是一个坎坷的过渡过程,但我们有充分的理由相信,我们可以减少对人们生活和生计的干扰。

人工智能继承了我们的偏见并编造了一些事情

幻觉,这个术语是指人工智能自信地做出一些根本不正确的主张,这通常是因为机器不理解你请求的上下文。让人工智能写一篇关于去月球度假的短篇故事,它可能会给你一个非常富有想象力的答案。但是如果让它帮助你计划一次去坦桑尼亚的旅行,它可能会试图将你送到一个并不存在的酒店。

人工智能的另一个风险是,它反映甚至加剧了针对某些性别认同、种族、民族等的现有偏见。

为了理解幻觉和偏见发生的原因,了解当今最常见的人工智能模型是如何工作的非常重要。它们本质上是非常复杂的代码版本,使得电子邮件程序能够预测你将要输入的下一个单词:通过扫描大量的文本(在某些情况下几乎是在线可用的所有内容),并对其进行分析以找到人类语言的模式。

当你向人工智能提出问题时,它会查看你使用的单词,然后搜索与这些单词经常相关联的文本块。如果你提出的问题是“列出煎饼的成分”,它可能会注意到“面粉、糖、盐、发酵粉、牛奶和鸡蛋”这些词汇经常与该短语一起出现。然后,根据它对这些单词通常出现的顺序的了解,它会生成一个答案。(以这种方式工作的人工智能模型使用了所谓的transformer。GPT-4 就是这样一个模型。)

这个过程解释了为什么人工智能可能会出现幻觉或表现出偏见,因为它没有关于你提出的问题或所说的内容的上下文。如果你告诉它回答的内容有误,它可能会说:“对不起,我打错了。” 但这只是一种幻觉,实际上它并没有输入或操作什么内容。它之所以会这样说,是因为它已经扫描了足够多的文本,知道了“对不起,我打错了”是一个人们在被他人纠正后经常会写下/回答的句子。(人工智能的这种反应仅仅是一种幻觉,并没有真正发生输入错误这回事。)

同样,人工智能模型会继承它们所训练的文本中所包含的任何偏见。如果一个模型学习了大量关于医生的文章,而这些文章主要提到了男性医生,那么它的答案将假设大多数医生都是男性。

尽管一些研究人员认为幻觉是一个固有的问题,但我并不同意。我乐观地认为,随着时间的推移,人工智能模型可以学会区分事实与虚构。例如,OpenAI正在这方面进行着有前途的工作。

其他组织,包括艾伦图灵研究所和国家标准与技术研究所,正在研究偏见问题。一种方法是将人类价值观和更高层次的推理构建到人工智能中。这类似于有自我意识的人的工作方式:也许你会假定大多数医生都是男性的,但却足够清醒地知道必须有意的克服这种假设。人工智能可以以类似的方式进行运作,特别是如果模型是由来自不同背景的人设计的。

最后,每个使用人工智能的人都需要意识到偏见问题,并成为一个知情的用户。你让人工智能起草的文章,可能充满偏见,就像充满了事实错误一样。因此,我们需要检查人工智能存在的偏见,以及自己的偏见。

学生不会学习写作,因为人工智能会为他们完成了这项工作

许多教师担心人工智能会破坏他们与学生之间的合作关系。当任何能上网的人都可以使用人工智能写出一篇相当好的论文初稿时,有什么能阻止学生将其作为自己的作品上交呢?

现在已经有一些人工智能工具正在学习如何判断某篇文章是人写的还是计算机写的,这样老师就可以判断学生什么时候没有自己完成作业。但是,有些老师并没有试图阻止学生在写作中使用人工智能,他们实际上是在鼓励使用人工智能。

今年1月,一位名叫Cherie Shields的资深英语教师在《教育周刊》(Education Week)上写了一篇文章,讲述了她如何在课堂上使用ChatGPT。这个工具帮助她的学生完成了从开始写论文到编写纲要,甚至是给他们的作品提供反馈的所有事情。

“教师必须接受人工智能技术,将其作为学生可以使用的另一种工具,”她写道。“就像我们曾经教学生如何正确的使用Google搜索一样,教师应该围绕着“ChatGPT机器人如何辅助论文写作”来设计出清晰的课程。承认人工智能的存在并帮助学生与之协作,这可能会彻底改变我们的教学方式。” 并不是每个老师都有时间学习和使用新的工具,但是像Cherie Shields这样的教育家提出了一个很好的论点,即那些愿意这样做的人将会受益匪浅。

这让我想起了20世纪70年代和80年代电子计算器普及的时期。一些数学老师担心学生将不再学习如何进行基本的算术运算,但其他教师则拥抱了新技术,并专注于算术背后的思维技能。

人工智能还有另一种对写作和批判性思维有帮助的方式。特别是在早期,当幻觉和偏见仍然是一个问题的时候,教育工作者可以让人工智能生成文章,然后与学生一起检查内容是否符合事实。像我资助的可汗学院(Khan Academy)和OER项目(OER Project)这样的教育非营利组织,为教师和学生提供了一些免费的在线工具,这些工具非常重视对断言的检查(核实观点、陈述内容的真实性和准确性)。没有什么技能比知道如何区分真假更重要的了。

我们需要确保教育软件能够缩小成绩的差距,而不是让差距变得更大。目前的软件主要是针对那些有上进心的学生,它可以为你制定学习计划,为你提供优质的资源,并测试你的知识水平。但它还不知道如何引导你进入一个你不感兴趣的学科。这是开发人员需要解决的问题,以便各类学生都能从人工智能中受益。

下一步是什么?

我相信,我们有更多的理由对“我们能够管理人工智能的风险,同时最大化其利益”感到乐观。但是我们需要快速行动。

政府需要建立在人工智能方面的专业知识,以便制定出应对这一新技术的法律和法规。他们需要应对错误信息和深度伪造、安全威胁、就业市场的变化以及对教育的影响。举个例子:法律需要明确深度伪造的哪些用途是合法的,以及应该如何给深度伪造贴上标签,以便每个人都明白他们所看到或听到的东西不是真实的。

政治领导人需要具备与选民进行充分、深入对话的能力。他们还需要决定在这些问题上与其他国家合作的程度,而不是单独行动。

对于私营部门,人工智能公司需要安全、负责地开展工作。这包括保护人们的隐私,确保他们的人工智能模型反映基本的人类价值观,最小化偏见,让尽可能多的人受益,以及防止技术被犯罪分子或恐怖分子使用。对于各个经济领域的公司,需要帮助他们的员工过渡到以人工智能为中心的工作环境,以确保所有人都不会掉队。而且,应该始终让客户知道他们是在与人工智能互动,还是在跟人类互动。

最后,我鼓励大家尽可能多地关注人工智能的发展。这是我们在有生之年会见证的最具变革性的创新,而一个健康的公共辩论依赖于每个人对这项技术、其益处及其风险的了解。其潜在的好处将是巨大的,我们相信能够管理好这些风险的最佳理由是,我们曾经已经做到了。