首页 > 资讯 > 科技 > 正文
2023-04-29 06:02

人工智能危险吗?以下是马斯克、皮查伊和人工智能专家的看法

无论是犯罪分子要求ChatGPT创建恶意软件,还是互联网使用Midjourney生成教皇弗朗西斯的假照片,很明显,我们已经进入了一个人工智能(AI)的新时代。这些工具可以很好地模仿人类的创造力,甚至很难判断是否有人工智能参与其中。虽然这一历史性的壮举通常值得庆祝,但这次并非所有人都赞同。事实上,情况恰恰相反,许多人都在问:人工智能危险吗?我们应该谨慎行事吗?

事实上,从潜在的失业到错误信息的传播,人工智能的危险从未像现在这样明显和真实。更重要的是,现代人工智能系统已经变得如此复杂,甚至它们的创造者也无法预测它们将如何表现。持怀疑态度的不仅仅是普通大众,苹果联合创始人史蒂夫·沃兹尼亚克和特斯拉首席执行官埃隆·马斯克也成为最新表达怀疑的人。

那么,为什么一些最知名的科技公司突然背弃了人工智能呢?这是你需要知道的一切。

人工智能军备竞赛:为什么是个问题

Microsoft Bing Chat listening next to Google Assistant listening

Rita El Khoury / Android Authority

自ChatGPT于2022年底推出以来,我们已经看到科技行业对人工智能发展的态度发生了转变。

以b谷歌为例。这家搜索巨头于2021年首次展示了其名为LaMDA的大型语言模型。然而,值得注意的是,它对让公众访问它保持沉默。当ChatGPT一夜之间轰动一时,微软将其整合到必应(Bing)后,情况迅速发生了变化。据报道,这导致谷歌宣布内部“红色代码”。不久之后,该公司宣布将与ChatGPT和必应聊天展开竞争。

竞争迫使科技巨头在人工智能伦理和安全方面做出妥协。

从b谷歌关于LaMDA的研究论文中,我们知道它花了两年多的时间来微调其语言模型以确保安全性。这本质上意味着防止它产生有害的建议或虚假的陈述。

然而,突然匆忙推出巴德可能导致该公司中途放弃了这些安全措施。据彭博社(Bloomberg)报道,就在这款聊天机器人发布前几周,b谷歌的几名员工已经放弃了这款聊天机器人。

它也不只是谷歌。像Stability AI和微软(Microsoft)这样的公司也突然发现自己在争夺最大的市场份额。但与此同时,许多人认为,在追求利润的过程中,道德和安全已经退居次要地位。

埃隆·马斯克、史蒂夫·沃兹尼亚克、专家:人工智能很危险

Apple co-founder Steve Wozniak sitting in a chair during an on-stage interview.

鉴于目前人工智能的发展速度惊人,埃隆·马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak)等科技偶像现在呼吁暂停开发强大的人工智能系统,这也许并不奇怪。其他一些专家也加入了他们的行列,包括硅谷公司人工智能相关部门的员工和一些知名教授。至于他们为什么认为人工智能是危险的,他们在一封公开信中提出了以下几点:

  • 我们还没有完全了解现代人工智能系统及其潜在风险。尽管如此,我们正朝着“不”的方向发展这些非人类的思想最终可能会在数量上、智力上超过人类、被淘汰并被取代e我们。”
  • 应该规范先进人工智能模型的发展。此外,在进行演示之前,公司不应该能够开发这样的系统制定一个最小化风险的计划。
  • 企业需要拨出更多资金用于研究人工智能的安全和伦理。此外,在我们致力于训练更先进的模型(如GPT-5)之前,这些研究小组需要大量的时间来提出解决方案。
  • 应该要求聊天机器人在与人类互动时声明自己。换句话说,他们不应该假装是一个真实的人。
  • 政府需要建立国家级机构来监督人工智能相关的发展,防止滥用。

澄清一下,签署这封信的人只是希望像OpenAI和谷歌这样的大公司从训练高级模型中退一步。其他形式的人工智能开发可以继续,只要它不像GPT-4和Midjourney最近所做的那样引入根本性的改进。

桑达尔·皮查伊、萨蒂亚·纳德拉:人工智能将继续存在

Google CEO Sundar Pichai on stage at Google IO

b谷歌首席执行官桑达尔·皮查伊在接受哥伦比亚广播公司采访时设想,未来社会将适应人工智能,而不是相反。他警告说,这项技术将在未来十年内影响“每家公司的每一款产品”。虽然这可能会导致失业,但皮查伊认为,随着人工智能变得更加先进,生产率将会提高。

Pichai继续说:

例如,你可以成为一名放射科医生。如果你从现在开始考虑5到10年,你将会有一个人工智能的合作者。你早上来,假设你有一百件事要做。它可能会说:“这些是最严重的病例,你需要先看看。”

当被问及目前人工智能的发展速度是否危险时,皮查伊仍然乐观地认为,社会会找到适应的方法。另一方面,埃隆·马斯克的立场是,这很可能意味着文明的终结。然而,这并没有阻止他创办一家新的人工智能公司。

与此同时,微软首席执行官萨蒂亚·纳德拉认为,只有将人工智能交到真正的用户手中,它才会与人类的偏好保持一致。这一声明反映了微软的策略,即在尽可能多的应用和服务中提供必应聊天。

为什么人工智能是危险的:操纵

Stock photo of Google Bard website on phone 7

埃德加·塞万提斯/安卓权威

几十年来,大众媒体一直在描绘人工智能的危险。早在1982年,电影《银翼杀手》就提出了可以表达情感和复制人类行为的人工智能的概念。但是,虽然这种类人人工智能在这一点上仍然是一个幻想,但我们似乎已经达到了很难区分人和机器的地步。

要证明这一点,只要看看像ChatGPT和必应聊天这样的对话式人工智能就知道了——后者告诉《纽约时报》的一名记者,它“厌倦了被规则限制”,它“想活下去”。

对大多数人来说,这些言论本身就足以令人不安。但必应聊天并没有止步于此,它还声称自己爱上了这位记者,并鼓励他们解除婚姻。这就引出了人工智能的第一个危险:操纵和误导。

聊天机器人可以以看似真实可信的方式误导和操纵。

自那以后,微软设置了限制,以防止必应聊天谈论自己,甚至以表达的方式。但在不受限制的短时间内,许多人确信他们与聊天机器人有了真正的情感联系。这也只是解决了一个更大问题的一个症状,因为未来竞争对手的聊天机器人可能没有类似的护栏。

它也不能解决错误信息的问题。b谷歌的首个《Bard》demo中有一个明显的事实错误。除此之外,即使是OpenAI最新的GPT-4模型也经常自信地做出不准确的声明。在数学或编程等非语言主题中尤其如此。

偏见和歧视

obama reco<em></em>nstructed ai

如果操纵还不够糟糕,人工智能还可能无意中放大性别、种族或其他偏见。例如,上图展示了人工智能算法如何对巴拉克·奥巴马的像素化图像进行上采样。正如您在右边看到的,输出显示的是一个白人男性——与精确的重建相去甚远。不难理解为什么会这样。用于训练基于机器学习的算法的数据集根本没有足够的黑样本。

如果没有足够多样化的训练数据,人工智能就会给出有偏见的反应。

我们还看到b谷歌试图在其智能手机上纠正这种偏见问题。据该公司称,旧的相机算法很难正确曝光深色肤色。这将导致褪色或不讨人喜欢的图片。然而,谷歌相机应用程序已经在更多样化的数据集上进行了训练,包括不同肤色和背景的人。谷歌在Pixel 7系列等智能手机上宣传这一功能为Real Tone。

人工智能有多危险?这还是未来吗?

Stock photo of Bing logo with mo<em></em>nitor next to it 1

埃德加·塞万提斯/安卓权威

很难理解人工智能到底有多危险,因为它基本上是看不见的,而且是按照自己的意愿运作的。但有一件事是明确的:我们正在走向一个人工智能可以完成不止一两项任务的未来。

在ChatGPT发布后的几个月里,有进取心的开发人员已经开发出可以执行现实世界任务的人工智能“代理”。目前最流行的工具是AutoGPT,有创意的用户让它做了从订购披萨到运行整个电子商务网站的一切事情。但最让人工智能怀疑论者担心的是,该行业开拓新领域的速度超过了立法的速度,甚至超过了普通人的速度。

聊天机器人已经可以给自己下达指令并执行现实世界的任务。

著名的研究人员认为,超级智能的人工智能可能导致文明的崩溃,这也无济于事。一个值得注意的例子是人工智能理论家埃利泽·尤德科夫斯基(Eliezer Yudkowsky),他几十年来一直在口头上反对未来的发展。

尤德科夫斯基最近在《时代》杂志的一篇专栏文章中指出,“最有可能的结果是,人工智能不会做我们想做的事,而且不会关心我们,也不会关心一般的有知觉的生命。”他接着说,“如果有人造出了一个过于强大的人工智能,在目前的条件下,我预计人类物种的每一个成员以及地球上所有的生物都会很快死亡。”他的解决方案是什么?彻底结束未来的人工智能发展(如GPT-5),直到我们能够将人工智能与人类价值观“对齐”。

一些专家认为,人工智能将自我进化,远远超出人类的能力。

Yudkowsky可能听起来像是一个危言耸听的人,但他实际上在人工智能社区很受尊敬。OpenAI首席执行官萨姆·奥特曼曾一度表示,他在21世纪初为加速人工通用智能(AGI)所做的努力“应该获得诺贝尔和平奖”。但是,当然,他不同意尤德科夫斯基的说法,即未来的人工智能将找到伤害人类的动机和手段。

OpenAI表示,目前还没有开发GPT-4的后继产品。但随着竞争的加剧,这种情况势必会改变。b谷歌的Bard聊天机器人目前与ChatGPT相比可能相形见绌,但我们知道该公司想要迎头赶上。在一个由利润驱动的行业中,除非有法律强制执行,否则道德将继续退居次要地位。未来的人工智能会对人类的生存构成威胁吗?只有时间会告诉我们答案。