首页
首页 > 国内 > > 详情

“AI将使人类灭绝的说法令人窒息”-世界热文

2023-06-10 09:11:33来源:腾讯网

“AI将使人类灭绝的说法令人窒息”

著名AI研究者、纽约大学副教授Kyunghyun Cho因其在神经机器翻译方面的基础工作而备受学界推崇,这些工作有助于促成ChatGPT所依赖的 Transformer 架构的开发。日前,Cho在接受媒体采访时表示,他对于当前围绕AI风险的讨论表示失望。

Cho称,最近美国参议院举行的听证会既没有具体提案,也没有对AI潜在危害的相关规范,更缺乏关于如何促进AI有益用途的讨论。


(资料图片仅供参考)

虽然杰弗里·辛顿 (Geoffrey Hinton) 和约书亚·本吉奥 (Yoshua Bengio) 等名人最近警告说,未来通用人工智能 (AGI) 的发展可能对人类生存构成威胁,并呼吁监管或暂停研究,但Cho 认为,这些“末日预言”的说法分散了人们对真正问题的关注——即今时今日的AI所带来的正面和负面影响。

以下为采访实录(经编辑有删减):

你最近在Twitter 上发文表示,对最近的 AI 参议院听证会表示失望。您能否对此进行详细说明,并分享您对辛顿、本吉奥等人签署的“ AI 风险声明”的看法?

首先,我认为最近这类公开信太多了。我从来没有签署过这种请愿书。当我在某样东西上签名时,我总是很小心。至于参议院的听证会,我看了完整的笔录,心里有点难过。很明显,核武器、气候变化、潜在的流氓AI,都可能是危险的,但AI实际上造成了许多其他危害,当然我们也能从AI获得直接的好处,可惜的是现在没有关于我们可以对AI的益处和害处做些什么的建议或讨论。

例如,LindseyGraham指出了AI的军事用途。这实际上也确实如此。但 SamAltman(OpenAI CEO)甚至无法就如何监管AI 的直接军事使用提出任何建议。与此同时,AI有可能优化医疗保健,以便我们可以实施更好、更公平的医疗保健系统,但也没有人讨论过这些。

我对社会上关于AI风险的讨论感到失望,有人甚至将其和“人类灭绝”划上等号。真令人窒息。

为什么这样说?

从某种意义上说,这是一个很棒的故事:我们创建的这个 AGI 系统被证明和我们一样好,或者比我们更好。那正是人类从一开始就抱有的幻想。特洛伊木马(看似无害但实际上是恶意的)是一个类似的故事,对吧?就是在夸大比人类更聪明的地方。

在我看来,公众对我们正在取得的科学进步着迷和兴奋是件好事。不幸的是,科学家和政策制定者,也就是创造这些进步或做出决策的人,仅仅是对这些进步感到积极或消极的兴奋,而不是带着批判的眼光来看待它。作为科学家和政策制定者,我们的工作应该是对许多可能对社会产生积极和消极影响的进步持批评态度。但目前,AGI有点像一根魔杖,他们只是想挥动它来迷住人们,让人们不再对正在发生的事情持批评态度。

机器学习的先驱者们呢?例如,辛顿和本吉奥签署了“AI风险声明”。本吉奥曾表示,他感到“迷失”,并对自己毕生的工作感到有些遗憾。你有什么看法?

我非常尊重本吉奥和辛顿以及杨立昆,我对他们都非常了解,并曾经在他们的指导下学习和工作。但我的看法是:无论你是不是科学家,你都可以对哪些事情更有可能发生、哪些事情不太可能发生、哪些事情比其他一些事情更具破坏性等做出自己的评估和判断。任何事物都是有主观性的。这完全没问题。

‍‍但我认为本吉‍奥和辛顿[反复强调‍]的一个真正有问题的方面‍……尤其是在最近的媒体报道中展示的,是一种典型的科学英雄主义。这‍与‍科学界,尤其是机器学习领域中实际发生的情况完全是两码事。

从来没有一个科学家在实验室工作20 年,然后出来说“这就‍是 AGI”。这始终是全世界成千上万人、甚至数十万人集体努力的成果。‍‍‍‍‍‍

但现在,英雄科学家的故事又回来了。人们总是把辛顿和本吉奥放在首位,而这是有原因的。这实际上是一种我之前从未想过的有害方式。过去,每当人们用这种英雄科学家的调调来谈论他们的问题时,我一般都会说,“哦,好吧,这是一个有趣的故事。为什么不呢?”

但看看现在发生的事情吧,我们正在看到英雄科学家的消极面。科学家们也都是人。他们可以有不同的想法。当然,我尊重他们,我也认为这是科学界一贯的工作方式,我们总是有不同意见。但现在这种英雄崇拜,再加上这种 AGI 的宿命论……我不知道,这对我来说太过分了。

另一件让我感到奇怪的事情是,很多请愿书,比如AI风险声明,都是由有效利他主义(Effective Altruism)的人在幕后资助的(AI风险声明是由AI安全中心发布的,其90%以上的资金来自OpenPhilanthropy ,而后者的主要资助人又是有效利他主义运动的著名捐助者Dustin Moskovitz及其妻子Cari Tuna。Dustin是Facebook的前联合创始人之一,后来创办了办公软件Asana,Cari曾是《华尔街日报》记者,两人累计捐赠超过14亿美元)你怎么看?

我并不是有效利他主义的粉丝。而且我非常清楚这样一个事实,即EA运动实际上正是 AGI 及其存在风险背后的主要推动力。我觉得硅谷有这种救世主情结的人太多了。他们都想把我们从不可避免的厄运中拯救出来,而这种厄运只有他们能看到,并且只有他们才能解决。

从这个意义上来说,我同意Sara Hooker (研究负责任的机器学习专家,编译者注)的说法:这些人的声量很大,但他们在整个社会中仍然是边缘群体,更不用说在整个机器学习社区中了。

那么与之相反的立场是什么?你会自己写信或发表自己的声明吗?

有些事情你不能写信。如果写一封信说“有流氓AI会把每个人都变成回形针,这种事绝对不可能发生”,那太荒谬了。

我的职业是教育工作者。我觉得目前缺少的是,为了让AI造福人类我们正在做些什么样的小事的报道,我们取得了哪些小小胜利的报道。我们需要让公众了解正在取得的这一点点成功。

可不幸的是,耸人听闻的故事流量更高。要么 AI 会杀死我们所有人,要么 AI 会治愈一切——这两种观点都是不正确的。也许这甚至不该是媒体该负责的部分(解决这个问题)。事实上,这可能是AI 教育(比如K-12)的职责——引入实际上并不复杂的基本概念。

AI 研究人员认为的AI 风险是什么?你们会更关注当前的风险吗?你能补充说明AI将如何发展吗?

我并没有真正告诉过人们我对AI风险的看法,因为我知道我只是一个人,我的权威没有得到过广泛认证。但因为我自己是一名研究人员,所以我在谈论具有不确定性的事物时往往会非常小心,尤其是关于某种预测的时候。

我对 AI 研究人员传达的信息——不是更资深的研究者,他们比我懂得更多——我是说对我的学生,或更初级的研究人员——我只是尽力向他们展示我的工作,以及我认为我们应该努力的方向:小小的进展,但能给我们带来实实在在的好处。

这就是我在医疗保健和科学领域从事 AI 工作的原因,也是为什么我将自己一半的时间花在生物技术公司Genentech 的原因——我们有一部分工作侧重于计算抗体设计和药物设计。我认为这是我所能做的最大努力。我不会写一封叙事宏大的信。我很不擅长这个。

标签:

上一篇:美媒:好莱坞“人类员工”抵制AI求自保
下一篇:最后一页

资源

课程

华北东北地区有降雪 冷空气将影响长江中下游以北大部地区