AI顶尖专家联署警告:人工智能令“人类灭绝”风险等同核战

2023-05-31 09:38

AI(人工智能)威胁人类生存,这种说法之前已分别有科技界强人提出过,许多人觉得是杞人忧天,但若是数十位甚至数百位AI专家都这样说,你又会怎样想?

包括研发ChatGPT聊天机器人的公司OpenAI行政总裁奥特曼(Sam Altman)在内的300多名科技界人士,连署声明呼吁全球领导人尽力设法降低AI技术带来的“人类灭绝”风险。

OpenAI公司研发的ChatGPT人工智能机械人技术引发最新一轮AI热潮,是AI发展的最大受益者,奥特曼有份参与连署,令声明更具说服力。

该声明发布在非营利组织“人工智慧安全中心”(Center for AI Safety, CAIS)的网页上,路透社报道形容,联署者有许多是人工智能领域中的顶级专家、教授和企业高管,除了OpenAI行政总裁奥特曼,还有另外两间知名人工智能公司 DeepMind 和 Anthropic 的行政总裁,以及网络巨头微软和谷歌的高管。

声明提出:“减轻人工智能灭绝的风险,应该等同于流行病和核战争,一起成为全球优先事项”。

声明未有详细说明人工智能可能带来的潜在生存威胁,CAIS表示,声明旨在带起关注对人工智能技术风险的关注及讨论。

声明的350名签署人中,包括弓被称为“AI教父”的哈佛大学教授辛顿(Geoffrey Hinton),而辛顿之前也曾提出类似的警告。

2个月前,美国首富马斯克(Elon Musk)和其他数百名专家也曾发表一封公开信,呼吁在确定安全无虞之前,暂缓AI研发工作。

以上内容归星岛新闻集团所有,未经许可不得擅自转载引用

相关阅读