【新唐人北京时间2023年06月01日讯】奥特曼和其他一些科技界领袖警告说,人工智能(AI)可能给人类带来灭绝的风险,与爆发核战争的后果相当。
人工智能行业专家和科技领袖在一封公开信中表示,人工智能可能导致人类灭绝。而减少与该技术有关的风险,应该是全球的优先事项。
于周二(5月30日)发表的这份声明中写道:“降低人工智能带给人类灭绝的风险,与其它规模的社会风险——如疫情和核战争——相比,应该是一个全球优先事项。”
OpenAI公司是人工智能聊天机器人ChatGPT的制造商。该公司首席执行官山姆‧奥特曼(Sam Altman),以及谷歌人工智能部门DeepMind和微软的高管,都支持并签署了这份人工智能安全中心(Center for AI Safety)的简短声明。
在聊天机器人ChatGPT于2022年11月份公开发布、并供公众使用后,该人工智能技术在随后的数月内迅速走红,而且发展速度变得更快。
在发布后的短短2个月内,ChatGPT的用户数量就达到了1亿。该人工智能聊天机器人能够对用户的提示,作出类似人类的反应,该能力让研究人员和公众感到惊讶。这表明,人工智能完全可以模仿人类,并取代人类完成工作。
周二的这份声明说,关于“人工智能带来广泛的、重要和紧迫的风险”的讨论越来越多,但这些讨论可能“很难涉及到最先进的人工智能可能导致的、最严重的风险”,而发布该声明的目的,就是要克服这一障碍,开启对该问题的讨论。
可以说,ChatGPT引发了人们对人工智能的更多的认识和兴趣。现在,世界各地的主要科技公司,都在竞相开发旨在超越竞争对手的AI产品和AI能力。
奥特曼在3月曾承认,他本人对人工智能感到“有点害怕”。因为他担心专制政权会开发和利用这种技术。其他一些科技领袖,如特斯拉公司的埃隆‧马斯克(Elon Musk)和前谷歌首席执行官埃里克‧施密特(Eric Schmidt)等等,也都对人工智能可能给社会带来的风险提出了警告。
在3月份的一封公开信中,马斯克、苹果公司联合创始人史蒂夫‧沃兹尼亚克(Steve Wozniak),以及一些科技界领袖敦促人工智能研究实验室,停止训练比GPT-4更强大的AI系统。GPT-4是OpenAI公司外界所知的、最新最大型的语言模型。他们还呼吁将这种针对更高级人工智能的开发工作暂停6个月。
信中说:“当代人工智能系统已开始在一般任务上与人类展开竞争。”
信中问道:“我们是否应该把所有的工作都自动化,包括那些能够带来成就感的工作?我们是否应该开发非人类的大脑?它们的数量最终可能会超过我们,它们的智慧最终会胜过我们,它们能够最终淘汰和取代我们。我们是否应该冒着失去对我们文明控制的风险去开发它们?”
在上周,施密特再次警告说,随着人工智能技术的发展,人类将面对与AI相关的“生存风险”。
(转自大纪元/责任编辑:叶萍)