斯坦福大学报告:人工智能恐致“核级灾难”

【新唐人北京时间2023年04月11日讯】2022年以来,人工智能AI)技术飞速发展,从谷歌的DeepMind预测人体中几乎所有已知蛋白质的结构,到OpenAI的生成性人工智能助理工具DALL-E和ChatGPT的成功发布,但许多专家担心AI可能对世界产生灾难性影响

斯坦福大学人工智能研究所本月初发表的一份关于AI技术的年度报告,在参与调查的研究人员中,36%的人认为AI的影响不是积极的,他们警告说AI做出的决定可能导致“核级灾难”。

虽然绝大多数研究人员说人工智能和自然语言处理(计算机科学中与开发AI有关的分支)对未来的净影响将是积极的,但人们仍然担心该技术可能很快发展出潜在的危险能力,而传统的守门人已不再像以前那样强大。

根据该报告,大约3/4的自然语言处理研究人员表示,AI技术可能很快引发“革命性的社会变化”。

“随着创建和部署生成性人工智能系统的技术门槛急剧降低,对公众来说,围绕人工智能的伦理问题变得更加突出”,报告说,“初创企业和大公司发现自己处于部署和发布生成模型的竞赛中,该技术不再由一小群行为者控制。”

在过去的几个月里,对AI的担忧大多集中在该技术对社会的破坏性影响上。根据高盛上个月的一份研究报告,如果生成性人工智能充分发挥其潜力,美国和欧洲有多达3亿份工作面临风险,其中法律和行政职业面临的风险最大。

此外,生成性人工智能也引发了人们对该技术不准确的担忧。微软和谷歌的人工智能产品都经常做出不真实或误导性的陈述。

与此同时,人工智能的快速发展意味着没有大胆创新的公司和个人可能会被甩在后面,而且该技术可能很快就会发展到人们无法想像的程度。

斯坦福大学的报告,57%的研究人员称,以AI目前的发展速度,该技术正在从生成性人工智能向创造人工通用智能发展。人工通用智能(AGI)是一种能够准确模仿甚至超越人脑能力的人工智能系统。

接受调查的斯坦福大学研究人员中约有58%称AGI是一个“重要的关注点”。如果AGI真的能够成为现实,它将可能代表人类历史和发展的一个开创性时刻,但当人类失去对该技术发展的控制时,人工智能将获得高于人类的智能。

调查发现,斯坦福大学的专家们最关心的问题是当前的AI研究过于关注规模化、实现目标,而未能涵盖其它不同的研究领域的考虑。随着对AI技术更大影响的研究继续进行,其他专家也提出了类似的担忧,呼吁主要开发商放慢AI的发展步伐。

上个月,1,300名签署者联合发出一封公开信,包括马斯克(Elon Musk)和史蒂夫·沃兹尼亚克(Steve Wozniak),他们呼吁6个月内禁止人工智能公司开发更强大的版本。

(记者李昭希综合报导/责任编辑:林清)

相关文章
评论
新版即将上线。评论功能暂时关闭。请见谅!