OpenAI掌门人:AI已出现推理能力 AGI有杀人可能性

【新唐人北京时间2023年03月29日讯】美国人工智能研究机构OpenAI的掌门人、现任首席执行官(CEO)山姆‧奥特曼,近日在接受一位科技主播的专访时表示,现在AI已经出现让人无法解释的推理能力,将来过于强大的通用人工智能(AGI)杀死人类也是有可能的。

奥特曼是在3月25日接受科技主播、MIT人工智能研究员Lex Fridman的专访时,作出了上述表示。

在这场长达2个半小时的对话中,奥特曼谈论了AI竞争战、GPT-4开发内幕、人工智能的安全与偏见、他对马斯克的评价、如何看待利用ChatGPT越狱以及AGI发展前景等多个热点话题。

奥特曼在专访中说,ChatGPT在可用性方面取得的重大突破,以及RLHF(基于人类反馈的强化学习)的成功应用,让ChatGP有资格成为人工智能的里程碑。

关于GPT-4的研发情况,是这场对话中最受人们关注的一部分。

奥特曼披露,研发人员是依照预训练+RLHF的方式来对GPT-4进行训练的。大约在去年夏天,GPT-4的训练就已经完成,之后一直在进行更深入的微调工作,以便让这款AI可以表现得更符合人类的需求。他说,与庞大的预训练数据集相比,RLHF所用的数据非常少,但效果是决定性的。

奥特曼还透露,GPT-4的数据来源除一些开源数据集外,还有部分是合作商提供的数据集。他说,目前网络梗图在训练数据中占比不大,如果数据来源再多点,GPT-4的回答可能会更加有趣。

奥特曼接着透露说,虽然ChatGPT系列绝大部分时候都被当做数据库使用,但它确实也表现出了让人难以解释的某种程度的“推理能力”。至于这种能力具体是如何出现的,目前无人能回答。研究团队甚至奥特曼自己,至今也不能完全解读GPT-4,只能通过不断问它问题,然后根据它的回答来分析它的“思路”。

当主持人提到关于ChatGPT以及GPT-4存在“偏见”的问题时,奥特曼回答说,ChatGPT在推出之初并不是一个成熟的产品,这项技术需要不断迭代,而迭代的过程仅仅依靠内部的力量是无法完成的,需要借助外部世界的集体智慧和能力来进行。然而,在迭代的过程中,不同人对于问题的看法千差万别,“偏见”问题也就不可避免。

奥特曼承认,GPT-4确实存在应对不同价值观的人的问题,而临时的解决办法是把更改系统消息(system message)的权限开放给用户。

据奥特曼介绍,将来研发人员会就这些系统能做什么来达成一套非常宽泛的协议,在这些边界内,不同的国家可能会有不同的RLHF调整,个别用户也有非常不同的偏好。他说:“我们发布了一个叫做‘系统消息’的东西,不是RLHF,但可以让用户最大限度获得控制权。”

2023年3月25日,美国人工智能研究机构OpenAI的掌门人、现任首席执行官(CEO)山姆‧奥特曼接受了科技主播Lex Fridman的专访。(视频截图)

主持人Lex在访谈过程中,突然提到了当前用户对GPT-4提出的一些尖锐的批评。

例如,前段时间网民讨论得沸沸扬扬的利用GPT-4越狱的问题。一名斯坦福教授仅仅用30分钟,就诱导GPT-4制定出了一个越狱计划,并全部展示了出来。

对此奥特曼回应称,他自己当年也曾经用自己的第一台苹果手机尝试过设计“越狱”,当时觉得这是个“很酷”的事情,但现在已经没有多少人去干用苹果“越狱”的事情了,因为不越狱也足够好用了。

此外,在谈及马斯克近期不断公开对OpenAI提出批评和质疑的话题时,奥特曼表示,“我理解他(马斯克)的想法,因为他很担心AGI(通用人工智能)的安全性。

奥特曼说,“我很欣赏埃隆(马斯克),他是我的英雄之一。尽管他在推特上有点粗暴,我希望他能更多地关注到,我们正在进行一项艰苦工作。”

当被问及“GPT-4是AGI吗”这个问题时,奥特曼表示,据他的理解,AGI所掌握的知识应该是要超过人类科学知识总和的,并且具有创造性,能够推动基础科学的发展。而目前所有的GPT并不能做到这些,想要达到AGI的水准,还需要继续拓展。

在谈到人们关于AGI过度发展可能给人类带来威胁,甚至有可能杀死人类的问题时,奥特曼表示,他不否认过分强大的AGI可能存在这样的危险性。

“我必须承认,(AI杀死人类)是有一定可能性的,”奥特曼说,“很多关于AI安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法”。

(责任编辑:李明)

相关文章
评论