行业热点

OpenAI的Sam Altman称AGI可能会成为现实,究竟指的是什么?

发布日期:2025-01-08 08:29

在2025年初,Sam Altman发表了一份大胆的声明:OpenAI已经成功找到了创造通用人工智能(AGI)的方法。这个术语通常被解释为人工智能系统能够理解、学习和执行人类可以完成的任何智力任务。

OpenAI的Sam Altman称AGI可能会成为现实,究竟指的是什么?

在一个反射博客文章在周末发表的一篇文章中,他还表示,第一波人工智能代理可能会在今年加入劳动力队伍,这标志着他所说的技术史上的关键时刻。

Altman描绘了OpenAI从一个安静的研究实验室到一家声称即将创建AGI的公司的历程。

这个时间表似乎雄心勃勃——也许太雄心勃勃了——虽然ChatGPT在一个多月前刚刚庆祝了它的第二个生日,但Altman表示,能够进行复杂推理的下一代人工智能模型已经出现了。

从那时起,这一切都是为了将接近人类的人工智能融入社会,直到人工智能在所有方面都击败我们。

温,温?

Altman对AGI含义的阐述仍然模糊不清,他的时间表预测引起了人工智能研究人员和行业资深人士的关注。

Altman写道:“我们现在有信心,我们知道如何按照传统理解来构建AGI。我们相信,在2025年,我们可能会看到第一批人工智能代理‘加入劳动力’,并实质性地改变公司的产出。”

Altman的解释很模糊,因为AGI没有标准化的定义。随着人工智能模型变得越来越强大,但不一定更有能力,每次都需要提高标准。

Fetch.AI首席执行官兼ASI联盟主席Humayun Sheikh表示:“在考虑Altman对AGI级人工智能代理的看法时,重要的是要关注AGI的定义是如何演变的。”解密.

谢赫说:“虽然这些系统已经可以通过许多与AGI相关的传统基准测试,如图灵测试,但这并不意味着它们是有感知的。”。“AGI还没有达到真正的感知水平,我认为在相当长的一段时间内都不会达到。”

奥特曼的乐观情绪与专家共识之间的脱节引发了人们对他所说的“AGI”的含义的质疑。他对人工智能智能智能智能体在2025年“加入劳动力队伍”的阐述听起来更像是先进的自动化,而不是真正的通用人工智能。

他写道:“超级智能工具可以极大地加速科学发现和创新,远远超出我们自己的能力范围,进而大大增加财富和繁荣。”。

但Altman说AGI或代理整合将在2025年成为一件事,这是正确的吗?不是每个人都这么肯定。

去中心化超级应用Galxe的联合创始人Charles Wayn表示:“现有的人工智能模型存在太多的错误和不一致之处,必须首先解决。”解密。“也就是说,我们可能需要几年而不是几十年才能看到AGI级别的人工智能代理。”

一些专家怀疑奥特曼的大胆预测可能有另一个目的.

无论如何,OpenAI已经烧钱以天文数字的速度,需要大量投资来保持其人工智能发展的正轨。

尽管该公司的运营成本高昂,但有希望的即将取得的突破可能有助于保持投资者的兴趣一些.

对于一个声称即将实现人类最重大技术突破之一的人来说,这是一个很大的问题。

尽管如此,其他人仍支持奥特曼的说法。

“如果Sam Altman说AGI即将到来,那么他可能有一些数据或商业头脑来支持这一说法,”数字身份平台SPACE ID的业务发展总监Harrison Seletsky告诉路透社解密.

Seletsky表示,如果Altman的说法属实,并且技术在同一领域不断发展,那么“广泛智能的人工智能代理”可能还需要一两年的时间。

OpenAI的首席执行官暗示,AGI对他来说还不够,他的公司的目标是ASI:一种卓越的人工智能发展状态,在这种状态下,模型在所有任务上都超越了人类的能力。

奥特曼在博客中写道:“我们开始将目标转向真正意义上的超级智能。我们喜欢我们目前的产品,但我们在这里是为了美好的未来。有了超级智能,我们可以做任何其他事情。”。

虽然Altman没有详细说明ASI的时间表,但一些人预计机器人可以取代所有人类到2116年.

Altman此前曾表示,ASI只是一个“几千天“然而,预测研究所的专家给出了50%的概率,ASI将在;至少2060年.

知道如何达到AGI并不等于能够达到它。

Meta首席人工智能研究员Yan Lecun表示,由于训练技术或处理如此大量信息所需的硬件的限制,人类距离达到这样的里程碑还有很长的路要走。

Eliezer Yudkowsky是一位非常有影响力的人工智能研究员和哲学家,他也认为这可能是一种炒作,在短期内基本上使OpenAI受益。

人类工人vs人工智能代理

所以,与AGI或ASI不同,代理行为是一种东西人工智能代理的质量和多功能性增长速度比许多人预期的要快。

Crew AI、Autogen或LangChain等框架使创建具有不同功能的AI代理系统成为可能,包括与用户携手合作的能力。

这对普通人意味着什么,这对普通工人来说是危险还是祝福?

专家们并不太担心。

Fetch.ai的Sheikh说:“我不相信我们会在一夜之间看到戏剧性的组织变革。”。“虽然人力资本可能会有所减少,特别是对于重复性任务,但这些进步也可能解决当前遥控飞机系统无法处理的更复杂的重复性任务。

Seletsky还认为,代理人很可能会执行重复性任务,而不是需要一定程度决策的任务。

换句话说,如果人类能够利用自己的创造力和专业知识来发挥自己的优势,并承担自己行为的后果,那么他们就是安全的。

他告诉Decrypt:“我认为在不久的将来,决策不一定会由人工智能代理领导,因为他们可以推理和分析,但他们还没有人类的聪明才智。”。。

至少在短期内,似乎达成了某种程度的共识。

关键的区别在于AGI的方法缺乏“人性”。这是一种客观的、数据驱动的金融研究和投资方法。这可以帮助而不是阻碍财务决策,因为它消除了一些往往导致草率决策的情感偏见,”Galxe的Wayn说。

专家们已经意识到采用人工智能代理可能带来的社会影响。

研究香港城市大学的研究人员认为,生成型人工智能和智能体通常必须与人类合作,而不是取代人类,这样社会才能实现健康和持续的增长。

研究论文写道:“人工智能在各个领域都带来了挑战和机遇,包括技术、商业、教育、医疗保健以及艺术和人文。”。“人工智能与人类的协作是应对挑战和抓住生成性人工智能创造的机遇的关键。”

尽管推动了人类与人工智能的合作,但公司已经开始用人类工人代替人工智能代理,结果喜忧参半。

一般来说,它们总是需要一个人来处理代理由于幻觉、训练限制或仅仅缺乏对上下文的理解而无法完成的任务。

截至2024年,近25%的首席执行官 ;兴奋的他们的想法是,让他们的数字奴役代理农场做与人类相同的工作,而不涉及劳动力成本。

尽管如此,其他专家争论人工智能代理可以说可以做得更好,几乎占CEO工作的80%——所以没有人是真正安全的。

编辑人塞巴斯蒂安·辛克莱

分享到: