财经头条
提升一亿中产阶级阅读效率
打开
李飞飞:理解世界运作方式是AI的下一步,我们需要从大语言模型转向大世界模型
创业邦
4周前
将一只猫的三维(3D)形状呈现为二维(2D)图像的方式是无穷无尽的,这取决于视角、姿势、背景等。...然后,我们和其他研究人员使用图像及其相应的文本标签训练神经网络模型,使得模型能够用简单的句子描述之前未见过的照片。
来源丨Z Potentials(ID:zfunding)
图源丨Princeton University
语言中充满了视觉格言。比如,“眼见为实”,“一幅画胜过千言万语”,“眼不见,心不烦”等等。这是因为我们人类从视觉中获取了很多意义。但并不是一直都具备视觉能力。直到大约 5.4 亿年前,所有生物都生活在水面以下,且它们都无法看见。只有随着三叶虫的出现,动物们才能第一次感知到周围阳光的丰富。接下来发生的事情是非凡的。在接下来的 1 千万到 1.5 千万年中,视觉的能力开启了一个被称为寒武纪大爆发的时期,在这个时期,大多数现代动物的祖先出现了。
今天,我们正在经历人工智能(AI)的现代寒武纪大爆发。似乎每周都有一种新的、令人惊叹的工具问世。最初,生成式AI革命是由像 ChatGPT这样的巨大语言模型推动的,它们模仿人类的语言智能。但我相信,基于视觉的智能——我称之为空间智能——更为根本。语言很重要,但作为人类,我们理解和与世界互动的能力在很大程度上基于我们所看到的。
一个被称为计算机视觉的AI子领域长期以来一直致力于教会计算机拥有与人类相同或更好的空间智能。过去 15 年,该领域迅速发展。并且,在以AI以人为本的核心信念指导下,我将我的职业生涯奉献给了这一领域。
没有人教孩子如何看。孩子们通过经验和例子来理解世界。他们的眼睛就像生物相机,每秒拍摄五张“照片”。到三岁时,孩子们已经看过数亿张这样的照片。
我们需要从大型语言模型转向大型世界模型
我们知道,经过数十年的研究,视觉的一个基本元素是物体识别,因此我们开始教计算机这种能力。这并不容易。将一只猫的三维(3D)形状呈现为二维(2D)图像的方式是无穷无尽的,这取决于视角、姿势、背景等。为了让计算机在图片中识别出一只猫,它需要拥有大量信息,就像一个孩子一样。
这一切直到 2000 年代中期才成为可能。那时,被称为卷积神经网络的算法,经过数十年的发展,遇到了现代 GPU 的强大能力以及“大数据”的可用性——来自互联网、数码相机等的数十亿张图像。
我的实验室为这一融合贡献了“大数据”元素。在 2007 年,我们在一个名为 ImageNet 的项目中创建了一个包含 1500 万张标记图像的数据库,涵盖 22000 个物体类别。然后,我们和其他研究人员使用图像及其相应的文本标签训练神经网络模型,使得模型能够用简单的句子描述之前未见过的照片。利用 ImageNet 数据库创建的这些图像识别系统的意外快速进展,帮助引发了现代AI热潮。
随着技术的进步,基于变换器架构和扩散等技术的新一代模型带来了生成性AI工具的曙光。在语言领域,这使得像 ChatGPT这样的聊天机器人成为可能。在视觉方面,现代系统不仅能够识别,还可以根据文本提示生成图像和视频。结果令人印象深刻,但仍然仅限于2D。
为了让计算机具有人类的空间智能,它们需要能够建模世界、推理事物和地点,并在时间和3D空间中进行互动。简而言之,我们需要从大型语言模型转向大型世界模型。
我们已经在学术界和工业界的实验室中看到了这一点的初步迹象。借助最新的 AI 模型,这些模型使用来自机器人传感器和执行器的文本、图像、视频和空间数据进行训练,我们可以通过文本提示来控制机器人——例如,要求它们拔掉手机充电器或制作一个简单的三明治。或者,给定一张 2D 图像,该模型可以将其转化为用户可以探索的无限数量的合理 3D 空间。
应用是无穷无尽的。想象一下,能够在普通家庭中导航并照顾老人的机器人;为外科医生提供不知疲倦的额外帮助;或者在模拟、培训和教育中的应用。这是真正以人为中心的人工智能,空间智能是它的下一个前沿。人类进化了数亿年所取得的成果,现在在计算机中仅需几十年就能出现。而我们人类将是受益者。
本文翻译自:The Economist, https://www.economist.com/the-world-ahead/2024/11/20/fei-fei-li-says-understanding-how-the-world-works-is-the-next-step-for-ai
编译:ChatGPT
将一只猫的三维(3D)形状呈现为二维(2D)图像的方式是无穷无尽的,这取决于视角、姿势、背景等。...然后,我们和其他研究人员使用图像及其相应的文本标签训练神经网络模型,使得模型能够用简单的句子描述之前未见过的照片。
来源丨Z Potentials(ID:zfunding)
图源丨Princeton University
语言中充满了视觉格言。比如,“眼见为实”,“一幅画胜过千言万语”,“眼不见,心不烦”等等。这是因为我们人类从视觉中获取了很多意义。但并不是一直都具备视觉能力。直到大约 5.4 亿年前,所有生物都生活在水面以下,且它们都无法看见。只有随着三叶虫的出现,动物们才能第一次感知到周围阳光的丰富。接下来发生的事情是非凡的。在接下来的 1 千万到 1.5 千万年中,视觉的能力开启了一个被称为寒武纪大爆发的时期,在这个时期,大多数现代动物的祖先出现了。
今天,我们正在经历人工智能(AI)的现代寒武纪大爆发。似乎每周都有一种新的、令人惊叹的工具问世。最初,生成式AI革命是由像 ChatGPT这样的巨大语言模型推动的,它们模仿人类的语言智能。但我相信,基于视觉的智能——我称之为空间智能——更为根本。语言很重要,但作为人类,我们理解和与世界互动的能力在很大程度上基于我们所看到的。
一个被称为计算机视觉的AI子领域长期以来一直致力于教会计算机拥有与人类相同或更好的空间智能。过去 15 年,该领域迅速发展。并且,在以AI以人为本的核心信念指导下,我将我的职业生涯奉献给了这一领域。
没有人教孩子如何看。孩子们通过经验和例子来理解世界。他们的眼睛就像生物相机,每秒拍摄五张“照片”。到三岁时,孩子们已经看过数亿张这样的照片。
我们需要从大型语言模型转向大型世界模型
我们知道,经过数十年的研究,视觉的一个基本元素是物体识别,因此我们开始教计算机这种能力。这并不容易。将一只猫的三维(3D)形状呈现为二维(2D)图像的方式是无穷无尽的,这取决于视角、姿势、背景等。为了让计算机在图片中识别出一只猫,它需要拥有大量信息,就像一个孩子一样。
这一切直到 2000 年代中期才成为可能。那时,被称为卷积神经网络的算法,经过数十年的发展,遇到了现代 GPU 的强大能力以及“大数据”的可用性——来自互联网、数码相机等的数十亿张图像。
我的实验室为这一融合贡献了“大数据”元素。在 2007 年,我们在一个名为 ImageNet 的项目中创建了一个包含 1500 万张标记图像的数据库,涵盖 22000 个物体类别。然后,我们和其他研究人员使用图像及其相应的文本标签训练神经网络模型,使得模型能够用简单的句子描述之前未见过的照片。利用 ImageNet 数据库创建的这些图像识别系统的意外快速进展,帮助引发了现代AI热潮。
随着技术的进步,基于变换器架构和扩散等技术的新一代模型带来了生成性AI工具的曙光。在语言领域,这使得像 ChatGPT这样的聊天机器人成为可能。在视觉方面,现代系统不仅能够识别,还可以根据文本提示生成图像和视频。结果令人印象深刻,但仍然仅限于2D。
为了让计算机具有人类的空间智能,它们需要能够建模世界、推理事物和地点,并在时间和3D空间中进行互动。简而言之,我们需要从大型语言模型转向大型世界模型。
我们已经在学术界和工业界的实验室中看到了这一点的初步迹象。借助最新的 AI 模型,这些模型使用来自机器人传感器和执行器的文本、图像、视频和空间数据进行训练,我们可以通过文本提示来控制机器人——例如,要求它们拔掉手机充电器或制作一个简单的三明治。或者,给定一张 2D 图像,该模型可以将其转化为用户可以探索的无限数量的合理 3D 空间。
应用是无穷无尽的。想象一下,能够在普通家庭中导航并照顾老人的机器人;为外科医生提供不知疲倦的额外帮助;或者在模拟、培训和教育中的应用。这是真正以人为中心的人工智能,空间智能是它的下一个前沿。人类进化了数亿年所取得的成果,现在在计算机中仅需几十年就能出现。而我们人类将是受益者。
本文翻译自:The Economist, https://www.economist.com/the-world-ahead/2024/11/20/fei-fei-li-says-understanding-how-the-world-works-is-the-next-step-for-ai
编译:ChatGPT
展开
打开“财经头条”阅读更多精彩资讯
相关新闻
李飞飞:理解世界运作方式是AI的下一步,我们需要从大语言模型转向大世界模型
创业邦
4周前
大语言模型还没搞懂,“大世界模型”又来了
果壳
3周前
大语言模型到“上限”,未来是多感知模型
来源:数字开物
1个月前
李想时隔9个月公开发声:百分百做人形机器人,不做Robotaxi
车东西
1天前
明年最有希望爆发的赛道
格隆汇APP
1天前
“中国英伟达”猝死于2024
腾讯科技
1天前
卖爆了!国内首款量产AI拍摄眼镜5万台一天抢光
金融界
2天前
igus的创新电缆导向技术使风力发电机更安全可靠 ,不止于此……
易格斯(上海)拖链系统有限公司
1天前
苹果股价逼近4万亿、台积电年涨80%,齐创新高背后,消费电子已然复苏
智车科技
1天前
APP内打开