AI 大模型迈向多模态,助力具身智能与机器人实现创新

作者:Arm物联网事业部业务拓展副总裁 马健

你听过莫拉维克悖论(Moravec's paradox)吗?该悖论指出,对于人工智能(AI)系统而言,高级推理只需非常少的计算能力,而实现人类习以为常的感知运动技能却需要耗费巨大的计算资源。实质上,与人类本能可以完成的基本感官任务相比,复杂的逻辑任务对AI而言更加容易。这一悖论凸显了现阶段的AI与人类认知能力之间的差异。

人本来就是多模态的。我们每个人就像一个智能终端,通常需要去学校上课接受学识熏陶(训练),但训练与学习的目的和结果是我们有能力自主工作和生活,而不需要总是依赖外部的指令和控制。

我们通过视觉、语言、声音、触觉、味觉和嗅觉等多种感官模式来了解周围的世界,进而审时度势,进行分析、推理、决断并采取行动。

经过多年的传感器融合和AI演进,机器人现阶段基本上都配备有多模态传感器。随着我们为机器人等边缘设备带来更多的计算能力,这些设备正变得愈加智能,它们能够感知周围环境,理解并以自然语言进行沟通,通过数字传感界面获得触觉,以及通过加速计、陀螺仪与磁力计等的组合,来感知机器人的比力、角速度,甚至机器人周围的磁场。

迈入机器人和机器认知的新时代

在Transformer和大语言模型(LLM)出现之前,要在AI中实现多模态,通常需要用到多个负责不同类型数据(文本、图像、音频)的单独模型,并通过复杂的过程对不同模态进行集成。

而在Transformer模型和LLM出现后,多模态变得更加集成化,使得单个模型可以同时处理和理解多种数据类型,从而产生对环境综合感知能力更强大的AI系统。这一转变大大提高了多模态AI应用的效率和有效性。

虽然GPT-3等LLM主要以文本为基础,但业界已朝着多模态取得了快速进展。从OpenAI的CLIP和DALL·E,到现在的Sora和GPT-4o,都是向多模态和更自然的人机交互迈进的模型范例。例如,CLIP可理解与自然语言配对的图像,从而在视觉和文本信息之间架起桥梁;DALL·E旨在根据文本描述生成图像。我们看到Google Gemini模型也经历了类似的演进。

2024年,多模态演进加速发展。今年二月,OpenAI发布了Sora,它可以根据文本描述生成逼真或富有想象力的视频。仔细想想,这可以为构建通用世界模拟器提供一条颇有前景的道路,或成为训练机器人的重要工具。三个月后,GPT-4o显著提高了人机交互的性能,并且能够在音频、视觉和文本之间实时推理。综合利用文本、视觉和音频信息来端到端地训练一个新模型,消除从输入模态到文本,再从文本到输出模态的两次模态转换,进而大幅提升性能。

在今年二月的同一周,谷歌发布了Gemini 1.5,将上下文长度大幅扩展至100万个词元(Token)。这意味着1.5 Pro可以一次性处理大量信息,包括一小时的视频、11小时的音频、包含超过三万多行代码或70万个单词的代码库。Gemini 1.5基于谷歌对Transformer和混合专家架构(MoE)的领先研究而构建,并对可在边缘侧部署的2B和7B模型进行了开源。在五月举行的Google I/O大会上,除了将上下文长度增加一倍,并发布一系列生成式AI工具和应用,谷歌还探讨了Project Astra的未来愿景,这是一款通用的AI助手,可以处理多模态信息,理解用户所处的上下文,并在对话中非常自然地与人交互。

作为开源LLM Llama背后的公司,Meta也加入了通用人工智能(AGI)的赛道。

这种真正的多模态性大大提高了机器智能水平,将为许多行业带来新的范式。

例如,机器人的用途曾经非常单一,它们具备一些传感器和运动能力,但一般来说,它们没有“大脑”来学习新事物,无法适应非结构化和陌生环境。

多模态LLM有望改变机器人的分析、推理和学习能力,使机器人从专用转向通用。PC、服务器和智能手机都是通用计算平台中的佼佼者,它们可以运行许多不同种类的软件应用来实现丰富多彩的功能。通用化将有助于扩大规模,产生规模化的经济效应,价格也能随着规模扩大而大幅降低,进而被更多领域采用,从而形成一个良性循环。

Elon Musk很早就注意到了通用技术的优势,特斯拉的机器人从2022年的Bumblebee发展到2023年三月宣布的Optimus Gen 1和2023年年底的Gen 2,其通用型和学习能力不断提高。在过去的6至12个月里,我们见证了机器人和人形机器人领域所取得的一系列突破。

下一代机器人和具身智能背后的新技术

毋庸置疑的是我们在具身智能达到量产方面还有很多工作要做。我们需要更轻便的设计、更长的运行时间,以及速度更快、功能更强大的边缘计算平台来处理和融合传感器数据信息,从而做出及时决策和控制行动。

而且我们正朝着创造人形机器人的方向发展,人类文明数千年,产生出无处不在的专为人类设计的环境,而人形机器人系统由于形体与人们类似,有望能够在人类生存的环境中驾轻就熟地与人类和环境互动并执行所需的操作。这些系统将非常适合处理脏污、危险和枯燥的工作,例如患者护理和康复、酒店业的服务工作、教育领域的教具或学伴,以及进行灾难响应和有害物质处理等危险任务。此类应用利用人形机器人类人的属性来促进人机自然交互,在以人为中心的空间中行动,并执行传统机器人通常难以完成的任务。

许多AI和机器人企业围绕如何训练机器人在非结构化的新环境中更好地进行推理和规划,展开了新的研究与协作。作为机器人的新“大脑”,预先经过大量数据训练的模型具有出色的泛化能力,使得机器人能做到见怪不怪,更全面地理解环境,根据感官反馈调整动作和行动,在各种动态环境中优化性能。

举一个有趣的例子,Boston Dynamics的机器狗Spot可以在博物馆里当导游。Spot能够与参观者互动,向他们介绍各种展品,并回答他们的问题。这可能有点难以置信,但在该用例中,比起确保事实正确,Spot的娱乐性、互动性和细腻微妙的表演更加重要。

Robotics Transformer:机器人的新大脑

Robotics Transformer (RT)正在快速发展,它可以将多模态输入直接转化为行动编码。在执行曾经见过的任务时,谷歌DeepMind的RT-2较上一代的RT-1表现一样出色,成功率接近100%。但是,使用PaLM-E(面向机器人的具身多模态语言模型)和PaLI-X(大规模多语言视觉和语言模型,并非专为机器人设计)训练后,RT-2具有更出色的泛化能力,在未曾见过的任务中的表现优于RT-1。

微软推出了大语言和视觉助手LLaVA。LLaVA最初是为基于文本的任务设计的,它利用GPT-4的强大功能创建了多模态指令遵循数据的新范式,将文本和视觉组件无缝集成,这对机器人任务非常有用。LLaVA一经推出,就创下了多模态聊天和科学问答任务的新纪录,已超出人类平均能力。

正如此前提到的,特斯拉进军人形机器人和AI通用机器人领域的意义重大,不仅因为它是为实现规模化和量产而设计的,而且因为特斯拉为汽车设计的Autopilot的强大完全自动驾驶(FSD)技术基础可用于机器人。特斯拉也拥有智能制造用例,可以将Optimus应用于其新能源汽车的生产过程。

Arm是未来机器人技术的基石

Arm认为机器人脑,包括“大脑”和“小脑”,应该是异构AI计算系统,以提供出色的性能、实时响应和高能效。

1729838558335835.png

机器人技术涉及的任务范围广泛,包括基本的计算(比如向电机发送和接收信号)、先进的数据处理(比如图像和传感器数据解读),以及运行前文提到的多模态LLM。CPU非常适合执行通用任务,而AI加速器和GPU可以更高效地处理并行处理任务,如机器学习(ML)和图形处理。还可以集成图像信号处理器和视频编解码器等额外加速器,从而增强机器人的视觉能力和存储/传输效率。此外,CPU还应该具备实时响应能力,并且需要能够运行Linux和ROS软件包等操作系统。

当扩展到机器人软件堆栈时,操作系统层可能还需要一个能够可靠处理时间关键型任务的实时操作系统(RTOS),以及针对机器人定制的Linux发行版,如ROS,它可以提供专为异构计算集群设计的服务。我们相信,SystemReady和PSA Certified等由Arm发起的标准和认证计划将帮助扩大机器人软件的开发规模。SystemReady旨在确保标准的Rich OS发行版能够在各类基于Arm架构的系统级芯片(SoC)上运行,而PSA Certified有助于简化安全实现方案,以满足区域安全和监管法规对互联设备的要求。

大型多模态模型和生成式AI的进步预示着AI机器人和人形机器人的发展进入了新纪元。在这个新时代,要使机器人技术成为主流,除了AI计算和生态系统,能效、安全性和功能安全必不可少。Arm处理器已广泛应用于机器人领域,我们期待与生态系统密切合作,使Arm成为未来AI机器人的基石。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )