AI资讯新闻榜单内容搜索-具身智能

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 具身智能
ICLR 2026 | 世界模型卡在多机器人协作?一个「顺序分解」思路打通

ICLR 2026 | 世界模型卡在多机器人协作?一个「顺序分解」思路打通

ICLR 2026 | 世界模型卡在多机器人协作?一个「顺序分解」思路打通

近年来,Decision-Coupled World Model 与 Model-based RL 在机器人领域取得了显著成功。通过学习环境动力学模型,智能体能够在内部模拟未来,从而进行规划与决策。但当系统从单机器人扩展到多机器人时,问题开始变得棘手。

来自主题: AI技术研报
9935 点击    2026-04-02 16:22
再融20亿!星海图把具身智能头部门槛抬到了200亿

再融20亿!星海图把具身智能头部门槛抬到了200亿

再融20亿!星海图把具身智能头部门槛抬到了200亿

独家获悉,星海图近日再次斩获20亿B+轮融资。本轮融资的投资方,几乎集齐了“全生态”阵容:据悉,距离上轮融资仅过去1个月,星海图估值已接近翻倍,突破200+亿,刷新国产具身智能赛道估值新高。

来自主题: AI资讯
7942 点击    2026-04-02 09:47
直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

直指具身智能核心瓶颈,千寻智能高阳团队提出 Point-VLA:首次以视觉定位实现语言指令精准执行

设想这样一个场景:你打电话让同事去办公室某个地方拿东西,仅凭语言描述位置是多么困难。在办公室里,从一堆已经喝过的矿泉水瓶中,让对面同学递过来你之前喝过的那个,只用语言几乎无法准确描述——「左边第二个」?「有点旧的那个」?这时候,人们更倾向于用手指一下,或者拿出图片来指代。

来自主题: AI技术研报
7106 点击    2026-03-31 14:37
ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

ICRA 2026 | NUS邵林团队提出Goal-VLA:生成式大模型化身「世界模型」,实现零样本机器人操作

在具身智能领域,机器人操作的泛化能力一直是一个核心挑战。当前,视觉 - 语言 - 动作(VLA)模型主要分为两大范式:端到端模型与分层模型。端到端 VLA 模型(如 RT-2 [1], OpenVLA [2])严重依赖海量的 “指令 - 视觉 - 动作” 成对数据,获取成本极高,导致其在面对新任务或新场景时零样本泛化能力受限。

来自主题: AI技术研报
5714 点击    2026-03-30 15:00
独家 | 3个月融3轮,2026“物理AI”黑马诞生

独家 | 3个月融3轮,2026“物理AI”黑马诞生

独家 | 3个月融3轮,2026“物理AI”黑马诞生

就在行业仍为数据瓶颈焦虑时,一家名为深度机智(DeepCybo)的公司悄然浮出水面。投中网独家获悉,作为北京中关村学院与中关村人工智能研究院孵化的首家具身智能企业,它凭借独特的“人类第一视角”技术路线,在短短3周内吸引了超60家投资机构密集对接。

来自主题: AI资讯
8636 点击    2026-03-29 11:05
打破具身世界模型可执行性鸿沟 !港中深-跨维智能团队提出EVA框架,用强化学习让视频世界模型真正“动”起来

打破具身世界模型可执行性鸿沟 !港中深-跨维智能团队提出EVA框架,用强化学习让视频世界模型真正“动”起来

打破具身世界模型可执行性鸿沟 !港中深-跨维智能团队提出EVA框架,用强化学习让视频世界模型真正“动”起来

近期,利用视频生成模型为机器人构建 “世界模型”,已成为具身智能领域的热门技术路线。给定当前观测和自然语言指令,这类模型能够先 “想象” 出未来的视觉轨迹,再由逆动力学模型(IDM)将生成画面解码为机器人动作,从而形成 “先预测、后执行” 的解耦式规划范式。由于兼具较强的可解释性与开放场景泛化潜力,这一路线正在受到学术界和工业界的广泛关注。

来自主题: AI技术研报
8265 点击    2026-03-28 09:50