AI资讯新闻榜单内容搜索-清华

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 清华
清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

清华联手千问重塑归一化范式,让 Transformer 回归「深度」学习

在十九世纪的暹罗王国曾诞生过这样一对连体兄弟:他们分别拥有完整的四肢和独立的大脑,但他们六十余年的人生被腰部相连着的一段不到十厘米的组织带永远绑定在了一起。他们的连体曾带来无尽的束缚,直到他们离开暹罗,走上马戏团的舞台。十年间,两兄弟以近乎合二为一的默契巡演欧美,获得巨大成功。

来自主题: AI技术研报
5933 点击    2026-02-11 13:59
训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

训练加速1.8倍,推理开销降78%!精准筛选题目高效加速RL训练丨清华KDD

以DeepSeek R1为代表的一系列基于强化学习(RLVR)微调的工作,显著提升了大语言模型的推理能力。但在这股浪潮背后,强化微调的代价却高得惊人。

来自主题: AI技术研报
9598 点击    2026-02-10 14:19
登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

登顶Hugging Face论文热榜,LLM重写数据准备的游戏规则

来自上海交通大学、清华大学、微软研究院、麻省理工学院(MIT)、上海 AI Lab、小红书、阿里巴巴、港科大(广州)等机构的研究团队,系统梳理了近年来大语言模型在数据准备流程中的角色变化,试图回答一个业界关心的问题:LLM 能否成为下一代数据管道的「智能语义中枢」,彻底重构数据准备的范式?

来自主题: AI技术研报
8548 点击    2026-02-09 11:12
清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

清华研究生开源大一统世界模型:性能超越硅谷标杆40%!

国产开源具身世界模型,直接秒了Pi-0.5,而且还是几位清华硕、博士研究生领衔推出的。这就是由生数科技联合清华大学,正式开源的大一统世界模型——Motus。

来自主题: AI技术研报
7925 点击    2026-02-07 14:09
清华系创企生数科技完成超过6亿元人民币A+轮融资,拿下国内视频生成领域最大单笔融资!

清华系创企生数科技完成超过6亿元人民币A+轮融资,拿下国内视频生成领域最大单笔融资!

清华系创企生数科技完成超过6亿元人民币A+轮融资,拿下国内视频生成领域最大单笔融资!

今天,北京多模态生成技术创企生数科技宣布完成超过6亿元人民币A+轮融资。生数科技还披露,2025年该公司实现用户和收入超10倍增长,用户和业务覆盖全球200多个国家和地区。

来自主题: AI资讯
9482 点击    2026-02-05 23:28
突发!姚顺雨后,清华95后庞天宇加入腾讯,任混元「主任研究员」

突发!姚顺雨后,清华95后庞天宇加入腾讯,任混元「主任研究员」

突发!姚顺雨后,清华95后庞天宇加入腾讯,任混元「主任研究员」

继OpenAI大神姚顺雨之后,腾讯AI再添猛将!95后清华「天骄」庞天宇,正式入职腾讯,出任混元首席研究科学家,负责多模态强化学习。腾讯的大模型「梦之队」版图,正在极速扩张。

来自主题: AI资讯
9531 点击    2026-01-30 22:54
UltraRAG 3.0 发布:拒绝“盲盒”开发,让每一行推理逻辑都清晰可见

UltraRAG 3.0 发布:拒绝“盲盒”开发,让每一行推理逻辑都清晰可见

UltraRAG 3.0 发布:拒绝“盲盒”开发,让每一行推理逻辑都清晰可见

今天,清华大学 THUNLP 实验室、东北大学 NEUIR 实验室、OpenBMB 、面壁智能与 AI9Stars 联合发布 UltraRAG 3.0 ,针对上述痛点,为科研工作者与开发者打造更懂开发者的技术框架,具备 3 大核心优势:

来自主题: AI资讯
10917 点击    2026-01-24 15:14
清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

清华姚班校友刘壮团队再发力,无需归一化的Transformer性能进化

这篇新论文提出了一种非常简单的新激活层 Derf(Dynamic erf),让「无归一化(Normalization-Free)」的 Transformer 不仅能稳定训练,还在多个设置下性能超过了带 LayerNorm 的标准 Transformer。

来自主题: AI技术研报
8093 点击    2026-01-24 10:38