AI资讯新闻榜单内容搜索-2

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 2
蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

蒸馏任何深度,仅用少量无标签数据就能实现单目深度估计新SOTA

单目深度估计新成果来了!西湖大学AGI实验室等提出了一种创新性的蒸馏算法,成功整合了多个开源单目深度估计模型的优势。在仅使用2万张无标签数据的情况下,该方法显著提升了估计精度,并刷新了单目深度估计的最新SOTA性能。

来自主题: AI技术研报
9312 点击    2025-02-28 15:40
无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

无需训练让扩散模型提速2倍,上交大提出Token级缓存方案|ICLR‘25

Diffusion Transformer模型模型通过token粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。

来自主题: AI技术研报
7892 点击    2025-02-28 15:06
谷歌发布BIG-Bench超难基准:DeepSeek-R1得分6.8,只有o3-mini超过10分

谷歌发布BIG-Bench超难基准:DeepSeek-R1得分6.8,只有o3-mini超过10分

谷歌发布BIG-Bench超难基准:DeepSeek-R1得分6.8,只有o3-mini超过10分

随着 AI 能力的提升,一个常见的话题便是基准不够用了——一个新出现的基准用不了多久时间就会饱和,比如 Replit CEO Amjad Masad 就预计 2023 年 10 月提出的编程基准 SWE-bench 将在 2027 年饱和。

来自主题: AI技术研报
6214 点击    2025-02-28 14:48
微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

微软首个多模态Phi-4问世,56亿参数秒杀GPT-4o!LoRA华人大佬带队

Phi-4系列模型上新了!56亿参数Phi-4-multimodal集语音、视觉、文本多模态于一体,读图推理性能碾压GPT-4o;另一款38亿参数Phi-4-mini在推理、数学、编程等任务中超越了参数更大的LLM,支持128K token上下文。

来自主题: AI技术研报
6977 点击    2025-02-28 14:11
ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

ICLR 2025|浙大、千问发布预训练数据管理器DataMan,53页细节满满

在 Scaling Law 背景下,预训练的数据选择变得越来越重要。然而现有的方法依赖于有限的启发式和人类的直觉,缺乏全面和明确的指导方针。在此背景下,该研究提出了一个数据管理器 DataMan,其可以从 14 个质量评估维度对 15 个常见应用领域的预训练数据进行全面质量评分和领域识别。

来自主题: AI技术研报
9661 点击    2025-02-28 14:04
AI写作复制不了的“人味儿”

AI写作复制不了的“人味儿”

AI写作复制不了的“人味儿”

“用DeepSeek写小说,一天能写20万字”

来自主题: AI资讯
6480 点击    2025-02-28 13:59
自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

自动提示词优化系统综述,APO被AWS定义为5个部分 | 最新

本文是对亚马逊AWS研究团队最新发表的APO(自动提示词优化)技术综述的深度解读。该研究由Kiran Ramnath、Kang Zhou等21位来自AWS的资深研究者共同完成,团队成员来自不同技术背景,涵盖了机器学习、自然语言处理、系统优化等多个专业领域。

来自主题: AI技术研报
7620 点击    2025-02-28 10:11
西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

西湖大学提出闭环扩散控制策略,高效与闭环兼得

高效闭环控制是复杂系统控制的核心要求。传统控制方法受限于效率与适用性挑战;而新兴的扩散模型虽然表现出色,却难以满足高效闭环控制的要求。西湖大学研究团队最新提出的 CL-DiffPhyCon 框架,通过异步并行去噪技术,在闭环控制要求下,显著提升了控制效率和效果。论文最近被人工智能领域顶级会议 ICLR 2025 接收。

来自主题: AI资讯
6435 点击    2025-02-28 09:48
今天,Mooncake 获得 FAST 2025「最佳论文」

今天,Mooncake 获得 FAST 2025「最佳论文」

今天,Mooncake 获得 FAST 2025「最佳论文」

北京时间今天凌晨,Kimi 与清华大学合作研发的 Mooncake 项目技术报告获得计算机存储领域顶会 FAST 2025「最佳论文」奖。Mooncake 是月之暗面 Kimi 的底层推理服务平台。

来自主题: AI资讯
10178 点击    2025-02-27 17:04