AI资讯新闻榜单内容搜索-CaT

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: CaT
美团开源“语音克隆”模型,1B/3.5B双选,超自然复刻你的声音

美团开源“语音克隆”模型,1B/3.5B双选,超自然复刻你的声音

美团开源“语音克隆”模型,1B/3.5B双选,超自然复刻你的声音

相似度超越Seed-TTS、MiniMax-Speech等知名模型。昨晚,美团LongCat团队发布了文本转语音模型LongCat-AudioDiT,并开源1B、3.5B参数量的版本。这一模型的最大特点,是彻底抛弃了梅尔谱等中间表示,直接在波形潜空间进行基于扩散模型的文本转语音。通俗地说,这一模型直接根据声音本身的规律进行生成,“雕刻”出最原始的声音波形,从根源阻断数据转换的级联误差。

来自主题: AI资讯
8203 点击    2026-04-02 13:51
比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

比全球最强推理引擎还快2倍,斯坦福、普林斯顿破解大模型「串行魔咒」

在大语言模型推理领域,虽然「推测解码」(Speculative Decoding,SD)已成为加速生成的标准配置,但它依然存在一个致命弱点: drafting(草拟)和 verification(验证)之间必须串行进行。

来自主题: AI技术研报
7400 点击    2026-04-01 16:20
Mirage(原 Captions)融资 7500 万美元:AI 视频的下一场战争,不在生成,在“编辑权力”

Mirage(原 Captions)融资 7500 万美元:AI 视频的下一场战争,不在生成,在“编辑权力”

Mirage(原 Captions)融资 7500 万美元:AI 视频的下一场战争,不在生成,在“编辑权力”

Mirage(原 Captions)宣布获得 7500 万美元 融资,由 General Catalyst 旗下 Customer Value Fund(CVF)提供。这类资金的逻辑,与传统 VC 明显不同,它更关注已经被验证的增长模型与单位经济,而不是单纯押注未来。

来自主题: AI资讯
7569 点击    2026-03-29 11:02
复旦北大联合美团LongCat提出TDAR:用“粗思考,细求证”破解Block Diffusion的速度精度悖论

复旦北大联合美团LongCat提出TDAR:用“粗思考,细求证”破解Block Diffusion的速度精度悖论

复旦北大联合美团LongCat提出TDAR:用“粗思考,细求证”破解Block Diffusion的速度精度悖论

近期,复旦大学 NLP 实验室(FDU NLP)、北京大学知识计算实验室(KCL)联合美团 LongCat Team 提出了一种 Block Diffusion 推理模型 Test-Time Scaling 新框架 TDAR,通过引入 “粗思考,细求证” (Think Coarse Critic Fine, TCCF) 范式与有界自适应置信度解码

来自主题: AI技术研报
7245 点击    2026-03-14 08:39
消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

该事故目前已得到谷歌官方技术团队的确认,官方承认属于 “Systemic path-parsing failure ”“Catastrophic impact”“Have seen before”,正在紧急硬编码修复上线中(自 2 月 6 日回复起,截止目前,暂未有修复完成的正式通知)

来自主题: AI资讯
8889 点击    2026-02-13 18:52
决定了:过年攻略全都不过脑子,让AI去想

决定了:过年攻略全都不过脑子,让AI去想

决定了:过年攻略全都不过脑子,让AI去想

春节还没到,「过年的气氛」已经渗入科技圈每个人的毛孔。单说 AI 大模型这一块,刚刚发布的有 kimi 2.5 和 Step 3.5 Flash,即将发布的据说还有 DeepSeek V4,GPT-5.3、Claude Sonnet 5、Qwen 3.5,GLM-5,说不定一觉醒来,现有的技术就要被颠覆。

来自主题: AI技术研报
6307 点击    2026-02-12 15:32
天下苦CUDA久矣,又一国产方案上桌了

天下苦CUDA久矣,又一国产方案上桌了

天下苦CUDA久矣,又一国产方案上桌了

国产算力基建跑了这么多年,大家最关心的逻辑一直没变:芯片够不够多?但对开发者来说,真正扎心的问题其实是:好不好使?

来自主题: AI资讯
7135 点击    2026-01-31 12:27
大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

大模型哪里出问题、怎么修,这篇可解释性综述一次讲清

过去几年,机制可解释性(Mechanistic Interpretability)让研究者得以在 Transformer 这一 “黑盒” 里追踪信息如何流动、表征如何形成:从单个神经元到注意力头,再到跨层电路。但在很多场景里,研究者真正关心的不只是 “模型为什么这么答”,还包括 “能不能更稳、更准、更省,更安全”。

来自主题: AI技术研报
10583 点击    2026-01-28 10:13
美团又上新模型,8个Thinker齐开工,能顶个诸葛亮?

美团又上新模型,8个Thinker齐开工,能顶个诸葛亮?

美团又上新模型,8个Thinker齐开工,能顶个诸葛亮?

美团也重磅更新自家模型 ——LongCat-Flash-Thinking-2601。这是一款强大高效的大规模推理模型,拥有 5600 亿个参数,基于创新的 MoE 架构构建。该模型引入了强大的重思考模式(Heavy Thinking Mode),能够同时启动 8 路思考并最终总结出一个更全面、更可靠的结论。目前重思考模式已在 LongCat AI 平台正式上线,人人均可体验。

来自主题: AI资讯
9701 点击    2026-01-16 14:35