三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法
三篇论文解决「语义分割的优化和评估」难题!鲁汶/清华/牛津等联合提出全新方法现有的语义分割技术在评估指标、损失函数等设计上都存在缺陷,研究人员针对相关缺陷设计了全新的损失函数、评估指标和基准,在多个应用场景下展现了更高的准确性和校准性。
搜索
现有的语义分割技术在评估指标、损失函数等设计上都存在缺陷,研究人员针对相关缺陷设计了全新的损失函数、评估指标和基准,在多个应用场景下展现了更高的准确性和校准性。
「天工AI」国内首个MoE架构免费向C端用户开放的大语言模型应用全新问世。
当AI大模型在2023年飞速成熟后,几乎每个行业都在尝试“AI赋能”,并希望AI能够化腐朽为神奇。
2024开年伊始,一场震撼全球的AI竞赛即将拉开帷幕。
MiniCPM 是一系列端侧语言大模型,主体语言模型 MiniCPM-2B 具有 2.4B 的非词嵌入参数量。
今天,穆罕默德・本・扎耶德人工智能大学 VILA Lab 带来了一项关于如何更好地为不同规模的大模型书写提示词(prompt)的研究,让大模型性能在不需要任何额外训练的前提下轻松提升 50% 以上。该工作在 X (Twitter)、Reddit 和 LinkedIn 等平台上都引起了广泛的讨论和关注。
最近,谷歌的一篇论文在 X 等社交媒体平台上引发了一些争议。
2月1日,此前在大模型领域一直保持“静默”状态的字节跳动终于有了新动作,其上线了“Coze扣子”AI Bot开发平台;与过往聊天机器人的形式不同,“扣子”更像是2023年11月Open AI发布的GPTs,可以让用户通过聊天、调用插件等方式,创建个人定制版Bot,实现“0代码”开发
2023 年 12 月,首个开源 MoE 大模型 Mixtral 8×7B 发布,在多种基准测试中,其表现近乎超越了 GPT-3.5 和 LLaMA 2 70B,而推理开销仅相当于 12B 左右的稠密模型。为进一步提升模型性能,稠密 LLM 常由于其参数规模急剧扩张而面临严峻的训练成本。
ChatGPT 等通用大模型支持的功能成百上千,但是对于普通日常用户来说,智能写作一定是最常见的,也是大模型最能真正帮上忙的使用场景之一。