AI资讯新闻榜单内容搜索-MiST

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: MiST
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理

前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。

来自主题: AI技术研报
6439 点击    2024-01-01 11:08
CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

CMU权威对比Gemini,GPT-3和Mistral8×7B!GPT-3.5依旧拿捏Gemini,开源模型差距依然不小

谷歌发布Gemini以后,一直宣称Gemini Pro要优于GPT-3.5,而CMU的研究人员通过自己实测,给大家来了一个客观中立第三方的对比。结果却是GPT-3.5几乎还是全面优于Gemini Pro,不过双方差距不大。

来自主题: AI资讯
9695 点击    2023-12-24 16:06
Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

Mistral携微软引爆「小语言模型」潮!Mistral中杯代码能力完胜GPT-4,成本暴降2/3

小模型的风潮,最近愈来愈盛,Mistral和微软分别有所动作。而网友实测发现,Mistral-medium的代码能力竟然完胜了GPT-4,而所花成本还不到三分之一。

来自主题: AI技术研报
8728 点击    2023-12-17 12:15
深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

深度揭秘爆火MoE!GPT-4关键架构,成开源模型逆袭杀手锏

上周末,Mistral甩出的开源MoE大模型,震惊了整个开源社区。MoE究竟是什么?它又是如何提升了大语言模型的性能?

来自主题: AI资讯
8085 点击    2023-12-11 20:34
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型

「高端」的开源,往往采用最朴素的发布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。

来自主题: AI资讯
9950 点击    2023-12-10 14:35
首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

首个开源MoE大模型发布!7Bx8个专家,离GPT-4最近的一集

“取消今晚所有计划!”,许多AI开发者决定不睡了。只因首个开源MoE大模型刚刚由Mistral AI发布。

来自主题: AI资讯
8199 点击    2023-12-09 15:42
英特尔 Arc Alchemist 驱动更新,AI 图像生成器 Stable Diffusion 性能迎来大幅提升

英特尔 Arc Alchemist 驱动更新,AI 图像生成器 Stable Diffusion 性能迎来大幅提升

英特尔 Arc Alchemist 驱动更新,AI 图像生成器 Stable Diffusion 性能迎来大幅提升

在 Microsoft Ignite 开发者大会上,英特尔和微软宣布将合作对英特尔 Arc 图形解决方案的 DirectML 进行优化。结果表明,英特尔更新 Arc Alchemist 驱动程序后,在 AI 图像生成器 Stable Diffusion 中实现了 2.7 倍的性能提升。

来自主题: AI资讯
6312 点击    2023-11-20 10:26