AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

推测解码(Speculative Decoding)是谷歌等机构在 2022 年发现的大模型推理加速方法。它可以在不损失生成效果前提下,获得 3 倍以上的加速比。GPT-4 泄密报告也提到 OpenAI 线上模型推理使用了它。

来自主题: AI技术研报
8166 点击    2024-02-20 17:22
为什么openai可以跑通所有AGI技术栈?

为什么openai可以跑通所有AGI技术栈?

为什么openai可以跑通所有AGI技术栈?

简单说一下我的见解,以公司和技术趋势而不是个人的角度做一些分析,并预测一些OpenAI下一步的进展。

来自主题: AI技术研报
10288 点击    2024-02-20 11:43
100万token,一次能分析1小时YouTube视频,「大世界模型」火了

100万token,一次能分析1小时YouTube视频,「大世界模型」火了

100万token,一次能分析1小时YouTube视频,「大世界模型」火了

我们接连被谷歌的多模态模型 Gemini 1.5 以及 OpenAI 的视频生成模型 Sora 所震撼到,前者可以处理的上下文窗口达百万级别,而后者生成的视频能够理解运动中的物理世界,被很多人称为「世界模型」。

来自主题: AI技术研报
7852 点击    2024-02-20 11:24
RNN模型挑战Transformer霸权!1%成本性能比肩Mistral-7B,支持100+种语言全球最多

RNN模型挑战Transformer霸权!1%成本性能比肩Mistral-7B,支持100+种语言全球最多

RNN模型挑战Transformer霸权!1%成本性能比肩Mistral-7B,支持100+种语言全球最多

大模型内卷时代,也不断有人跳出来挑战Transformer的统治地位,RWKV最新发布的Eagle 7B模型登顶了多语言基准测试,同时成本降低了数十倍

来自主题: AI技术研报
6956 点击    2024-02-20 11:12
LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA

LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA

LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA

短短几天,「世界模型」雏形相继诞生,AGI真的离我们不远了?Sora之后,LeCun首发AI视频预测架构V-JEPA,能够以人类的理解方式看世界。

来自主题: AI技术研报
8663 点击    2024-02-18 15:24
让视觉语言模型搞空间推理,谷歌又整新活了

让视觉语言模型搞空间推理,谷歌又整新活了

让视觉语言模型搞空间推理,谷歌又整新活了

视觉语言模型虽然强大,但缺乏空间推理能力,最近 Google 的新论文说它的 SpatialVLM 可以做,看看他们是怎么做的。

来自主题: AI技术研报
9270 点击    2024-02-18 15:10
人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

尽管收集人类对模型生成内容的相对质量的标签,并通过强化学习从人类反馈(RLHF)来微调无监督大语言模型,使其符合这些偏好的方法极大地推动了对话式人工智能的发展。

来自主题: AI技术研报
8769 点击    2024-02-18 12:25
谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

谷歌Gemini 1.5深夜爆炸上线,史诗级多模态硬刚GPT-5!最强MoE首破100万极限上下文纪录

刚刚,我们经历了LLM划时代的一夜。谷歌又在深夜发炸弹,Gemini Ultra发布还没几天,Gemini 1.5就来了。卯足劲和OpenAI微软一较高下的谷歌,开始进入了高产模式。

来自主题: AI技术研报
11594 点击    2024-02-17 12:43
使用GPT-4,学渣比学霸更有优势

使用GPT-4,学渣比学霸更有优势

使用GPT-4,学渣比学霸更有优势

如果允许学生用AI“作弊”,他们的成绩分布会发生怎样的变化?

来自主题: AI技术研报
9592 点击    2024-02-17 12:33
下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

下一代Windows系统曝光:基于GPT-4V,Agent跨应用调度,代号UFO

微软首个为Windows而设的智能体(Agent) 亮相:基于GPT-4V,一句话就可以在多个应用中无缝切换,完成复杂任务。整个过程无需人为干预,其执行成功率和效率是GPT-4的两倍,GPT-3.5的四倍。

来自主题: AI技术研报
10551 点击    2024-02-17 12:25
RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

RAG还是微调?微软出了一份特定领域大模型应用建设流程指南

检索增强生成(RAG)和微调(Fine-tuning)是提升大语言模型性能的两种常用方法,那么到底哪种方法更好?在建设特定领域的应用时哪种更高效?微软的这篇论文供你选择时进行参考。

来自主题: AI技术研报
6263 点击    2024-02-17 12:09
我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

我们还需要Transformer中的注意力吗?

状态空间模型正在兴起,注意力是否已到尽头?

来自主题: AI技术研报
10431 点击    2024-02-17 12:03
推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

推倒万亿参数大模型内存墙,万字长文:从第一性原理看神经网络量化

为了应对大模型不断复杂的推理和训练,英伟达、AMD、英特尔、谷歌、微软、Meta、Arm、高通、MatX以及Lemurian Labs,纷纷开始研发全新的硬件解决方案。

来自主题: AI技术研报
8737 点击    2024-02-17 11:06
文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

文生图新SOTA!Pika北大斯坦福联合推出RPG,多模态助力解决文生图两大难题

近日,北大、斯坦福、以及Pika Labs发布了新的开源文生图框架,利用多模态LLM的能力成功解决文生图两大难题,表现超越SDXL和DALL·E 3

来自主题: AI技术研报
5259 点击    2024-02-17 11:00
Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Github2.5k星,Karpathy转赞,「流程工程」让LLM代码能力瞬间翻倍,直接淘汰提示工程

Karpathy力推代码生成任务增强流程,让GPT-4在CodeContests从19%提升到44%,不用微调不用新数据集训练,让大模型代码能力大幅提升。

来自主题: AI技术研报
9381 点击    2024-02-17 10:55
语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

语音生成的「智能涌现」:10万小时数据训练,亚马逊祭出10亿参数BASE TTS

伴随着生成式深度学习模型的飞速发展,自然语言处理(NLP)和计算机视觉(CV)已经经历了根本性的转变,从有监督训练的专门模型,转变为只需有限的明确指令就能完成各种任务的通用模型

来自主题: AI技术研报
5489 点击    2024-02-15 21:45
性能提升、成本降低,这是分布式强化学习算法最新研究进展

性能提升、成本降低,这是分布式强化学习算法最新研究进展

性能提升、成本降低,这是分布式强化学习算法最新研究进展

分布式强化学习是一个综合的研究子领域,需要深度强化学习算法以及分布式系统设计的互相感知和协同。考虑到 DDRL 的巨大进步,我们梳理形成了 DDRL 技术的展历程、挑战和机遇的系列文章。

来自主题: AI技术研报
3157 点击    2024-02-13 14:05
LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

LLM是世界模型的新证据?ChatGPT能理解WiFi等物理信号,并猜出你的位置

最近来自香港科技大学(HKUST)、南洋理工大学(NTU)与加利福尼亚大学洛杉矶分校(UCLA)的研究者们提供了新的思路:他们发现大语言模型如 ChatGPT 可以理解传感器信号进而完成物理世界中的任务。该项目初步成果发表于 ACM HotMobile 2024。

来自主题: AI技术研报
4450 点击    2024-02-12 17:26
首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

首席AI教育者Sebastian Raschka博士推荐的2023年最具影响力的 10 篇AI论文

抱着年终总结,也是对过去一年回顾与展望的态度,来自 Ahead AI 的 Sebastian Raschka 博士为我们带来了 2023 年最值得大家关注,也是最有影响力的十篇 AI 论文,这里我们就和大家一起,用这十篇工作再次为 2023 年写下一段注脚

来自主题: AI技术研报
5023 点击    2024-02-11 11:58
陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

造大模型的成本,又被打下来了!这次是数据量狂砍95%的那种。陈丹琦团队最新提出大模型降本大法——数据选择算法LESS, 只筛选出与任务最相关5%数据来进行指令微调,效果比用整个数据集还要好。

来自主题: AI技术研报
4442 点击    2024-02-10 13:15
ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

ICLR 2024 | 单图三维重建数字虚拟人,浙大&字节提出Real3D-Portrait算法

单图 3D 说话人视频合成 (One-shot 3D Talking Face Generation) 可以被视作解决这一难题的下一代虚拟人技术。它旨在从单张图片中重建出目标人的三维化身 (3D Avatar)

来自主题: AI技术研报
3958 点击    2024-02-10 13:06
谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

谷歌提出全新RLHF方法:消除奖励模型,且无需对抗性训练

大型语言模型(LLM)的成功离不开「基于人类反馈的强化学习(RLHF)」。RLHF 可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。

来自主题: AI技术研报
5631 点击    2024-02-10 13:02
ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

ICLR 2024 | 首个零阶优化深度学习框架,MSU联合LLNL提出DeepZero

今天介绍一篇密歇根州立大学 (Michigan State University) 和劳伦斯・利弗莫尔国家实验室(Lawrence Livermore National Laboratory)的一篇关于零阶优化深度学习框架的文章 ,本文被 ICLR 2024 接收,代码已开源。

来自主题: AI技术研报
5628 点击    2024-02-09 14:11
进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

进我的收藏夹吃灰吧:大模型加速超全指南来了

2023 年,大型语言模型(LLM)以其强大的生成、理解、推理等能力而持续受到高度关注。然而,训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的方法。

来自主题: AI技术研报
4618 点击    2024-02-09 14:05
3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

3B模型不输7B LLaVA!北大多模态MoE模型登GitHub热榜

混合专家(MoE)架构已支持多模态大模型,开发者终于不用卷参数量了!北大联合中山大学、腾讯等机构推出的新模型MoE-LLaVA,登上了GitHub热榜。

来自主题: AI技术研报
5501 点击    2024-02-09 13:54
「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

「大模型变小」成年度大趋势!1月AI四大研究精彩亮点超长总结,模型合并MoE方法是主流​

AI大模型并非越大越好?过去一个月,关于大模型变小的研究成为亮点,通过模型合并,采用MoE架构都能实现小模型高性能。

来自主题: AI技术研报
6036 点击    2024-02-09 12:11
GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

谷歌&南加大推出最新研究“自我发现”(Self-Discover),重新定义了大模型推理范式。与已成行业标准的思维链(CoT)相比,新方法不仅让模型在面对复杂任务时表现更佳,还把同等效果下的推理成本压缩至1/40。

来自主题: AI技术研报
5327 点击    2024-02-08 19:44