对话
排名
期刊顶会
必读论文
热点
开放数据
VIP
未登录
立即登录
学术主页
个人账号
我的关注
论文收藏
浏览历史
AI帮你理解科学
全部
高级搜索
搜索
对话
并且
主题
模糊
添加检索条件
添加时间
添加学科
重置条件
搜 索
GPT
,
Language Model
,
Human Feedback
,
CLIP
,
LLaMA
58,468,628
科研人员
318,822,210
论文成果
8,796,718
知识概念
1,147,790,347
引用关系
关注
推荐
热点
动态
添加关键词
推送
这篇论文介绍了一种称为SparQ Attention的新技术,可以显著减少生成型大语言模型(LLM)在推理时的内存带宽需求,从而提高LLM的推理吞吐量。
SparQ Attention: Bandwidth-Efficient LLM Inference
收藏
Luka Ribar
,
Ivan Chelombiev
,
Luke Hudlass-Galley
,
Charlie Blake
,
Carlo Luschi
,
Douglas Orr
CoRR
(2023)
引用
0
浏览
5032
引用
评分
ChatPaper
0
5032
将视觉模型的规模扩大已成为获取更强大视觉表征能力的现实趋势。但是未来“大”就是“硬道理”吗?论文讨论了较大视觉模型的那些“不必要”。
When Do We Not Need Larger Vision Models
收藏
Baifeng Shi
,
Ziyang Wu
,
Maolin Mao
,
Xin Wang
,
Trevor Darrell
大牛学者
arXiv
(2024)
引用
0
浏览
4753
引用
评分
ChatPaper
0
4753
A Survey on Language Models for Code
收藏
Ziyin Zhang
,
Chaoyu Chen
,
Bingchang Liu
,
Cong Liao
,
Zi Gong
,
Hang Yu
,
Jianguo Li
,
Rui Wang
CoRR
(2023)
引用
4
浏览
16094
引用
评分
ChatPaper
4
16094
One-2-3-45++: Fast Single Image to 3D Objects with Consistent Multi-View Generation and 3D Diffusion
收藏
Minghua Liu
,
Ruoxi Shi
,
Linghao Chen
,
Zhuoyang Zhang
,
Chao Xu
,
Xinyue Wei
,
Hansheng Chen
,
Chong Zeng
,
Jiayuan Gu
,
Hao Su
大牛学者
CVPR 2024
(2023)
引用
41
浏览
5634
引用
评分
ChatPaper
41
5634
MART: Improving LLM Safety with Multi-round Automatic Red-Teaming
收藏
Suyu Ge
,
Chunting Zhou
,
Rui Hou
,
Madian Khabsa
,
Yi-Chia Wang
,
Qifan Wang
,
Jiawei Han
大牛学者
,
Yuning Mao
CoRR
(2023)
引用
15
浏览
3513
引用
评分
ChatPaper
15
3513
Fast Chain-of-Thought: A Glance of Future from Parallel Decoding Leads to Answers Faster
收藏
Hongxuan Zhang
,
Zhining Liu
,
Jiaqi Zheng
,
Chenyi Zhuang
,
Jinjie Gu
,
Guihai Chen
大牛学者
CoRR
(2023)
引用
0
浏览
2267
引用
评分
ChatPaper
0
2267
再推荐几条看看
查看更多推荐内容
再推荐几条看看
添加订阅关键词
设定感兴趣领域,获取更精准推送
立即登录
定制科研兴趣
追踪学术影响力
- -
关注领域
- -
关注学者
- -
收藏
- -
浏览历史
ChatPaper
对话式文献知识库
选择论文开启对话
期刊/会议
CVPR2024
AAAI2024
ICLR2024
查看更多期刊/会议