AI帮你理解科学
对话

58,468,628

科研人员

318,822,210

论文成果

8,796,718

知识概念

1,147,790,347

引用关系
关注
推荐
热点
动态
这篇论文介绍了一种称为SparQ Attention的新技术,可以显著减少生成型大语言模型(LLM)在推理时的内存带宽需求,从而提高LLM的推理吞吐量。
Luka Ribar,Ivan Chelombiev, Luke Hudlass-Galley,Charlie Blake, Carlo Luschi, Douglas Orr
CoRR (2023)
引用0浏览5032
引用
评分
ChatPaper
0
5032
将视觉模型的规模扩大已成为获取更强大视觉表征能力的现实趋势。但是未来“大”就是“硬道理”吗?论文讨论了较大视觉模型的那些“不必要”。
Baifeng Shi, Ziyang Wu, Maolin Mao,Xin Wang,Trevor Darrell大牛学者
arXiv (2024)
引用0浏览4753
引用
评分
ChatPaper
0
4753
Ziyin Zhang, Chaoyu Chen,Bingchang Liu, Cong Liao, Zi Gong,Hang Yu,Jianguo Li,Rui Wang
CoRR (2023)
引用4浏览16094
引用
评分
ChatPaper
4
16094
Minghua Liu,Ruoxi Shi,Linghao Chen, Zhuoyang Zhang,Chao Xu,Xinyue Wei,Hansheng Chen, Chong Zeng, Jiayuan Gu,Hao Su大牛学者
CVPR 2024 (2023)
引用41浏览5634
引用
评分
ChatPaper
41
5634
CoRR (2023)
引用15浏览3513
引用
评分
ChatPaper
15
3513
Hongxuan Zhang,Zhining Liu, Jiaqi Zheng ,Chenyi Zhuang, Jinjie Gu,Guihai Chen大牛学者
CoRR (2023)
引用0浏览2267
引用
评分
ChatPaper
0
2267

再推荐几条看看查看更多推荐内容再推荐几条看看添加订阅关键词设定感兴趣领域,获取更精准推送

ChatPaper
对话式文献知识库
选择论文开启对话
期刊/会议
查看更多期刊/会议