热门论文

Attention Is All You Need

Transformer架构的开山之作,为自然语言处理带来革命性变革,奠定了现代大模型的基础。

2017 50K+ 引用

BERT: Pre-training of Deep Bidirectional Transformers

双向Transformer预训练模型,在多项NLP任务上取得突破性进展。

2018 40K+ 引用

Generative Adversarial Networks

GAN的开创性论文,开启了生成式AI的新纪元,影响深远。

2014 45K+ 引用

ResNet: Deep Residual Learning

残差网络解决了深层网络的梯度消失问题,在ImageNet竞赛中取得突破。

2015 35K+ 引用

研究领域

自然语言处理

大语言模型、机器翻译、文本生成等前沿研究。

  • GPT系列论文
  • BERT及其变体
  • Transformer-XL
  • RoBERTa

计算机视觉

目标检测、图像分割、视觉Transformer等。

  • Vision Transformer
  • DETR
  • Swin Transformer
  • MAE

强化学习

深度强化学习、多智能体系统、游戏AI等。

  • DQN
  • PPO
  • SAC
  • AlphaGo系列

生成式AI

GAN、VAE、扩散模型等生成技术。

  • StyleGAN
  • DDPM
  • Stable Diffusion
  • DALL-E

解读方法

结构化阅读

按照摘要、引言、方法、实验、结论的顺序系统阅读论文。

问题导向

带着问题阅读,理解论文要解决什么问题,如何解决。

代码复现

通过代码实现加深对论文方法的理解。

讨论交流

与他人讨论论文内容,分享不同观点。

阅读技巧

研究进展

2017年

Transformer架构

Attention Is All You Need论文发布,为NLP带来革命性变革。

2018年

BERT预训练

BERT模型在多项NLP任务上取得突破性进展。

2020年

GPT-3发布

大规模语言模型展现强大的few-shot学习能力。

2021年

Vision Transformer

Transformer成功应用到计算机视觉领域。

2022年

ChatGPT发布

大语言模型在对话任务上取得重大突破。

2023年

多模态大模型

GPT-4、Claude等多模态模型展现强大能力。