原文链接:
继VAE之后,Adam也拿到了ICLR 时间检验奖,OpenAI联创两次获奖
继VAE之后,Adam也拿到了ICLR 时间检验奖,OpenAI联创两次获奖
1. ICLR 2025时间检验奖结果公布
冠军论文:2015年提出的Adam优化算法(被引超21万次),因其革命性地提升神经网络训练效率,成为深度学习领域最广泛应用的优化器之一。作者Diederik P. Kingma(OpenAI创始成员)第二次获此殊荣,其另一贡献VAE曾获2024年该奖项。
亚军论文:《Neural Machine Translation by Jointly Learning to Align and Translate》,比Transformer早三年提出注意力机制,为现代序列模型奠定基础,作者包括图灵奖得主Yoshua Bengio。
2. Adam算法的核心贡献
– 结合动量法与RMSProp,通过动态调整学习率实现高效收敛;
– 适用于CV、NLP、强化学习等领域,成为SOTA模型的默认优化器;
– 论文作者还包括多伦多大学助理教授Jimmy Lei Ba(Geoffrey Hinton学生)。
3. 亚军论文的里程碑意义
– 首次提出软性注意力机制,解决传统编码器-解码器的固定向量瓶颈;
– 灵感源自翻译时的”目光移动”,被Yoshua Bengio命名为”Attention”;
– AI专家Andrej Karpathy曾为其影响力未被充分认可鸣不平。
4. 作者背景亮点
– Diederik P. Kingma:VAE、Glow、扩散模型贡献者,现任职Anthropic;
– Dzmitry Bahdanau(亚军论文一作)披露研究细节:注意力机制灵感来自中学英语翻译练习;
– Kyunghyun Cho(合著者)现为纽约大学教授兼Genentech研究总监。
(注:所有论文链接及参考来源已省略,保留于原摘要中)