Transformer 是目前人工智能和深度学习领域最著名的模型之一,由 Google 团队于 2017 年 6 月提出,发表在 NeuralPS(Conference on Neural Information Processing Systems)上。起初是为了解决自然语言处理(Natural Language Processing, NLP)领域中的机器翻译问题,没想到它的效果竟然超越了循环神经网络(Recurrent Neural Networks, RNN),只需要用 encoder
和 decoder
以及注意力 attention
机制就可以达到很好的效果。
Transformer 本身是专门为 NLP 领域量身定制的,但是后来人们将图像等数据编码和序列化之后同样可以放进 Transformer 中进行训练,并且也能让模型达到和卷积神经网络(Convolutional Neural Networks, CNN)和深度神经网络(Deep Neural Networks, DNN)相比更加出其不意的效果。这才让 Transformer 在计算机视觉领域大火了起来。
原文链接