Transformer模型*早由谷歌在2017年的“Attention is all you need”一文中提出,用于自然語言處理(NLP)領(lǐng)域的翻譯和文本生成任務(wù)。與傳統(tǒng)的RNN、LSTM模型不同,Transformer的自注意力機(jī)制(Self-Attention)允許其處理任意長度的輸入序列,且并行計算性能強(qiáng),因此在大規(guī)模數(shù)據(jù)處理和高效計算方面有**優(yōu)勢。隨著AI深度學(xué)習(xí)的興起,Transformer被應(yīng)用在BEV空間轉(zhuǎn)換、時間序列上,形成了一個端到端的模型。