Transformer模型*早由谷歌在2017年的“Attention is all you need”一文中提出,用于自然語(yǔ)言處理(NLP)領(lǐng)域的翻譯和文本生成任務(wù)。與傳統(tǒng)的RNN、LSTM模型不同,Transformer的自注意力機(jī)制(Self-Attention)允許其處理任意長(zhǎng)度的輸入序列,且并行計(jì)算性能強(qiáng),因此在大規(guī)模數(shù)據(jù)處理和高效計(jì)算方面有**優(yōu)勢(shì)。隨著AI深度學(xué)習(xí)的興起,Transformer被應(yīng)用在BEV空間轉(zhuǎn)換、時(shí)間序列上,形成了一個(gè)端到端的模型。