其實主要就是在講transformer跟mamba
transformer其實還有分,我們主要在講的是self-attention 2019,so 2020 RNN就沒什麼出現過
每一個輸出的y都只能參考比他左邊的的X
把fa fb fc與輸入的X產生關聯,讓y具有新舊差異
其實就是LSTM