mlp 기반1 [논문 리뷰] TSMixer: An All-MLP Architecture for Time Series Forecasting (arXiv, 2023) 최근 시계열 연구는 대부분 Transformer 모델을 기반으로 발전하고 있다. 물론 여기서 최근이라는 것은 본 논문이 발표된 2023년 기점이며, 2025년 현재는 Transformer계열과 본 연구에서 제안하는 MLP 계열, 그리고 사전 학습 계열들이 탑 컨퍼런스에서 소개되는 것 같다. 아무튼 본 논문은 선형 모델만으로도 Transformer계열의 모델에 근접하는 성능을 내며, 모델은 훨씬 경량화 된다는 연구이다. 그리고 이 논문을 기점으로 아래 Time-Mixer같은 MLP 계열의 SOTA 모델이 등장하면서 다시금 그 영향력을 생각해볼 만한 모델이다.2025.01.24 - [논문리뷰/Time series] - [논문 리뷰] TimeMixer: Decomposable Multiscale Mixing .. 2025. 2. 3. 이전 1 다음