일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- kaggle
- 에이블러
- 하둡
- cnn
- ETRI
- r
- 다변량분석
- 기계학습
- 한국전자통신연구원 인턴
- 가나다영
- SQLD
- KT AIVLE
- dx
- 프로그래머스
- python
- 지도학습
- 에트리 인턴
- SQL
- Ai
- arima
- Eda
- hadoop
- 시계열
- 한국전자통신연구원
- 서평
- 에이블스쿨
- 빅데이터분석기사
- 하계인턴
- 머신러닝
- ggplot2
- 딥러닝
- KT 에이블스쿨
- 웹크롤링
- 시각화
- ML
- 빅분기
- kt aivle school
- httr
- matplot
- 소셜네트워크분석
Archives
- Today
- Total
목록LSTF (1)
소품집
Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 리뷰
https://github.com/zhouhaoyi/Informer2020 GitHub - zhouhaoyi/Informer2020: The GitHub repository for the paper "Informer" accepted by AAAI 2021. The GitHub repository for the paper "Informer" accepted by AAAI 2021. - zhouhaoyi/Informer2020 github.com Transformer 모델이 장기 시퀀스 데이터에 대하여 효율적인 학습을 개선하기 위한 연구가 많이 진행되고 있는데, 기존 self-attention 메커니즘은 feature 간의 상관 계수를 직접 계산하여 시퀀스 내의 장기 의존성을 캡쳐할 수 있는 장점이 있으나..
Time series
2024. 3. 18. 15:26