일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- python
- 시각화
- 빅데이터분석기사
- hadoop
- httr
- 지도학습
- SQLD
- cnn
- 가나다영
- 하계인턴
- dx
- 에이블러
- 한국전자통신연구원 인턴
- ML
- 빅분기
- 한국전자통신연구원
- r
- SQL
- kaggle
- 서평
- ggplot2
- KT 에이블스쿨
- 하둡
- 다변량분석
- 딥러닝
- 에이블스쿨
- 기계학습
- Eda
- kt aivle school
- 머신러닝
- Ai
- 시계열
- KT AIVLE
- 프로그래머스
- 소셜네트워크분석
- ETRI
- arima
- 웹크롤링
- matplot
- 에트리 인턴
Archives
- Today
- Total
목록2024/03 (2)
소품집
4월 목표!
2월 말부터는 논문이랑 연구 과제 사업 관련해서 행정처리도 많고, 개강하고 연구실 일이 너무 많아서.. 내 연구를 몰입있게 못 했던 3월이었는데 어느 정도 해결되어서 3월 말부터는 다시 달려보려고 한다! - 프로그래머스 SQL 1일 1문제 풀기 및 포스팅 - 학부생 KCC2024 실험 및 논문 지도 - 대한전기학회 하계 학술대회 실험 및 논문 준비 - (제발 마지막) SCIE 연구 스터디 및 모델 구상
AI/연구한다영
2024. 3. 27. 10:36
Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 리뷰
https://github.com/zhouhaoyi/Informer2020 GitHub - zhouhaoyi/Informer2020: The GitHub repository for the paper "Informer" accepted by AAAI 2021. The GitHub repository for the paper "Informer" accepted by AAAI 2021. - zhouhaoyi/Informer2020 github.com Transformer 모델이 장기 시퀀스 데이터에 대하여 효율적인 학습을 개선하기 위한 연구가 많이 진행되고 있는데, 기존 self-attention 메커니즘은 feature 간의 상관 계수를 직접 계산하여 시퀀스 내의 장기 의존성을 캡쳐할 수 있는 장점이 있으나..
Time series
2024. 3. 18. 15:26