[ML/NLP] 11. RNN
이 글은 하단의 Reference에 있는 강의, 교재를 보고 정리한 것입니다. 11.0 Intro 지금까지 다룬 Fully connected layer, word2vec, CNN 등은 항상 신호가 단방향으로 흐르는 피드포워드라는 유형의 신경망이었다. 이런 유형의 신경망은 그 구조가 단순하여 이해하기 쉽다는 장점이 있다. 그러나 시계열 데이터를 잘 다루지 못한다는 단점이 있다. 더 정확히는 단순한 피드포워드 신경망에서는 시계열 데이터의 성질(패턴)을 충분히 학습할 수 없다. 그래서 순환 신경망Recurrent Neural Network(RNN)을 도입하게 된다. 이번 장에서는 언어 모델의 확률적 관점에서의 기술 RNN구조 RNN구현 RNNLM RNNLM의 구현과 평가 에 대해 다룬다. 11.1 Probab..
머신러닝
2020. 9. 10. 20:00
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 신경망
- 사진구조
- 자연어 처리
- 컴퓨터 과학
- CS
- 컴퓨터과학
- Logistic Regression
- 연속 신호
- 밑바닥부터 시작하는 딥러닝
- 신호 및 시스템
- 순환 신경망
- 인덱스 이미지
- 머신러닝
- CNN
- 딥러닝
- Andrew ng
- 이산 신호
- NLP
- 이미지처리
- gradient descent
- Neural Network
- RGB이미지
- 영상구조
- rnn
- 매트랩 함수
- 이미지
- 매트랩
- 영상처리
- ML
- 머신 러닝
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함