Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 웹 독학
- 이베이 매각
- 미국 이란 전쟁
- 110 옮기기
- 백준 2193
- 2003 error
- git password
- 경제 요약
- git-lfs
- multi-task learning
- aws rds
- but how?
- 뤼이드
- 코딩테스트
- flaks
- cs231
- flask
- 2003 에러
- Convolutional Neural Networks
- 리멤버나우 요약
- 프로그래머스
- 프로그래머스 여행경로
- C++
- 리멤버나우
- pytorch-tutorial
- 알고리즘
- 딥러닝
- 장영준
- 스무고개 Metric
- 오픈소스
Archives
- Today
- Total
목록nn (1)
Nam's

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. Lecture: Introduction to Neural Networks Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf 1. Backpropagation 지난 3강 정리에서 Optimization을 다뤘다. 우리가 목표한 Label (정답)과 model을 통해 나온 Output이 얼마나 차이(Loss)가 나는지 Gradient를 통해 찾고, 수정하는 것을 Optimization이라고 한다. 그렇다면 구체적으로 어떻게 function node 들의 Gradient를 구할 수 있을까? 특히 Neural Networks 처럼 깊이 있는 모..
개발/Machine Learning
2020. 3. 2. 00:27