Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- cs231
- 백준 2193
- 코딩테스트
- 경제 요약
- 110 옮기기
- 프로그래머스 여행경로
- 오픈소스
- flask
- but how?
- git password
- aws rds
- 장영준
- git-lfs
- 리멤버나우 요약
- Convolutional Neural Networks
- 딥러닝
- 뤼이드
- multi-task learning
- pytorch-tutorial
- C++
- 미국 이란 전쟁
- 2003 error
- 프로그래머스
- 웹 독학
- 2003 에러
- 리멤버나우
- flaks
- 알고리즘
- 이베이 매각
- 스무고개 Metric
Archives
- Today
- Total
목록nn (1)
Nam's

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. Lecture: Introduction to Neural Networks Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf 1. Backpropagation 지난 3강 정리에서 Optimization을 다뤘다. 우리가 목표한 Label (정답)과 model을 통해 나온 Output이 얼마나 차이(Loss)가 나는지 Gradient를 통해 찾고, 수정하는 것을 Optimization이라고 한다. 그렇다면 구체적으로 어떻게 function node 들의 Gradient를 구할 수 있을까? 특히 Neural Networks 처럼 깊이 있는 모..
개발/Machine Learning
2020. 3. 2. 00:27