일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 리멤버나우 요약
- 리멤버나우
- 딥러닝
- 경제 요약
- 이베이 매각
- but how?
- flaks
- multi-task learning
- 뤼이드
- 알고리즘
- pytorch-tutorial
- 장영준
- 스무고개 Metric
- 110 옮기기
- 2003 error
- git password
- 2003 에러
- aws rds
- 웹 독학
- cs231
- 오픈소스
- 코딩테스트
- 백준 2193
- 미국 이란 전쟁
- C++
- Convolutional Neural Networks
- flask
- git-lfs
- 프로그래머스 여행경로
- 프로그래머스
- Today
- Total
목록딥러닝 (5)
Nam's

본 포스팅은 yunjey라는 네이버 개발자가 제작한 오픈소스 프로젝트 pytorch-tutorial 을 다룬 포스팅으로, 공식 튜토리얼과 관련이 없습니다. 지난 포스팅에서 Colab 환경에 pytorch-tutorial의 설치를 마치고 tutorials 디렉토리 안에 단계별 모델들이 있는 것까지 확인했다. 본 포스팅에서는 01-basics 안에 있는 logistic regression 을 실행 및 수정해본다. 1. 코드 살펴보기 01-basics 디렉토리에 들어가면 4개의 폴더가 있고, 그 중에서 logistic_regression 폴더로 들어간다. 모든 디렉토리에는 main.py 파이썬 코드가 들어있다. main.py 코드를 열어보자. %pycat 코드이름.py 를 입력하면 도움말 창이 열리면서 코드를..

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. Lecture: Convolutional Neural Networks Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture5.pdf 1. CNN의 활용 2. Convolutional Neural Networks Fully Connected Layers Input 이미지를 1차원 행렬로 stretch 시킨 후 Wx를 내적한다. (길게 쭉 피는 느낌) 밑에 사진의 경우 Output이 10개 class인 경우 이므로 Wx의 사이즈는 10 x 3072 이다. 그 결과 10개의 Output이 나온다. Convolution Layer Convolutional ..

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. Lecture: Introduction to Neural Networks Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf 1. Backpropagation 지난 3강 정리에서 Optimization을 다뤘다. 우리가 목표한 Label (정답)과 model을 통해 나온 Output이 얼마나 차이(Loss)가 나는지 Gradient를 통해 찾고, 수정하는 것을 Optimization이라고 한다. 그렇다면 구체적으로 어떻게 function node 들의 Gradient를 구할 수 있을까? 특히 Neural Networks 처럼 깊이 있는 모..

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. Lecture: Loss Function and Optimization Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture3.pdf 1. Loss Function Loss Function: 현재 설정된 W를 입력으로 받아서 각 스코어를 확인하고 이 W가 지금 얼마나 좋고 나쁜지를 정량적으로 말해주는 것 그리고 가장 덜 구린 W를 찾는 과정이 Optimizaion이다. Multiclass SVM loss (Support Vector Machine) 위와 같은 score 결과를 예시로 했을 때, SVM의 원리는 이렇다. 정답 label score 보다..

*본문 내용은 스탠포드 대학교 CS231n 강의를 개인적인 학습 목적으로 요약한 내용입니다. 1강은 딥러닝의 역사에 관한 내용이라서 따로 요약하지 않고 넘어갑니다. Lecture: Image Classification Slide: http://cs231n.stanford.edu/slides/2017/cs231n_2017_lecture2.pdf 1. 고양이 분류하기 어떻게 하면 컴퓨터가 고양이 사진을 보고 '고양이'라고 분류해낼 수 있을까? 더 나아가서 1000개, 10000개 이상의 다양한 물체를 컴퓨터가 분류하려면 어떤 알고리즘이 필요할까? 이미지, 영상 인식이 어려운 이유 Semantic Gap: 컴퓨터에게 이미지는 거대한 숫자집합에 불과하다. Viewpoint variation: 촬영의 각도에 따라..