- 00. 머신러닝 입문기
- 01. TensorFlow의 설치 및 기본적인 operations (lab 01)
- 02. Linear Regression의 Hypothesis와 cost 설명 (lec 02)
- 03. Tensorflow로 간단한 linear regression 구현 (lab 02)
- 04. Linear Regression의 cost 최소화 알고리즘의 원리 설명 (lec 03)
- 05. Linear Regression의 cost 최소화의 TensorFlow 구현 (lab 03)
- 06. cost 함수를 파이썬만으로 직접 구현
- 07. multi-variable linear regression (lec 04)
- 08. multi-variable linear regression을 TensorFlow에서 구현하기(lab 04)
- 09. 1주차 스터디 정리
- 10. Logistic Classification의 가설 함수 정의 (lec 05-1)
- 11. Logistic Regression의 cost 함수 설명 (lec 05-2)
- 12. TensorFlow로 Logistic Classification의 구현하기 (lab 05)
- 13. 파이썬으로 Logistic Regression 직접 구현
- 14. Softmax Regression- 기본 개념 소개 (lec 06-1)
- 15. Softmax classifier 의 cost함수 (lec 06-2)
- 16. TensorFlow로 Softmax Classification의 구현하기 (lab 06)
- 17. 학습 rate, Overfitting, 그리고 일반화 (Regularization) (lec 07-1)
- 18. Training-Testing 데이타 셋 (lec 07-2)
- 19. 학습 rate, training-test 셋으로 성능평가 (lab 07)
- 20. 2주차 스터디 정리
- 21. 로그 함수 정리
- 22. 딥러닝의 기본 개념- 시작과 XOR 문제 (lec 08-1)
- 23. 딥러닝의 기본 개념2- Back-propagation 과 2006-2007 '딥'의 출현 (lec 08-2)
- 24. XOR 문제 딥러닝으로 풀기 (lec 09-1)
- 25. 파이썬으로 XOR 조합 찾아보기
- 26. 특별편- 10분안에 미분 정리하기 (lec 09-2)
- 27. 딥넷트웍 학습 시키기 (backpropagation) (lec 09-3)
- 28. XOR을 위한 텐서플로우 딥네트웍 (lab 09-1)
- 29. Tensor Board로 딥네트웍 들여다보기 (lab 09-2)
- 30. Sigmoid 보다 ReLU가 더 좋아 (lec 10-1)
- 31. Weight 초기화 잘해보자 (lec 10-2)
- 32. Dropout 과 앙상블 (lec 10-3)
- 33. 레고처럼 넷트웍 모듈을 마음껏 쌓아 보자 (lec 10-4)
- 34. 딥러닝으로 MNIST 98%이상 해보기 (lab 10)
- 35. 딥러닝으로 MNIST 98%이상 해보기 (lab 10) 소스 코드
- 36. 3주차 스터디 정리
- 37. ConvNet의 Conv 레이어 만들기 (lec 11-1)
- 38. ConvNet Max pooling 과 Full Network (lec 11-2)
- 39. ConvNet의 활용예 (lec 11-3)
- 40. ConvNet을 TensorFlow로 구현하자 (MNIST 99%) (lab 11)
- 41. NN의 꽃 RNN 이야기 (lec 12)
- 42. TensorFlow에서 RNN 구현하기 (lab 12)
- 43. TensorFlow에서 RNN 구현하기 (lab 12) 소스코드
- 44. 4주차 스터디 정리
- 45. 마지막 정리, 새로운 시작 (종강)