밑바닥부터 시작하는 딥러닝 : 파이썬으로 익히는 딥러닝 이론과 구현 실습 환경 : google colab 4장 - 신경망의 학습 책에서는 로컬 개발환경에서 실습하도록 되어있지만 google clolab에서 실습을 진행. 그에 맞게 코드 수정. 범용능력 : 아직보지 못한 데이터 (훈련데이터에 포함되지 않은 데이터)로도 문제를 올바르게 풀어내는 능력. 오버피팅 (Overfitting) : 한 데이터셋에만 지나치게 최적화된 상태. 손실함수 (loss function) : 신경망 성능의 나쁨을 나타내는 지표. 현재의 신경망이 훈련데이터를 얼마나 잘 처리하지 못하는지를 나타낸다. => 숫자가 낮을수록 성능이 좋다 손실함수 - 오차제곱합 오차제곱합 : (sum of squares for error , SSE) : ..
밑바닥부터 시작하는 딥러닝 : 파이썬으로 익히는 딥러닝 이론과 구현 실습 환경 : google colab 3장 - 신경망 책에서는 로컬 개발환경에서 실습하도록 되어있지만 google clolab에서 실습을 진행. 그에 맞게 코드 수정. mnist dataset을 가져오는 방법은 2가지. 1. keras 2. 책에서 제공하는 mnist를 colab에 업로드 1. keras 이용 from keras.datasets import mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() 형상을 확인해보면 책과 다르다. 책은 (60000, 784) 로 나온다. 책에서 제공하는 데이터셋은 2차원(28x28)의 이미지를 flatten =True 처리했기에 1차원..
밑바닥부터 시작하는 딥러닝 : 파이썬으로 익히는 딥러닝 이론과 구현 실습 환경 : google colab 3장 - 신경망 활성화 함수(activation function) : 입력신호(input)의 총합을 출력신호(output)로 변환하는 함수 계단 함수 - 개념 # 계단 함수 # 입력(input) 이 0을 넘으면 1을 출력하고 그외에는 0을 출력한다. def step_function(x) : # x는 실수(부동소수점) 만 받아들인다. 넘파이 배열을 인수로 넣을 수는 없다. if x > 0 : return 1 else : return 0 - 넘파이 배열도 입력 받으려면 def step_function(x) : y = x > 0 # bool (True/False 형태로 저장된다.) return y.asty..
- Total
- Today
- Yesterday
- garmin
- 나이키 리액트 인피니티 런 플라이니트
- 포러너 245
- forerunner 245 music
- 가민
- 치커리
- 리액트 인피니티 런
- 젤카야노 25
- 비트 키우기
- 다이소 방울토마토
- 포러너245
- 비트
- 밑바닥부터 시작하는 딥러닝
- 바질 재배
- 진미영
- 다이소 씨앗
- 방울토마토
- 다이소 바질
- 가민 포러너
- 방울토마토 키우기
- 바질
- 나이키
- 베란다에서 비트 키우기
- forerunner265
- 베란다에서 식물키우기
- 베란다에서 식물 키우기
- 포러너 245 뮤직
- 방울토마토 재배
- 바질 키우기
- 적상추
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |