일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 컴퓨터비전
- 의학통계
- 머신러닝
- 데이터전처리
- TensorFlow
- 파이썬
- resnet
- Deeplearning
- 인공지능
- 케라스
- 빅분기
- 데이터분석
- 통계
- ComputerVision
- 데이터EDA
- 빅데이터분석기사
- 빅분기실기
- 의학논문
- 코딩테스트
- 데이터분석가
- 데이터사이언스
- Keras
- AI
- 텐서플로우
- Python
- machinelearning
- 딥러닝
- mnist
- 데이터모델링
- CNN
- Today
- Total
목록TensorFlow (9)
Be Brave, Be Humble

https://github.com/FulISun/Computer_Vision/blob/main/CNN/03_Fashion_MNIST_callbacks.ipynb Fashion MNIST Example 정확도가 잘 안나오면 하이퍼 파라미터 먼저 수정하기~ learning rate -> epoch -> architecture 순으로 수정할 것 accuracy는 그대로인데 loss만 감소하는 경우는 맞추는 값만 맞추고 틀린 값은 계속 틀려서 => decision making 필요함. 데이터 확인해서 코딩 오류 수정하거나 해당 값 삭제 해야함 ex) 정답 = [ 1, 2, 3, 4 ] 예측1 = [ 1, 2, 3, 3 ] 예측2 = [ 1, 2, 3, 10 ] 인 경우 둘 다 정확도는 0.75지만 loss가 예..

https://github.com/FulISun/Computer_Vision/blob/main/CNN/01_NN_MNIST_example_onehot.ipynb MNIST Example [1] MNIST Data 생성 및 확인 In [ ]: import tensorflow as tf import numpy as np from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Flatten from tensorflow.keras.datasets import mnist from tensorflow.keras.utils import to_categorical In [ ]: (X_train, t_train), ..

https://github.com/FulISun/Computer_Vision/blob/main/CNN/Introduction_to_CNN.ipynb 등장배경: 기존 신경망(NN)은 input을 받을 때, 이미지의 픽셀을 vector로 바꾸어 숫자로 받음. 그런데 이미지는 'feature', 'position'이라는 중요한 두 가지 특징을 가짐. 자동차를 예로 들면, 자동차는 동그란 바퀴(feature)가 네모난 몸체 밑(position)에 있음. 즉, 중요 특징과 그 위치를 파악해야 하는데 vector로는 알 수가 없음. 신경망 입장에선 얘가 이미지 데이터인지 텍스트 데이터인지 알 길이 없단 의미. => 이미지 자체로 넣자! => "CNN 등장" +) 반면, '언어'는 '순서'가 중요함 I work at..

[1] 데이터 로드 및 기본 정보 확인 In [ ]: import matplotlib import pandas as pd import matplotlib.pyplot as plt df = pd.read_csv('./kaggle_diabetes.csv') In [ ]: df.head() Out[ ]: PregnanciesGlucoseBloodPressureSkinThicknessInsulinBMIDiabetesPedigreeFunctionAgeOutcome01234 6 148 72 35 0 33.6 0.627 50 1 1 85 66 29 0 26.6 0.351 31 0 8 183 64 0 0 23.3 0.672 32 1 1 89 66 23 94 28.1 0.167 21 0 0 137 40 35 168 43..

데이터 프레임 생성 In [ ]: import pandas as pd data_dict = { 'Name' : ['John', 'Sabre', 'Kim', 'Sato', 'Lee', 'Smith', 'David'], 'Country' : ['USA', 'France', 'Korea', 'Japan', 'Korea', 'USA', 'USA'], 'Age' : [31, 33, 28, 40, 36, 55, 48], 'Job' : ['Student', 'Lawyer', 'Developer', 'Chef', 'Professor', 'CEO', 'Banker'] } df = pd.DataFrame(data_dict) df Out[ ]: NameCountryAgeJob0123456 John USA 31 Student..

binary classification의 정답 종류 2개(0 or 1) => sigmoid는 0.5 기준으로 0/1 나누므로 출력층 노드 수는 1개면 됨. multiple classification의 정답 종류 n개(0, 1, 2, ..., n) => 출력노드는 정답의 수인 n One-Hot In [ ]: import tensorflow as tf from tensorflow.keras.models import Sequential, Model from tensorflow.keras.layers import Flatten, Input, Dense from tensorflow.keras.optimizers import SGD, Adam In [ ]: import numpy as np try: loaded_d..

Logistic Regression Example In [ ]: import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Flatten, Dense from tensorflow.keras.optimizers import SGD, Adam [1] 데이터 생성 In [ ]: import numpy as np try: loaded_data = np.loadtxt('./diabetes.csv', delimiter = ',') x_data = loaded_data[ :, 0:-1] t_data = loaded_data[ :, [-1]] print(x_data.shape) print..