일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 빅데이터분석기사
- 코딩테스트
- 케라스
- 텐서플로우
- Deeplearning
- machinelearning
- 통계
- TensorFlow
- Keras
- 빅분기
- 의학논문
- 데이터전처리
- Python
- 파이썬
- 의학통계
- ComputerVision
- 데이터분석가
- CNN
- 컴퓨터비전
- 데이터사이언스
- 딥러닝
- 인공지능
- 머신러닝
- 데이터모델링
- resnet
- AI
- 빅분기실기
- 데이터분석
- 데이터EDA
- mnist
- Today
- Total
목록통계 (3)
Be Brave, Be Humble
간혹 두 그룹이 유의한 차이가 나지 않는다는 것을 주장하고 싶어하는 경우 'p-value가 0.05보다 크므로 두 그룹은 같다'고 기술하는 연구자들이 있습니다. 이러면 이제 리뷰어가 "그래? 잘 걸렸다" 하는거죠. p-value가 0.05보다 크다는 것은 두 그룹이 같다는 것이 아닙니다. 단지 두 그룹의 유의한 차이를 밝히지 못한 것 뿐입니다. 뭐가 다르냐 싶겠지만 통계적 관점에선 다릅니다. 유의한 차이를 밝히지 못했다는 것은 샘플 수가 증가하면 유의한 차이가 날 수도 있다는 말이기도 합니다. 정말 '같다'는 것을 주장하려면 동등성 검정을 해야합니다만, 동등성 검정은 샘플 수가 훨씬 많이 필요합니다. 우리가 이만큼 많은 샘플로 테스트 해보았는데도 차이가 없더라~하는 것을 입증해야 하기 때문입니다. 경험상..

Deep Learning과 Machine Learning의 목적은 정확도를 올리는 것이 아니라, weight와 bias의 업데이트를 통해 loss를 최소화하는 예측값을 찾는 것임. input data를 X, 가중치를 w, bias를 b라고 하면 Linear regression은 (X*w + b) 연산을 통해 예측한 Y로 loss를 산출하고 (Y-target) Logistic regression은 Z = (X*w + b)에 비선형성을 추가하기 위해 activation function으로 sigmoid를 적용하여 예측한 Y로 loss를 계산 Deep leaning은 여러 층에 걸쳐 (X*w + b)에 activation function를 적용한 후 계산된 Y로 loss 산출 CNN은 convolution 연..