1. 정의 신경망 학습 모델의 input 값에서 output값을 도출할때, 임계치(threshold, Critical Point) 내에서 output 이 도출되도록 transfer 하는 함수 2. 활성화 함수 종류 - 단경시렐소 양항탄엘 계 구분 명칭 그래프 설명 단극성 경사함수 - 단극성 선형 연속 함수 Sigmoid - 로지스틱 함수, x값을 변화에 따라 0~ 출력 ReLU(Rectified Linear Unit) - x값이 음수일 땐 0 고정 - 기울기 소실 문제 발생 - 시그모이드보다 6배 빠름 Softmax 2차원 그래프 표현 불가 - 여러 입력값을 0~1로 나눠어 표현 - 마지막 출력층에서 결과값을 분리(SVM 유사) 양극성 항등함수 - 양극성 선형 연속 함수 - 입력의 가중합 출력 tanh ..