정보관리기술사/AI
활성화 함수(activation function)
기술기술
2024. 1. 30. 10:57
1. 정의
- 신경망 학습 모델의 input 값에서 output값을 도출할때, 임계치(threshold, Critical Point) 내에서 output 이 도출되도록 transfer 하는 함수
2. 활성화 함수 종류 - 단경시렐소 양항탄엘 계
구분 | 명칭 | 그래프 | 설명 |
단극성 | 경사함수 | ![]() |
- 단극성 선형 연속 함수 |
Sigmoid | ![]() |
- 로지스틱 함수, x값을 변화에 따라 0~ 출력 | |
ReLU(Rectified Linear Unit) | ![]() |
- x값이 음수일 땐 0 고정 - 기울기 소실 문제 발생 - 시그모이드보다 6배 빠름 |
|
Softmax | 2차원 그래프 표현 불가 | - 여러 입력값을 0~1로 나눠어 표현 - 마지막 출력층에서 결과값을 분리(SVM 유사) |
|
양극성 | 항등함수 | ![]() |
- 양극성 선형 연속 함수 - 입력의 가중합 출력 |
tanh | ![]() |
- 시그모이드보다 기울기가 크며 -1~1 범위를 가짐 | |
LReLU(Leaky ReLU) | ![]() |
- 음수일 때 입력값의 1/10 출력 - 기울기 소실 문제 해결 |
|
단극 or 양극성 | 계단함수 | ![]() |
- 단극성 또는 양극성 이진함수 - 디지털 형태 출력 요구에 사용 |