활성화 함수(Activation Function) 임계값에 따라서 입력 신호의 총합을 출력 신호로 변환하는 함수 h(x) 딥러닝에서 비선형 함수를 사용함으로써 비선형성을 증가시키는 역할을 함 (1) Linear function 선형 함수 f(x) =a+bx :( 층을 아무리 깊이해도 은닉층이 없는 네트워크로도 똑같은 기능 할 수 있음 h(x) =cx를 사용하는 3층 네트워크 y(x) =h(h(h(x))) =c*c*c*x= c^3x=ax (if a=c^3) 여전히 선형 함수형태임을 알 수 있다. (2) non-linear fucntion 비선형 함수 : 다층 신경망에서 층이 많아질수록 비선형 함수가 더 중요함 (2.1) Binary Step function (이진 계단 함수): 0,1 사이에서 값이 0을..