본문 바로가기

AI

활성화 함수 Activation Function (사람 팔 그림)

 

안녕하세요 엔벨로퍼입니다.

 

Activation Function 재밌는 그림이 있어서 가져왔습니다.

 

 

 

우선 그 전에 뉴런의 동작을 쉽게 설명하면

입력들을 받아 (가중치를 곱해) 계산해준 값이 

특정 값(역치)을 넘어가면 활성화 되고, 안넘으면 활성화 안되는데요.

neural network는 이러한 여러 뉴런들로 구조된 것이라 볼 수 있습니다.

 

 

이때 다양한 활성화 함수가 존재하게 됩니다.

(이 활성화 함수를 비선형으로 사용합니다. 비선형의 특징을 만들어줘서 예측 능력을 확장시킨다고 말할수 있습니다.)

 

 

 

 

 

비슷한 것들이 많아서 좀 해깔릴 순 있겠네요...

Sigmoid Tanh StepFunc. ReLU 요정도만 알고있네요 ㅎㅎ

 

감사합니다.