안녕하세요 엔벨로퍼입니다.
Activation Function 재밌는 그림이 있어서 가져왔습니다.
우선 그 전에 뉴런의 동작을 쉽게 설명하면
입력들을 받아 (가중치를 곱해) 계산해준 값이
특정 값(역치)을 넘어가면 활성화 되고, 안넘으면 활성화 안되는데요.
neural network는 이러한 여러 뉴런들로 구조된 것이라 볼 수 있습니다.
이때 다양한 활성화 함수가 존재하게 됩니다.
(이 활성화 함수를 비선형으로 사용합니다. 비선형의 특징을 만들어줘서 예측 능력을 확장시킨다고 말할수 있습니다.)

비슷한 것들이 많아서 좀 해깔릴 순 있겠네요...
Sigmoid Tanh StepFunc. ReLU 요정도만 알고있네요 ㅎㅎ
감사합니다.
'AI' 카테고리의 다른 글
| bootstrap 부트스트랩이란? 어원 및 통계적 의미 (0) | 2023.05.29 |
|---|---|
| Analytical Solution(분석적) vs Numerical Solution(수치적) in ML (0) | 2023.05.27 |
| 인공지능 대학원 입학전 공부할 것 정리 (0) | 2023.05.20 |
| AI 무료 교육 추천 (feat. udemy 무료 구독권 신청) (0) | 2023.01.24 |
| 시계열 데이터로 MLP, CNN, LSTM 돌려보기 - 한국부동산원 아파트 월간 매매가격지수 활용 (0) | 2023.01.23 |