정리/Data&AI

활성화 함수와 손실 함수

yunny_world 2022. 10. 20. 01:47

- 이진 분류를 처리할 때 (Binary classification),

   - Sigmoid Function ((-INF, INF) (0, 1))

   - Binary Cross-Entropy Loss (Log Loss) ((0, 1) → [0, INF))

 

- 다중 분류를 처리할 때 (Multi-class classification),

   - Softmax Function ((-INF, INF)(0, 1))

   - Negative Log-Likelihood ((0, 1)(INF, 0])

 

- 따라서, 몇 개의 요소로 분류를 하는 지에 따라, 사용하는 함수가 다름을 이해하자.

 

- Sigmoid는 Softmax의 특수 케이스로 클래스 갯수만 2개일 뿐 완전히 같은 연산을 수행한다.

 

- 활성화 함수 이후에 손실 함수를 적용한다.

 

아래 링크의 '6. Conclusions'를 참고하여 각각의 개념을 명확히 하자.

https://towardsdatascience.com/understanding-sigmoid-logistic-softmax-functions-and-cross-entropy-loss-log-loss-dbbbe0a17efb

 

Understanding Sigmoid, Logistic, Softmax Functions, and Cross-Entropy Loss (Log Loss)

Practical Maths for Key Concepts in Logistic Regression and Deep Learning

towardsdatascience.com

 

아래 링크를 참고하여, 두 개념을 명확히 구분하자.

https://wooono.tistory.com/387

 

[ML] Binary Cross Entropy 와 Cross Entropy 의 차이

들어가기 앞서, Binary Cross Entropy 와 Cross Entropy 의 개념은 자주 헷갈리는 것 같습니다. 따라서, 해당 포스트에서는 Binary Cross Entropy 와 Cross Entropy 의 차이점에 대해서 다뤄볼 것입니다. 진행 순..

wooono.tistory.com

 

아래 링크를 참고하여, 활성화 함수에 대해 알고, 각 활성화 함수의 특징을 알자.

https://cheris8.github.io/artificial%20intelligence/DL-Activation-Function/

 

[딥러닝] 활성화 함수 (Activation Function)

이 글은 활성화 함수, 특히 비선형 활성화 함수에 관한 기록입니다.

cheris8.github.io

'정리 > Data&AI' 카테고리의 다른 글

Batch와 Epoch  (0) 2022.10.13
Overfitting, Hyperparameters  (0) 2022.10.04
손실 함수, 경사 하강법, 역전파  (0) 2022.09.22
Python에서 OOP하기  (0) 2022.09.14
Jupyter Notebook관련 이것 저것  (0) 2022.09.14