2022년 10월 5일
AI Ethics
AI를 개발할 때 기대한 것 보다 파급력이 더 클 수도 있음. 또한 데이터를 취득할 때 수집자의 편견이 들어갈 수 있음.
Multimodal Learning
AI가 시각, 촉각, 청각, 후각, 미각 중 특정한 감각만을 이해하는 것이 아닌 여러 감각을 상호보완적으로 이해해서 문제를 복합적으로 추론하여 해결하는 것. 감각 뿐만 아니라 다른 센서들 끼리의 융합을 말할 때에도 사용 됨.
AI 모델이 내놓는 결과물이 현실 세계의 윤리 문제를 결코 피할 수 없다는 것을 알았다. 중요하다고 생각하지 않은 부분에서도 윤리 문제가 발생할 수 있다는 것을 알고 어떠한 것을 개발하고자 할 때 조심해야겠다고 생각했다.
Linear Classifier
SVM loss

Loss를 정답이 아닌 클래스의 Score - 정답인 클래스의 Score + 정해놓은 Delta(Margin)로 하며 그 외에는 Loss를 0으로 정의함. Loss는 0보다 크거나 같은 Hinge 형태의 형상을 띔.
Softmax Classifier(Cross-Entropy loss)


Score를 확률과 같이 표현하기 위해 Class의 Score 합이 1이며 각 Score가 0과 1사이 값을 가지도록 정규화 함.

Cross-Entropy loss를 이용해 두 개의 확률 분포 p(정답), q(예측)의 괴리를 비교할 수 있음.
SVM과는 달리 학습이 오래 진행되더라도 Loss가 0이 되지 않기 때문에 딥러닝의 대부분 문제는 SVM보다는 Softmax를 사용하고 있음.
Gradient Descent
Loss function은 가중치 w에 대한 함수로 표현할 수 있는데 w에 대한 순간적인 기울기를 구해 w가 이상적인 값에 도달할 수 있도록 하는 것
Gradient check
w에 대해 기울기를 구하는 방법은 계산 속도가 느린 Numerical 방법과 빠르지만 오차(에러)가 나타나기 쉬운 Analytic 방법이 있음. 미분 공식을 이용한 Analytic 방법을 주로 사용하되 틈틈히 Numerical 방법도 사용하여 Gradient를 검사하는 것.
Computational Graph
Gradient를 위해 Analytic 방법 사용은 모델 알고리즘 변경, 유지, 보수에 많은 비용이 들게 함.

따라서 Chain rule을 이용하여 원하는 파라미터의 기울기를 구하고자 함.
구하고자 하는 파라미터의 Gradient를 구하고자 할 때 복잡한 연산 보다는 각 노드에서 Upstream Gradient와 Local Gradient를 구하고 Chain rule을 적용하여 구하고자 하는 편미분 값까지 차례차례 구하는 방식

이 때, 위와 같은 패턴이 관찰됨
Shannon entropy
정보 엔트로피라고도 불리며 발생 가능한 사건들(score)이 얼마나 공정하게 발생하는지를 엔트로피로 정의한 것. score 결과의 특성을 알아내거나 score 결과와 target 결과간의 유사성을 알아보는 데 사용할 수 있다.