레슨 1 기계에게 상식적 판단 능력 심어주기
확률적 판단의 기본, 베이즈 정리
가장 그럴듯한 원인을 선택하는 행위, MLE
사전 정보의 등장으로 결과가 뒤집힌다, MAP
우리 일상 생활에서 활용되는 사전 정보
AI의 의사 결정을 돕는 사전 정보
맺는 말
레슨 2 확률 분포 해석하고 비교하기
엔트로피는 불확실성을 말해준다
불확실성은 곧 정보량이다
엔트로피는 정보의 가치이기도 하다
엔트로피는 결국 비용이다
확률 분포를 모르면 비용이 증가한다, 크로스 엔트로피
추가 비용을 수치화하다, KLD
엔트로피 패밀리의 무능함 1
엔트로피 패밀리의 무능함 2
가능한 대안, W 거리
너무나 원시적으로 사용되는 크로스 엔트로피
크로스 엔트로피 좀 더 잘 쓰기
맺는 말
레슨 3 날것의 숫자들을 확률 분포로
Softmax, 어울리지 않는 그 이름
왜 하필 지수 함수인가
확률 분포에 정답은 없다
맞춤형 확률 분포를 만들다
Sigmoid 함수와는 사촌 관계이다?
맺는 말
레슨 4 학습 가능 여부를 좌우하는 목표 함수
같으면서도 다른 두 목표 함수
로그 덕분에 일이 쉬워진 회귀
목표 함수에 로그를 씌우는 진짜 이유는?
학습이 나아갈 방향과 보폭, gradient
좋은 gradient, 나쁜 gradient
우리에게 이미 익숙한 log likelihood
맺는 말
레슨 5 엇나가는 학습 모델을 어떻게 제어하나
노이즈는 피할 수 없는 숙명이다
모델의 학습 과정에 적극 개입하다
이번에도 다시 한번 prior의 대활약
왜 작은 파라미터가 선호되는가
L1과 L2의 서로 다른 행보
배치 정규화의 등장, 그리고 가중치 감쇠의 위기
가중치 감쇠의 재평가
맺는 말
레슨 6 숨어 있는 변수를 찾아라, 없으면 만들어라
데이터 조작 시나리오
분포를 알면 창조는 쉽다
숨어있는 속성, 잠재 변수
섞인 성분을 분리해 내다, GMM
조인트 분포로 설명하다, VAE
분포가 아닌 함수로 설명하다, NF
단계별