본 포스팅은 혁펜하임 [AI를 위한 수학] 딥린이를 위한 필수 수학 패키지를 참고하였습니다.
https://www.youtube.com/watch?v=frkVgBvp850
# 4 극한
* x가 a에 제일 가까운 값일때 f(x)는 무엇인가
* 극한 값이 존재해야 미분이 가능해짐!
# 5 연쇄법칙
* 함수를 조각조각 미분해서 쉽게 구하자!
예시>>
# 6 편미분 = 그라디언트
* f(x,y)=yx^2 와 같은 여러개의 변수로 이루어진 함수를 미분할때 각각에 대해서 미분하는 것을 말함.
즉, x에 대한 미분과 y에 대한 미분 (이때, 다른 변수는 상수로 취급하고 미분해주면 됨)
# 7 Maclaurin 급수/ Taylor 급수
* 어떤 임의의 함수를 다항함수로 나타내는 것 (미분이 불가능한 함수를 다항함수로 표현해주면서 미분 가능한 함수로 나타낼 수 있음)
Ex. cos 함수를 다항함수로 나타내보면..!
하지만, Macaurin급수의 경우 0을 중심으로 맞춰서 계산하게 되니 중심부분만 잘 맞춰지고 뒤로갈수록 맞추기가 함들어짐.
따라서 원하는 지점으로 중심점을 지정할 수 있는 것이 Taylor급수임.!
[특이한 케이스]
# 8 결과 값이 스칼라로 나올때 미분
x1x2^2를 일일이 미분해주는 방식이 있지만 간단하게 미분되는 방법이 있음
[전개]
# 9 그라이언트가 가장 가파른 방향으로 가는 이유
- 그라디언트와 같은 방향으로 가는 선택을 하게된다 = 변화의 크기가 크다 = 가파르다..
* learning rate가 필요한 이유: 변화의 크기가 너무 크면 근사가 불가능함으로 변화량을 조절해주기 위해 learning rate를 곱해줌
'머신러닝 스터디 > 딥러닝' 카테고리의 다른 글
꼭 알아야할 수학(4)_확률 (0) | 2023.02.12 |
---|---|
꼭 알아야할 수학(3)_미분심화 (0) | 2023.02.04 |
꼭 알아야할 수학(1)_로그/행렬/벡터 (0) | 2023.01.31 |
인공신경망 (Artificial Neural Network, ANN)_(3) (0) | 2023.01.22 |
인공신경망 (Artificial Neural Network, ANN)_(2) (0) | 2022.10.01 |