gradient descent(2)
-
[ML] 내가 머신러닝 진짜 알기 쉽게 정리해서 올려줄게 (23.10.19.ver)
이번 여름방학 동안에는 책을 이용해서 머신러닝의 기초 개념을 공부했었다.2학기가 시작하면서 "기계 학습" 과목을 수강하고,코랩과 사이킷런을 이용했던 방식이 아니라, 개념들에 들어있던 수학적인 개념과 원시적인 구현을 하는 방식으로 기계학습을 배우다보니 앞에서는 모르고 넘어갔던 내용이 많았던 것 같았다. (사이킷런의 위대함도 다시금 느끼게 되고)그래서 이번 시리즈에서는 사이킷런을 통한 머신러닝의 활용보다는, 수학적 지식이 밑바탕이 된 개념적인 이해를 위주로 글을 써볼까 한다.시험공부 겸, 나중에 내가 리마인드했을 때도 기억이 날 수 있도록. 1️⃣ Machine Learnig의 기본 틀(큰 개념)을 먼저 살펴보자.✔️ Machine Learning이란? : Input Data, x를 넣었을 때, Outpu..
2023.10.13 -
[Calculus] Gradient Descent를 이해하기 위한 Vector Calculus 총정리
⚠ 이 글은 공부용으로 제가 보기 위해 작성한 Vector Calculus (벡터 미적분학) 정리글입니다. ⚠머신러닝에 필요한 개념들 위주로 정리되어 있어, 미적분학의 전반적인 내용을 공부하고 싶다면 이 글의 내용으로는 부족할 가능성이 매우 높습니다. 권장하지 않습니다.또한 제가 알아볼 수 있도록 쉽게 정리한 글이니, 오개념이나 수학적으로 잘못된 내용이 있을 수도 있습니다. 저를 너무 믿지 마세요.댓글로 지적해 주시면 빠르게 수정하겠습니다:) 1️⃣ Derivative: 일변수 (x ~ scalar) 함수에 대한 미분Derivative(미분)이란 f(x) = y를 만족하는 함수에 대한 그래프에서, x점일 때의 기울기를 의미한다.일반적으로 f(x) 위에 있는 h가 x로 가까워져 갈 때의, y축 변화량(f(..
2023.10.06