[Sung Kim] ML lec 04 - multi-variable linear regression (*new)





수업 웹페이지: http://hunkim.github.io/ml/ 이전 비디오에 남겨주신 댓글들 옮겨드립니다. 정동호2 months ago 꿀잼 유광현2 months ago This lecture is Amazing. Thanks Sir. I am not yet install Korean patch in my Ubuntu. Jang-Hwan Im10 months ago 아! 다변수 힘수 미분이네요 점점 어려움이 느껴지는데....강의 다 듣고 강의 횟수와 조회수 프로그램 짜보고 싶습니다 ^.^ Sung Kim10 months ago +임장환 우리는 다함수 미분을 하지는 않습니다. 프로그램이 해주니까, 미분한다는것만 이해 하시면 됩니다. Ashtray Kim3 weeks ago (edited) 교수님 질문있습니다! 그냥 1변수의 선형회귀일 경우, weight값이 하나이기 때문에 cost function이 단순 2차식, convex로 나온다는 것을 알겠는데요. weight가 2개 이상인 경우 cost function이 convex인지 아닌지 잘 모르겠습니다. 예를 들어 cost = (label- w0x0 - w1x1 - w2x2)^2 와 같은 경우 각 weight별 최대 차수는 2차이지만, 서로 다른 weight끼리 곱해지기도 하는 등 함수가 복잡하여 convex인지 아닌지 모르겠습니다. cost function의 개형이 어떤지 판단할 수 있는 방법이 있는지요 Jang Hwan Im1 month ago 선물 주신다고 해서 급 다시공부 하는데 ... 과연 설문 받을 수 있을 지...덕분에 강의 다시 듣습니다 ^.^ Alanga Doro2 months ago (edited) 교수님. 근데 머시러닝에서 bias는 어떤 역활인가요~ 바이어스를 적절히 넣으면 좋은 학습이 된다고 어디서 보았습니다. docworlds4 months ago 좋은 강의 감사합니다~! zhangbo00375 months ago 안녕하세요. 이렇게 좋고 쉬운 머신러닝 무료 강의는 처음입니다. 정말정말 고맙습니다. 짱! 이상민5 months ago 이런 강의를 이제 보다니... 혼자 독학하는 것보다 훨씬 좋군요.. 김시연7 months ago 좋은 강의 잘 듣고 있습니다. 감사합니다. Jein Song8 months ago (edited) 복습하는 도중 갑자기 궁금한 것이 생겼습니다! Gradient descent 알고리즘이 돌아가는 과정에서 만약 처음 weight에 대응하는 기울기가 무한대에 가까이 나오게 된다면 w = w - a * 무한대 답을 못구하고 계속해서 진동할 가능성도 있는 것인가요..? Jinwook Chang2 months ago 제가 정확히 알고 있는건지는 모르겠습니다만, 단순히 미분 후 극값을 찾지않고, 저런 알고리듬을 이용하는 이유 중 하나가, 첨점 즉, 기울기대 무한대인 값을 피하기 위해서인것으로 알고 있습니다.

댓글

이 블로그의 인기 게시물

[이수안컴퓨터연구소] 파이썬 레이싱 자동차 게임 만들기 Creating a Python Racing Car Game with pygame (한글자막)

[빵형의 개발도상국] 얼굴 인식 알고리즘 성능 비교 - Python, Deep Learning