배워서 남 주자

분류 전체보기 67

[인공지능 및 기계학습 개론] 2.5 Linear Regression

이번 포스팅에서는 Linear regression에 대해 알아보도록 하겠습니다. 강의 목록에는 다르게 적혀있는데 아무래도 중간에 바뀌고 수정이 되지 않은 것 같습니다. http://www.edwith.org/machinelearning1_17/lecture/10583 [LECTURE] 2.5. How to create a decision tree given a training dataset : edwith - 신승재 www.edwith.org Machine learning은 결국 주어진 input과 output을 바탕으로 둘 사이의 관계를 나타내주는 함수를 찾는 것이 목적이죠. 이 함수의 modeling으로써 대표적인 예가 바로 linear regression입니다. 말 그대로 linear한 관계로 mo..

[인공지능 및 기계학습 개론] 2.4 Entropy and Information Gain

이번 포스팅에서는 Entropy와 Information Gain에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10582 [LECTURE] 2.4. Entropy and Information Gain : edwith - 신승재 www.edwith.org Entropy는 Uncertainty를 계량화한 것이라 보시면 됩니다. 그래서 entropy가 클수록 더 큰 uncertainty를 갖는 것이라 해석을 할 수 있습니다. 불확실성에 대한 얘기를 하는 것이기 때문에 feature들이 deterministic한 대상이 아닌 random variable로서 간주됩니다. 이를 formulate하면 아래와 같습니다.: $$ H(X)\colo..

[일상] 여의도 한강공원은 아직도 물이 찰랑찰랑...

밥 먹고 산책하는데 날이 그렇게 더운 것 같진 않아서 오랜만에 여의도 한강공원을 산책했습니다. 며칠 전 80년만의 폭우가 내리고 난 후 처음 간건데, 아직도 물이 찰랑찰랑하네요. 8월 10일에 찍은 사진만 봐도 거의 공원이 통째로 잠긴 정도였는데, 오늘 가니 물이 많이 빠져서 그정도는 아니었습니다. 예전에 앉아서 놀던 곳이 지금은 잠겨있네요. 아래 영상은 마치 서해 같아서 찍어봤습니다. 오늘의 산책 끝!

Life/일상 2022.08.16

[인공지능 및 기계학습 개론] 2.3. Introduction to Decision Tree

이번 포스팅에서는 결정나무(Decision Tree)에 대해서 간략히 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10581 [LECTURE] 2.3. Introduction to Decision Tree : edwith - 신승재 www.edwith.org 지난 포스팅까지는 Rule based 형태로 접근해보았는데, general case와 specific case를 두었음에도 그 range내에 들어가지 못하는 case가 더러 발생하거나, 하나의 hypothesis로 특정이 되지 않아서 결정에 혼선이 생기는 경우까지 있었습니다. 이번에는 decision tree가 어떻게 작동하는 것인지 간략히 알아보고자 합니다. Decision tre..

[인공지능 및 기계학습 개론] 2.2 Introduction to Rule Based Algorithm

이번 포스팅에서는 지난 포스팅에서 다룬 예를 몇몇 algorithm을 토대로 살펴보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10580 [LECTURE] 2.2. Introduction to Rule Based Algorithm : edwith - 신승재 www.edwith.org [인공지능 및 기계학습 개론] 2.1 Rule Based Machine Learning Overview에서 다뤘던 예를 이어서 보겠습니다. 분류모형을 만들고자 하는데, 그 중 첫번째 알고리즘으로 Find-S Algorithm이라는 것이 있습니다. 이 알고리즘은 Null hypothesis $\mathbf{h}_0=$를 시작으로 instance를 하나씩 받으면서 l..

[인공지능 및 기계학습 개론] 2.1 Rule Based Machine Learning Overview

이번 포스팅에서는 Rule based machine learning overview를 해보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10579 [LECTURE] 2.1. Rule Based Machine Learning Overview : edwith - 신승재 www.edwith.org 이제 드디어 machine learning의 도입부입니다. 강의에서도 얘기가 나왔듯, learning, 즉 배우는 것은 경험(experience)으로부터 얻게 되는 것이고, 특정 task에 대해 익히게 됩니다. 더 많은 경험을 하면 할수록 그 task에 대해서는 점점 전문가가 되기를 희망하며 익히게 되듯, machine learning도 같은 아이디어로 동..

[CNN] CNN에서 pooling이란?

* 2020년에 medium에서 썼었던 글을 tistory로 옮긴 것입니다. * 이전 글에서 아랫 부분에 설명이 애매한 부분이 있어 삭제하고 새로 작성하였습니다. * https://hobinjeong.medium.com/cnn%EC%97%90%EC%84%9C-pooling%EC%9D%B4%EB%9E%80-c4e01aa83c83 CNN에서 pooling이란? * 20.12.22. update, 블로그 옮겼습니다. 공교롭게도 이 블로그를 시작하자마자 취직을 해서 글을 이어쓸 수 없었네요. 이제라도 다시 시작하려고 합니다. hobinjeong.medium.com 이번 포스트는 지난 CNN의 introduction의 후속입니다. 혹시나 CNN을 잘 모르거나 헷갈리시는 분들은 [CNN] CNN이란?에서 확인해보시..

AI/Deep Learning 2022.08.14

[CNN] CNN이란?

* 2020년에 medium에서 썼었던 글을 tistory로 옮긴 것입니다. * https://hobinjeong.medium.com/cnn-convolutional-neural-network-9f600dd3b395 CNN(Convolutional Neural Network)이란? * 20.12.22. update, 블로그 옮겼습니다. 공교롭게도 이 블로그를 시작하자마자 취직을 해서 글을 이어쓸 수 없었네요. 이제라도 다시 시작하려고 합니다. hobinjeong.medium.com CNN이 무엇이고, 어떻게 작동하는지 살펴보겠습니다. 요즘 Youtube를 통해 김성훈교수님의 ‘머신러닝과 딥러닝 BASIC’ 강의를 듣고 있습니다. CNN 전까지의 내용은 대체로 머신러닝의 기초를 다루고 있기 때문에 크게 어..

AI/Deep Learning 2022.08.14

[인공지능 및 기계학습 개론] 1.4 Probability and Distribution

이번 포스팅은 지난 1.1 ~ 1.3 포스팅에 대한 appendix 느낌의 포스팅입니다. 지금까지 쓰였고 앞으로도 자주 쓰일 확률과 분포에 대한 개념을 소개하는 시간입니다. http://www.edwith.org/machinelearning1_17/lecture/10577 [LECTURE] 1.4. Probability and Distribution : edwith - 신승재 www.edwith.org 우선 확률에 대해서 알아보도록 하겠습니다. 수학에서는 측도론(measure theory)이라고 불리우는 전공이 있습니다. 이름에서부터 알 수 있듯 measure라는 도구를 사용하여 무언가를 재는데, 이 때 metric과는 다른 의미이니 혼동하면 안됩니다. 확률론 자체가 measure theory를 기반으로..

[인공지능 및 기계학습 개론] 1.3 MAP

이번 포스팅에서는 MAP(Maximum A Posteriori) Estimation에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10576 [LECTURE] 1.3. MAP : edwith - 신승재 www.edwith.org 지난 포스팅에 이어 계속 압정을 던지는 예를 생각하고 있습니다. MLE 관점에서는 다섯 번 던져봤더니 세 번이 head가 나오고 두 번이 tail이 나왔었으니 $\hat\theta=3/5$가 적절하다고 결론을 내렸었는데요. 이는 50번을 던졌더니 30번이 head가 나왔어도 같은 prediction 값이 됩니다. 결과적으로는 같은 prediction이지만, 정말로 이 둘이 같은가? 에 대해서, 지난 시간에..