배워서 남 주자

전체 글 65

[경제용어 700선] 2. 고통지수, 골디락스경제, 공공재, 공급탄력성, 공매도

이번 포스팅에서는 고통지수, 골디락스경제, 공공재, 공급탄력성, 공매도에 관한 공부를 해보겠습니다. 고통지수 고통지수(misery index)란 소비자물가상승률 + 실업률로 계산되는 값으로써, 1975년 미국의 경제학자 오쿤(A. Okun)이 국민의 삶에 실업률과 물가상승률이 큰 영향을 준다는 점에 착안하여 만든 지표입니다. 이 수치는 높을수록 물가상승률이나 실업률이 높아져서 국민이 느끼는 삶의 고통이 높다는 것을 말해줍니다. 실제로 2022년 8월인 지금, 러시아-우크라이나 전쟁부터 시작해서 세계적으로 하이인플레이션 국면까지 온 세계가 난리인데요. 우리나라도 이런 국제적인 흐름 속에 예외는 아니기에, 실제로 고통지수를 찾아보니 아래와 같은 자료가 있었습니다. 고통지수를 이용하여 나라간의 비교를 하기는 ..

[경제용어 700선] 1. 가산금리, 경기동향지수, 경상수지, 고용률, 고정금리

얼마 전 지인의 추천으로 돈의 속성이란 책을 읽었는데, 최근에 읽었던 책 중 가장 흡인력있고 인사이트가 있는 책이었던 것 같습니다. 짧은 챕터 여러개로 구성되어 있어서 빠르게 읽기도 좋으니 아직 읽어보지 않으신 분들에게는 강력 추천합니다. 이 책의 한 챕터에서 금융 문맹에 관한 얘기를 한 파트가 있는데, 여기서 한국은행에서 매년 발행하고 있는 경제용어 700선이라는 자료를 소개했습니다. 실제로 보니 굉장히 잘 정리가 되어있어서 이를 기준으로 공부하면 좋겠다는 생각이 들었습니다. https://www.bok.or.kr/portal/bbs/B0000216/view.do?nttId=10059182&type=&searchOptn8=22&menuNo=200134&listType=G&pageIndex=1 경제금융용..

[인공지능 및 기계학습 개론] 4.2 Introduction to Logistic Regression

이번 포스팅에서는 Logistic Regression에 대해서 소개해보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10591 [LECTURE] 4.2. Introduction to Logistic Regression : edwith - 신승재 www.edwith.org 강의에서는 logistic function과 sigmoid function이 약간 잘못 설명이 되어있는 듯 하여 정정하고자 합니다. 사실 치명적인 오류라기보다는 때에 따라 이렇게 불렀다 저렇게 불렀다 하는 감이 없지않아 있는데, 그래도 처음 정의할 때만큼은 제대로 해야 헷갈리지 않으므로 여기서 확실히 정의하고 가고자 합니다. 우선 Logistic function이란 다음의 꼴을..

[인공지능 및 기계학습 개론] 4.1 Decision Boundary

이번 시간에는 Decision Boundary에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10590 [LECTURE] 4.1. Decision Boundary : edwith - 신승재 www.edwith.org 아래의 그림을 같이 보도록 하겠습니다. 이 그림은 점선이 한 세트이고, 실선이 한 세트입니다. 점선의 경우를 살펴보면, 아래 그림처럼 색칠한 부분을 택했을 때, 택하지 않은 부분만큼은 risk로써 작용할 것입니다. 마치 주사위를 한 번 던져서 1의 눈이 나오는 확률을 구하고 싶다면, 그렇지 않은 경우가 리스크로 작용하는 것처럼 말이죠. 여기서 decision boundary에 해당하는 가운데 만나는 부분을 보면, 당연..

[일상/일기] 나의 가치를 높여가자

항상 열심히 살고는 있지만 이따금 현생에서 현타를 느낄 때가 종종 있다. 이렇게 현타를 느끼다가 다시 바이오리듬이 돌아오면 이랬을 때의 감정들은 모두 잊어버리고 다시 살아가는 것 같다. 물론 패배감에 젖어있는 삶은 좋지 않지만, 그렇다고 이런 순간에 얻었던 교훈까지 잊어버리는 것은 옳지 않다고 생각한다. 그래서 이번에는 생각난 김에 글로 옮겨놓고자 한다. 나는 왜 가끔 무기력해지는가? 여러 이유가 있겠지만, 나의 경우에는 다음과 같았다. 체력 체력적인 문제는 절대 무시하지 못하는 요소이다. 기분이 좋을 일이 많아도 그 순간에 체력이 받쳐주지 못하면 그 기분을 오래 누리지 못한다. 이유없이 짜증이 나는 순간도 돌이켜보면 결국 내가 체력이 부족해서 생기는 경우가 많다. 나이가 들수록 점점 젊음만으로는 체력과..

Life/일상 2022.08.22

[인공지능 및 기계학습 개론] 3.3 Naive Bayes Classifier

이번 포스팅에서는 Naive Bayes Classifier에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10587 [LECTURE] 3.3. Naive Bayes Classifier : edwith - 신승재 www.edwith.org 앞의 포스팅들에서 이미 다 준비를 해놨기 때문에 간단하게 정리할 수 있을 것 같습니다. 2022.08.20 - [AI/인공지능 및 기계학습 개론] - [인공지능 및 기계학습 개론] 3.1 Optimal Classification [인공지능 및 기계학습 개론] 3.1 Optimal Classification 이번 포스팅에서는 Optimal Classification에 대해서 알아보도록 하겠습니다. ..

[인공지능 및 기계학습 개론] 3.2 Conditional Independence

이번 포스팅에서는 Conditional Independence에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10586 [LECTURE] 3.2. Conditional Independence : edwith - 신승재 www.edwith.org 지난 포스팅에서 Bayes Classifier에 대해 알아보면서, 다음과 같은 식을 얻었었습니다.: $$ f^{\text{Bayes}}=\argmax_{y=1,\ldots,K} P(X=x|Y=y)P(Y=y) $$ 그래서 class conditional density $P(X=x|Y=y)$와 class prior $P(Y=y)$를 각각 구해서 계산하는 방향으로 생각하기로 했었는데요. 아래의 ..

[인공지능 및 기계학습 개론] 3.1 Optimal Classification

이번 포스팅에서는 Optimal Classification에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10585 [LECTURE] 3.1. Optimal Classification : edwith - 신승재 www.edwith.org 기본적으로 Classifier는 측정값과 실제값의 차이를 최소화하여 misclassification 확률을 최소화 하려고 하죠. 즉, 아래의 식을 만족하는 $f^*$를 optimal classifier라고 합니다. $$ f^*\coloneqq\argmin_f P(f(X)\neq Y) $$ 이렇게 하게끔 하는 classifier는 여러 종류가 있을텐데, 그 중에서 Bayes Classifier란 i..

[인공지능 및 기계학습 개론] 2.5 Linear Regression

이번 포스팅에서는 Linear regression에 대해 알아보도록 하겠습니다. 강의 목록에는 다르게 적혀있는데 아무래도 중간에 바뀌고 수정이 되지 않은 것 같습니다. http://www.edwith.org/machinelearning1_17/lecture/10583 [LECTURE] 2.5. How to create a decision tree given a training dataset : edwith - 신승재 www.edwith.org Machine learning은 결국 주어진 input과 output을 바탕으로 둘 사이의 관계를 나타내주는 함수를 찾는 것이 목적이죠. 이 함수의 modeling으로써 대표적인 예가 바로 linear regression입니다. 말 그대로 linear한 관계로 mo..

[인공지능 및 기계학습 개론] 2.4 Entropy and Information Gain

이번 포스팅에서는 Entropy와 Information Gain에 대해서 알아보도록 하겠습니다. http://www.edwith.org/machinelearning1_17/lecture/10582 [LECTURE] 2.4. Entropy and Information Gain : edwith - 신승재 www.edwith.org Entropy는 Uncertainty를 계량화한 것이라 보시면 됩니다. 그래서 entropy가 클수록 더 큰 uncertainty를 갖는 것이라 해석을 할 수 있습니다. 불확실성에 대한 얘기를 하는 것이기 때문에 feature들이 deterministic한 대상이 아닌 random variable로서 간주됩니다. 이를 formulate하면 아래와 같습니다.: $$ H(X)\colo..