본문 바로가기

분류 전체보기43

연속형 확률분포 - 균일 분포(Uniform Distribution) 균일 분포의 확률밀도함수 균일 분포(or 일양 분포)는 확률변수 $X$가 특정한 구간 $(\alpha, \beta)$ 에서 동일한 확률을 가지는 분포이다. 균일분포의 확률밀도함수(pdf)는 다음과 같다. 확률밀도함수의 면적은 항상 1이 되어야 하므로 $f(x)$는 $\cfrac{1}{\beta-\alpha}$가 된다. 균일분포의 누적확률분포 $F(a) = \displaystyle \int_{-\infty}^{a} f(x)\, dx$ 누적확률분포(cdf)는 위와 같이 표현할 수 있다. 그런데 균일분포는 $(\alpha, \beta)$라는 구간이 정해져 있으므로, 아래와 같이 구간별로 나누어 볼 수 있다. $a$가 $\alpha$보다 작을 때에는 0이므로, cdf는 0이다. $a$가 $\alpha$와 $\b.. 2023. 5. 23.
연속형 확률 변수 (Continuous random variable) 연속형 확률 변수 개요 확률 변수는 표본공간(Sample Space)에 있는 모든 원소(Element)를 실수로 대응시키는 함수이며, 연속형 확률 변수는 결과값이 셀 수 없는 무한한 경우이다. 연속형 확률 변수의 예 우리나라 국민들의 평균 소득 학생들의 평균 키 주식 시장의 인덱스 확률 밀도 함수(Probability density function, pdf) 확률 밀도 함수는 연속형 확률 변수에서 확률을 나타내는 함수로, 연속형은 무한이므로 적분을 통해서 확률을 알 수 있다. 아래 그림에서 $f(x)$ 가 확률 밀도 함수, 즉 pdf가 되며 면적이 확률을 뜻한다. 확률 밀도 함수의 특성 $f(x) \geq 0,\forall x$ → 확률 밀도 함수는 확률이기 때문에 모든 $x$에 대하여 0보다 크다. $.. 2023. 5. 22.
Deep Neural Network (DNN) Deep Neural Network (DNN) DNN은 MLP에서 다소 확장된 개념으로 다수의 hidden layer를 가지고 있는 인공신경망이다. 즉, DNN에서 “Deep”은 hidden layer가 많다는 의미이다. Layer수가 많아지면서 데이터의 feature(특징)를 더 잘 추출할 수 있다. 아래 그림에서 각 원은 노드(Node)라고 부르는데, Input Node는 Input data의 변수의 수가 되며 Hidden Layer와 Node는 사용자가 지정해야 할 Hyperparameter, 그리고 Output Node의 수는 풀고자 하는 문제에 따라 달라진다. 예를 들어 숫자를 구분하는 문제라면 0~9까지 총 10개로 구분 가능하므로 Output Node의 수는 10이 된다. MPL 소개 : h.. 2023. 5. 17.
퍼셉트론(perceptron)과 Multilayer Perceptron(MLP) 퍼셉트론 (perceptron) 퍼셉트론이란? 퍼셉트론은 Frank Rosenblatt가 1957년에 고안한 알고리즘이다. 다수의 신호를 입력받아 하나의 신호를 출력하는 feedforward 형태의 네트워크로 선형분류기로도 볼 수 있다. 인간의 뉴런은 dendrite를 통해 입력 받은 신호가 어떠한 임계치(threshlod)를 넘어서면 활성화(activate)되는 동작을 하는데 이 현상을 컴퓨터로 구현한 것이 퍼셉트론이다. 퍼셉트론의 개념을 도식화하면 다수의 입력 값 $x$가 있을 때, 중요도에 따라 각각의 입력 값에 $w$(weight)를 곱해 준 후 bias를 더한다. 그 결과 값들을 모두 더하여 하나의 값($z)$으로 만든다. 마지막으로 $z$값을 0과 1로 반환해 줄 수 있는 활성 함수(Activ.. 2023. 5. 16.
Computer Vision (컴퓨터 비전) 연구의 역사 A brief history of computer vision and deep learning 컴퓨터 비전 연구의 시작 Hubel and Wiesel, 1959 - 고양이 실험 고양이의 시각 피질 실험에서 고양이 시야의 한 쪽에 자극을 주었더니 전체 뉴련이 아닌 특정 뉴런만 활성화 물체의 형태와 방향에 따라서도 활성화되는 뉴런이 다름 → 시각 정보가 뇌에서 어떻게 처리되는지에 대한 이해 Larry Roberts, 1963 사진 정보를 컴퓨터로 가져오는 방법에 관한 연구 The Sight System을 통해 물체를 비교적 정확하게 인식 → 초기 컴퓨터 비전 분야에서 3차원 물체 인식을 위한 중요한 기반 제공 David Marr, 1970s Primitive Representations : 시각적 자극을 간.. 2023. 5. 16.
이산형 확률분포 - 기하 분포(Geometric Distribution), 음이항 분포(Negative Binomial Distribution), 초기하 분포(Hypergeometric Distribution) 기하 분포(Geometric Distribution) 기하 분포의 정의 기하 분포는 베르누이 시행으로부터 시작한다. 성공 혹은 실패의 경우로 구성된 시행을 연달아 수행하며 처음 성공할 때 까지 시도한 횟수 $X$에 대한 분포이다. 기하분포의 확률질량함수(pmf)는 다음과 같이 정의한다. $P\{X=n\} = (1-p)^{n-1}p\quad n=1,2,...$ 동전을 다섯 번 던져서 앞면이 나올 확률은 $p=0.5$이고 5번째에 처음으로 앞면이 나온다면, 4번째 까지는 뒷면이 나오고 (뒷면이 나올 확률 = $1-p$) 마지막 5번째 시도에서 앞면이 나와야 하므로 위와 같은 식이 정의된다. 기하 분포의 기대값과 분산 $E[X] = 1/p$ $V[X] = (1-p)/p^{2}$ 기하 분포의 예제 항아리에 N개.. 2023. 5. 11.
이산형 확률분포 - 포아송 분포(Poisson Distribution) 포아송 분포의 정의 (Poisson Distrubution) 단위 시간 안에 특정 사건이 몇 번 발생할 것인지를 표현 $f(k;\lambda) = \cfrac{\lambda^{k} e^{-\lambda}}{k!}$ Parameter는 분포의 모양을 결정하며 모든 분포는 Parameter를 가지고 있음 → 포아송 분포의 Parameter : $\lambda$ 포아송 분포를 사용하는 경우 포아송 분포는 드물게 발생하는 사건에 적합하다. 따라서 발생 가능성이 매우 낮은 사건을 모델링 할 때, 이항분포를 사용하면 예측 오차가 커질 수 있지만 포아송 분포를 사용하면 더 나은 결과를 얻을 수 있다. ▼ 사용 예 어떤 집단에서 100세 이상인 사람의 수 책의 page에서 오타의 개수 전화를 잘못 걸 경우 이항분포와 .. 2023. 5. 11.
이산형 확률분포 - 베르누이분포(Bernoulli Distribution), 이항분포(Binomial Distribution) Bernoulli Distribution (버눌리, 베르누이 분포) 베르누이 분포의 정의 확률변수 $X$가 0과 1을 갖는 확률변수를 베르누이 확률변수라고 하고, 이것의 분포를 베르누이 분포라고 한다. 이 때, 0과 1을 확률로 바꾸려면 함수가 필요하며 이를 베르누이 확률 함수라고 한다. 베르누이 확률함수는 다음과 같다. (일반적으로 베르누이 분포에서 $P$는 시행 결과가 ‘성공’일 확률을 말한다.) $f_{x}(x; p) = p^{x}(1-p)^{1-x}, x = 0, 1$ 베르누이 확률 함수의 기대값과 분산 기대값의 정의 $E[X] = \sum_{x=0,1} x\cdot p^{x}(1-p)^{1-x}$ 여기서 $X$가 0일때는 0, $X$가 1일때는 $p$ 이므로 $0+p = p$ $\therefor.. 2023. 5. 8.
728x90