분류 전체보기36 파이썬(Python) - Iterator 사용하기 Iterator란? Iterator는 값을 차례대로 꺼낼 수 있는 객체(Object)이다. 예를 들어 for i in range(100): 구문에서는 0~99 까지의 연속된 숫자를 보여주는데, 사실 숫자를 모두 만드는 것이 아니라 0~99 까지 값을 차례대로 꺼낼 수 있는 iterator를 만든 후 이를 반복하면서 숫자를 하나씩 꺼내는 것이다. 만약 연속된 숫자를 미리 만들면 숫자가 적을 때는 상관 없지만, 아주 많을 때는 메모리를 많이 사용하게 되어 성능에 불리해진다. 그래서 파이썬에서는 iterator만 생성하고 값이 필요한 시점이 되었을 때 값을 만드는 방식을 사용한다. 즉, 데이터 생성을 뒤로 미루는 것이며 이러한 방식을 지연 평가 (lazy evaluation) 이라고 한다. Iterable이란.. 2023. 5. 30. 연속형 확률분포 - 균일 분포(Uniform Distribution) 균일 분포의 확률밀도함수 균일 분포(or 일양 분포)는 확률변수 $X$가 특정한 구간 $(\alpha, \beta)$ 에서 동일한 확률을 가지는 분포이다. 균일분포의 확률밀도함수(pdf)는 다음과 같다. 확률밀도함수의 면적은 항상 1이 되어야 하므로 $f(x)$는 $\cfrac{1}{\beta-\alpha}$가 된다. 균일분포의 누적확률분포 $F(a) = \displaystyle \int_{-\infty}^{a} f(x)\, dx$ 누적확률분포(cdf)는 위와 같이 표현할 수 있다. 그런데 균일분포는 $(\alpha, \beta)$라는 구간이 정해져 있으므로, 아래와 같이 구간별로 나누어 볼 수 있다. $a$가 $\alpha$보다 작을 때에는 0이므로, cdf는 0이다. $a$가 $\alpha$와 $\b.. 2023. 5. 23. 연속형 확률 변수 (Continuous random variable) 연속형 확률 변수 개요 확률 변수는 표본공간(Sample Space)에 있는 모든 원소(Element)를 실수로 대응시키는 함수이며, 연속형 확률 변수는 결과값이 셀 수 없는 무한한 경우이다. 연속형 확률 변수의 예 우리나라 국민들의 평균 소득 학생들의 평균 키 주식 시장의 인덱스 확률 밀도 함수(Probability density function, pdf) 확률 밀도 함수는 연속형 확률 변수에서 확률을 나타내는 함수로, 연속형은 무한이므로 적분을 통해서 확률을 알 수 있다. 아래 그림에서 $f(x)$ 가 확률 밀도 함수, 즉 pdf가 되며 면적이 확률을 뜻한다. 확률 밀도 함수의 특성 $f(x) \geq 0,\forall x$ → 확률 밀도 함수는 확률이기 때문에 모든 $x$에 대하여 0보다 크다. $.. 2023. 5. 22. Deep Neural Network (DNN) Deep Neural Network (DNN) DNN은 MLP에서 다소 확장된 개념으로 다수의 hidden layer를 가지고 있는 인공신경망이다. 즉, DNN에서 “Deep”은 hidden layer가 많다는 의미이다. Layer수가 많아지면서 데이터의 feature(특징)를 더 잘 추출할 수 있다. 아래 그림에서 각 원은 노드(Node)라고 부르는데, Input Node는 Input data의 변수의 수가 되며 Hidden Layer와 Node는 사용자가 지정해야 할 Hyperparameter, 그리고 Output Node의 수는 풀고자 하는 문제에 따라 달라진다. 예를 들어 숫자를 구분하는 문제라면 0~9까지 총 10개로 구분 가능하므로 Output Node의 수는 10이 된다. MPL 소개 : h.. 2023. 5. 17. 퍼셉트론(perceptron)과 Multilayer Perceptron(MLP) 퍼셉트론 (perceptron) 퍼셉트론이란? 퍼셉트론은 Frank Rosenblatt가 1957년에 고안한 알고리즘이다. 다수의 신호를 입력받아 하나의 신호를 출력하는 feedforward 형태의 네트워크로 선형분류기로도 볼 수 있다. 인간의 뉴런은 dendrite를 통해 입력 받은 신호가 어떠한 임계치(threshlod)를 넘어서면 활성화(activate)되는 동작을 하는데 이 현상을 컴퓨터로 구현한 것이 퍼셉트론이다. 퍼셉트론의 개념을 도식화하면 다수의 입력 값 $x$가 있을 때, 중요도에 따라 각각의 입력 값에 $w$(weight)를 곱해 준 후 bias를 더한다. 그 결과 값들을 모두 더하여 하나의 값($z)$으로 만든다. 마지막으로 $z$값을 0과 1로 반환해 줄 수 있는 활성 함수(Activ.. 2023. 5. 16. Computer Vision (컴퓨터 비전) 연구의 역사 A brief history of computer vision and deep learning 컴퓨터 비전 연구의 시작 Hubel and Wiesel, 1959 - 고양이 실험 고양이의 시각 피질 실험에서 고양이 시야의 한 쪽에 자극을 주었더니 전체 뉴련이 아닌 특정 뉴런만 활성화 물체의 형태와 방향에 따라서도 활성화되는 뉴런이 다름 → 시각 정보가 뇌에서 어떻게 처리되는지에 대한 이해 Larry Roberts, 1963 사진 정보를 컴퓨터로 가져오는 방법에 관한 연구 The Sight System을 통해 물체를 비교적 정확하게 인식 → 초기 컴퓨터 비전 분야에서 3차원 물체 인식을 위한 중요한 기반 제공 David Marr, 1970s Primitive Representations : 시각적 자극을 간.. 2023. 5. 16. 이산형 확률분포 - 기하 분포(Geometric Distribution), 음이항 분포(Negative Binomial Distribution), 초기하 분포(Hypergeometric Distribution) 기하 분포(Geometric Distribution) 기하 분포의 정의 기하 분포는 베르누이 시행으로부터 시작한다. 성공 혹은 실패의 경우로 구성된 시행을 연달아 수행하며 처음 성공할 때 까지 시도한 횟수 $X$에 대한 분포이다. 기하분포의 확률질량함수(pmf)는 다음과 같이 정의한다. $P\{X=n\} = (1-p)^{n-1}p\quad n=1,2,...$ 동전을 다섯 번 던져서 앞면이 나올 확률은 $p=0.5$이고 5번째에 처음으로 앞면이 나온다면, 4번째 까지는 뒷면이 나오고 (뒷면이 나올 확률 = $1-p$) 마지막 5번째 시도에서 앞면이 나와야 하므로 위와 같은 식이 정의된다. 기하 분포의 기대값과 분산 $E[X] = 1/p$ $V[X] = (1-p)/p^{2}$ 기하 분포의 예제 항아리에 N개.. 2023. 5. 11. 이산형 확률분포 - 포아송 분포(Poisson Distribution) 포아송 분포의 정의 (Poisson Distrubution) 단위 시간 안에 특정 사건이 몇 번 발생할 것인지를 표현 $f(k;\lambda) = \cfrac{\lambda^{k} e^{-\lambda}}{k!}$ Parameter는 분포의 모양을 결정하며 모든 분포는 Parameter를 가지고 있음 → 포아송 분포의 Parameter : $\lambda$ 포아송 분포를 사용하는 경우 포아송 분포는 드물게 발생하는 사건에 적합하다. 따라서 발생 가능성이 매우 낮은 사건을 모델링 할 때, 이항분포를 사용하면 예측 오차가 커질 수 있지만 포아송 분포를 사용하면 더 나은 결과를 얻을 수 있다. ▼ 사용 예 어떤 집단에서 100세 이상인 사람의 수 책의 page에서 오타의 개수 전화를 잘못 걸 경우 이항분포와 .. 2023. 5. 11. 이전 1 2 3 4 5 다음