네이버 부스트클래스 (18) 썸네일형 리스트형 [AI 엔지니어 기초 다지기] 17일차 [24.02.14] 5주차 21차시 - 딥러닝 기초(2) Neural Networks : 처음엔 인간의 뇌가 동작하는 방식을 모방한 컴퓨팅 시스템이었으나, 요즘 들어서는 인간 뇌의 동작 방식과 굉장히 많이 달라져 있음. 즉, 다시 정의하자면, 이 정도로 정의할 수 있겠다. Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. 가장 간단한 NN을 보자면, Linear Neural Networks가 있을 수 있다. Linear Neural Networks 이런 신경망Neural Network을 여러 층을 쌓는 것이 딥러닝Deep Learning인데, 그냥 .. [AI 엔지니어 기초 다지기] 16일차 [24.02.13] 5주차 20차시 - 딥러닝 기초(1) 딥러닝?? 1. 딥러닝의 위치는?? 인간 지능을 모방하는 A.I. -> 데이터 기반으로 학습하는 Machine Learning -> 학습에 Neural Network 모델을 사용하는 Deep Learning 2. 딥러닝의 4가지 key components (1) 데이터 : The Data that the model can learn from) (2) 모델 : The model how to transform the data) (3) 손실함수 : The loss function that quantifies the badness of the model) (4) (최적화)알고리즘 : The algorithm to adjust the parameters t.. [AI 엔지니어 기초 다지기] 15일차 24.02.09 4주차 19차시 - 베이즈 통계학 맛보기 조건부 확률 1) 조건부확률 $P(A|B)$ : 사건 $B$가 일어난 상황에서 사건 $A$가 발생할 확률. 즉 말 그대로 특정 조건 하에서의 확률을 말함. 2) 베이즈 정리는 조건부 확률을 이용해서 정보를 갱신하는 방법을 알려준다. 좀 더 풀어서 설명하자면, 1. $A$라는 새로운 정보가 주어졌을 때 2. $B$가 발생할 확률 $P(B)$로부터 3. $A$가 발생했을 때 $B$가 발생할 조건부 확률을 계산할 수 있고, 4. 이를 베이즈 정리라 한다. 3) 베이즈 정리의 예 1. $D$ : 새로 관찰한(나타난) 데이터 2. $\theta$ : 모수 3. $P(\theta | D)$ : 사후확률$posterior$ $probability$. 데이터가 .. [AI 엔지니어 기초 다지기] 14일차 [24.02.07] 4주차 18차시 - 통계학 맛보기 모수Population Parameter 1. 통계적 모델링의 목표는 적절한 가정 위에서 확률분포를 추정inference하는 것 2. 이는 기계학습과 통계학의 공통 목표이기도 하다. 3. 그러나 유한한 개수의 데이터만 관찰해서 모집단의 확률분포를 정확하게 알아내는 것은 불가능. => 근사적으로 확률분포 추정함 => 예측 모형의 목적은 정확한 분포를 맞추는 것 보단 데이터와 추정 방법의 불확실성을 고려해서 예측의 위험을 최소화 하는 것 정도면 충분하기 때문. 3-1. 모수적parametric 방법 : 데이터가 특정 확률분포를 따른다고 선험적으로priori 가정한 후, 해당 분포를 결정하는 모수를 추정하는 방법. ex) 정규분포의 경우 평균과 분산이 중요.. [AI 엔지니어 기초 다지기] 13일차 [24.02.06] 4주차 17차시 - 확률론 맛보기 딥러닝에 확률론이 필요한 이유? 1. DL은 확률론 기반의 기계학습 이론에 바탕을 두고 있기 때문 1-1. 기계학습에서 사용되는 손실함수(비용함수)의 작동 원리는 데이터공간을 통계적으로 해석하는 것에서 시작. 1-2. 회귀분석에서 손실함수로 사용되는 L2 norm은 예측오차의 분산을 가장 최소화하는 방향으로 학습하도록 유도함. 1-3. 분류 문제에서 사용되는 교차엔트로피Cross-entropy는 모델 예측의 불확실성을 최소화하는 방향으로 학습하도록 유도함. 1-4. 분산과 불확실성을 최소화 하기 위해서는, 이들을 측정하는 방법을 알아야 하고, 해당 측정 방법은 통계학으로부터 나온다. 즉, 기계학습을 이해하려면 확률론을 알아야 한다! 데이터 공간 - 말.. [AI 엔지니어 기초 다지기] 12일차 [24.01.31] 3주차 16차시 - 딥러닝 학습방법 이해하기 선형 모델을 간단하게 표시해보면... 대략 아래와 같다. 이는, d개의 변수로 p개의 선형모델을 만들어 p개의 잠재변수를 설명하는 모델이라 볼 수 있다. 최종 출력 벡터인 O에 softmax 함수를 합성하면, 주어진 데이터가 특정 클래스 k에 속할 확률을 구할 수 있는데, 이를 분류문제라고 부른다. 그런데, softmax함수가 뭐지?? Softmax 함수 - 모델의 출력을 확률로 해석할 수 있게 변환해 주는 연산(함수)이다. 위에서 언급했듯, 분류 문제를 풀 때 선형모델과 softmax 함수를 결합해 사용한다. - 하지만, 추론인 경우엔 softmax를 쓰지 않는다! (참고) One-Layer NN(Nerual Network) - 신경망 =.. [AI 엔지니어 기초 다지기] 11일차 [24.01.30] 3주차 15차시 - 경사하강법 경사하강법 : DL에서 활용되는, 가장 중요한 최적화 알고리즘. 미분 미분은 어디에 써먹는가?? 경사하강법 알고리즘 (1) 경사하강법 알고리즘 (2) - 변수가 벡터인 경우 [AI 엔지니어 기초 다지기] 10일차 [24.01.29] 3주차 14차시 - 벡터와 행렬 1. 벡터Vector란 ?? 1) 숫자를 원소로 가지는 리스트List 또는 배열Array을 말한다. 2) 좀 더 본질적으로는, N차원 공간에서 원점으로부터 특정 위치에 있는 점의 상대적 위치를 의미한다. 3) 벡터는 모양이 같으면 사칙연산이 가능하다. 숫자를 곱해주면 벡터의 길이만 변하는데, 이를 스칼라곱이라 한다. 1.1 벡터간 덧, 뺄셈 : 벡터는 원점으로부터 특정 점까지의 상대적 위치를 표현하는 것이다 => 그러므로 두 벡터의 덧, 뺄셈은 특정 점의 상대적 위치 이동을 표현한다. 1.2 벡터의 노름Norm 1) Norm은 임의의 차원 d에서, 원점에서부터 벡터까지의 거리를 의미한다. ** L1, L2 norm은 단순 계산식으로도 구할 수 있지만, .. 이전 1 2 3 다음