머신러닝:경사하강법

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Next revision
Previous revision
머신러닝:경사하강법 [2025/10/12 15:24] – created masteraccount머신러닝:경사하강법 [2025/10/17 10:11] (current) – [경사하강법 (Gradient Descent)] masteraccount
Line 1: Line 1:
 ===== 경사하강법 (Gradient Descent) ===== ===== 경사하강법 (Gradient Descent) =====
-> 머신러닝 모델의 최적의 [[통계학:가중치|모수]]를 찾기 위한 알고리즘+> 머신러닝 모델의 최적의 [[통계학:가중치]]를 찾기 위한 알고리즘
  
 ==== 목표 ==== ==== 목표 ====
Line 25: Line 25:
 $ J(\theta) $: [[머신러닝:비용함수]] (Cost Function). 경사 하강법이 최소화하려는 함수(예: [[머신러닝:평균제곱오차]]).\\ $ J(\theta) $: [[머신러닝:비용함수]] (Cost Function). 경사 하강법이 최소화하려는 함수(예: [[머신러닝:평균제곱오차]]).\\
 \\ \\
-$ \theta $: [[통계학:가중치|모수]](Parameter). 모델이 학습해야 할 [[통계학:가중치]]와 y절편을 통칭.+$ \theta $: [[통계학:가중치|모수]](Parameter). 모델이 학습해야 할 [[통계학:가중치]]와 y절편을 통칭.\\ 
 +\\ 
 + 
 +==== 경사하강법 종류 ==== 
 + 
 +===배치경사하강법(Batch Gradient Descent, BGD)=== 
 +방식 : 전체 학습 데이터셋(Full-batch)을 모두 사용하여 단 하나의 경사값을 계산하고, 이를 통해 모수를 한 번 업데이트. \\ 
 +\\ 
 + 
 +=== 확률적경사하강법 (Stochastic Gradient Descent, SGD) === 
 +방식: 전체 데이터셋에서 단 1개의 샘플을 무작위로 추출하여 경사를 계산하고, 즉시 모수를 업데이트\\ 
 +\\ 
 + 
 +=== 미니배치 경사 하강법 (Mini-batch Gradient Descent, MBGD) === 
 +전체 데이터셋을 적절한 크기(Batch size)(예: 32, 64, 128)의 작은 묶음, 즉 '미니배치(Mini-batch)'로 나눈다. 각 미니배치 단위로 경사를 계산하고 모수를 업데이트 \\ 
  • 머신러닝/경사하강법.1760282656.txt.gz
  • Last modified: 2025/10/12 15:24
  • by masteraccount