Differences
This shows you the differences between two versions of the page.
| Next revision | Previous revision | ||
| 머신러닝:경사하강법 [2025/10/12 15:24] – created masteraccount | 머신러닝:경사하강법 [2025/10/17 10:11] (current) – [경사하강법 (Gradient Descent)] masteraccount | ||
|---|---|---|---|
| Line 1: | Line 1: | ||
| ===== 경사하강법 (Gradient Descent) ===== | ===== 경사하강법 (Gradient Descent) ===== | ||
| - | > 머신러닝 모델의 최적의 [[통계학: | + | > 머신러닝 모델의 최적의 [[통계학: |
| ==== 목표 ==== | ==== 목표 ==== | ||
| Line 25: | Line 25: | ||
| $ J(\theta) $: [[머신러닝: | $ J(\theta) $: [[머신러닝: | ||
| \\ | \\ | ||
| - | $ \theta $: [[통계학: | + | $ \theta $: [[통계학: |
| + | \\ | ||
| + | |||
| + | ==== 경사하강법 종류 ==== | ||
| + | |||
| + | ===배치경사하강법(Batch Gradient Descent, BGD)=== | ||
| + | 방식 : 전체 학습 데이터셋(Full-batch)을 모두 사용하여 단 하나의 경사값을 계산하고, | ||
| + | \\ | ||
| + | |||
| + | === 확률적경사하강법 (Stochastic Gradient Descent, SGD) === | ||
| + | 방식: 전체 데이터셋에서 단 1개의 샘플을 무작위로 추출하여 경사를 계산하고, | ||
| + | \\ | ||
| + | |||
| + | === 미니배치 경사 하강법 (Mini-batch Gradient Descent, MBGD) === | ||
| + | 전체 데이터셋을 적절한 크기(Batch size)(예: 32, 64, 128)의 작은 묶음, 즉 ' | ||