Differences
This shows you the differences between two versions of the page.
| 머신러닝:의사결정트리 [2025/10/03 12:28] – created masteraccount | 머신러닝:의사결정트리 [2025/10/03 13:01] (current) – masteraccount | ||
|---|---|---|---|
| Line 18: | Line 18: | ||
| ====주요단어==== | ====주요단어==== | ||
| - | | + | |
| - | 노드의 종류 | + | * 노드의 종류 |
| - | 루트노드, 중간 노드, 리프 노드가 있음. | + | |
| - | 정보이론 | + | * 중간 노드 |
| - | 정보이득 | + | * 리프 노드 |
| - | 엔트로피 | + | \\ |
| + | |||
| + | * [[머신러닝: | ||
| + | | ||
| + | \\ | ||
| + | |||
| + | * 지니계수 (Gini Index) : 엔트로피와 마찬가지로 불확실성을 측정하는 지표. | ||
| + | * 엔트로피보다 계산 속도가 조금 더 빨라 자주 사용 | ||
| + | | ||
| + | \\ | ||
| + | |||
| + | * 정보 이득 (Information Gain) : ' | ||
| + | \\ | ||
| + | |||
| 질문 후 정보이득 = 진문 전 엔트로피 - 질문 후 엔트로피 ==> gain(T,X) = Entropy(T)-Entropy(T, | 질문 후 정보이득 = 진문 전 엔트로피 - 질문 후 엔트로피 ==> gain(T,X) = Entropy(T)-Entropy(T, | ||
| Entropy = 시그마^m_i=1 -pi log2 pi | Entropy = 시그마^m_i=1 -pi log2 pi | ||
| Entorpy = 시그마_c=X P(c)E(c) | Entorpy = 시그마_c=X P(c)E(c) | ||
| - | |||
| - | 지니계수 | ||
| 다중분류 | 다중분류 | ||