Notice
Recent Posts
Recent Comments
Link
ยซ   2025/06   ยป
์ผ ์›” ํ™” ์ˆ˜ ๋ชฉ ๊ธˆ ํ† 
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
Archives
Today
Total
๊ด€๋ฆฌ ๋ฉ”๋‰ด

์„ธ์ฐฌํ•˜๋Š˜

์•”๊ธฐ์žฅ ๋ณธ๋ฌธ

์นดํ…Œ๊ณ ๋ฆฌ ์—†์Œ

์•”๊ธฐ์žฅ

HotSky92 2025. 4. 16. 13:34

๐Ÿ“š ๋จธ์‹ ๋Ÿฌ๋‹·์ˆ˜ํ•™·์ปดํ“จํŒ… ๋‹จ์–ด์žฅ (Midterm Vocabulary)

ํ•™์Šต ํŒ : ์นดํ…Œ๊ณ ๋ฆฌ๋ณ„๋กœ ๐Ÿ”– ํ”Œ๋ž˜์‹œ์นด๋“œ๋ฅผ ๋งŒ๋“ค๊ณ  ํ•˜๋ฃจ 5โ€‘10๊ฐœ์”ฉ Spaced Repetition(๋ฐ˜๋ณต ๊ฐ„๊ฒฉ ํ•™์Šต)์„ ๋Œ๋ฆฌ์„ธ์š”.


๐Ÿง  ๋จธ์‹ ๋Ÿฌ๋‹ & ๋”ฅ๋Ÿฌ๋‹ ๊ธฐ๋ณธ ์šฉ์–ด

์šฉ์–ด ๊ฐ„๋‹จ ์ •์˜

Machine Learning ๋ช…์‹œ์  ํ”„๋กœ๊ทธ๋ž˜๋ฐ ์—†์ด ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ํŒจํ„ด์„ ํ•™์Šตํ•ด ์˜ˆ์ธก·ํŒ๋‹จ์„ ์ˆ˜ํ–‰ํ•˜๋Š” ๋ฐฉ๋ฒ•๋ก  ์ „์ฒด
Deep Learning ๋‹ค์ธต ์ธ๊ณต์‹ ๊ฒฝ๋ง(๋”ฅ NN)์„ ์‚ฌ์šฉํ•ด ํŠน์ง•๊ณผ ์˜์‚ฌ๊ฒฐ์ •์„ ๋™์‹œ์— ํ•™์Šตํ•˜๋Š” ML ํ•˜์œ„ ๋ถ„์•ผ
Model ์ž…๋ ฅ → ์ถœ๋ ฅ์„ ๋งคํ•‘ํ•˜๋Š” ์ˆ˜ํ•™·๊ณ„์‚ฐ ํ•จ์ˆ˜ f(x)
Task ๋ชจ๋ธ์ด ํ•ด๊ฒฐํ•ด์•ผ ํ•  ๋ฌธ์ œ ์œ ํ˜• (์˜ˆ: ๋ถ„๋ฅ˜·ํšŒ๊ท€)
Prediction ํ•™์Šต๋œ ๋ชจ๋ธ์ด ์ƒˆ๋กœ์šด ์ž…๋ ฅ์— ๋Œ€ํ•ด ์‚ฐ์ถœํ•œ ๊ฒฐ๊ณผ๊ฐ’
Classification ์ž…๋ ฅ์„ ์ด์‚ฐ์  ์นดํ…Œ๊ณ ๋ฆฌ๋กœ ๊ตฌ๋ถ„ํ•˜๋Š” ์ž‘์—… (์ŠคํŒธ/ํ–„ ๋“ฑ)
Regression ์ž…๋ ฅ์„ ์—ฐ์†์  ์‹ค์ˆ˜ ๊ฐ’์œผ๋กœ ๋งคํ•‘ํ•˜๋Š” ์ž‘์—… (์ง‘๊ฐ’ ์˜ˆ์ธก ๋“ฑ)
Supervised Learning ์ž…๋ ฅ·์ •๋‹ต(๋ ˆ์ด๋ธ”) ์Œ์œผ๋กœ ํ•™์Šตํ•˜๋Š” ๋ฐฉ๋ฒ•
Unsupervised Learning ๋ ˆ์ด๋ธ” ์—†์ด ๋ฐ์ดํ„ฐ ๊ตฌ์กฐ๋ฅผ ์ฐพ๋Š” ํ•™์Šต (๊ตฐ์ง‘ํ™” ๋“ฑ)
Overfitting ํ•™์Šต ๋ฐ์ดํ„ฐ์—๋Š” ๊ณผ์ ํ•ฉํ•ด ์„ฑ๋Šฅ↑, ๋ฏธ์ง€ ๋ฐ์ดํ„ฐ์—๋Š” ์„ฑ๋Šฅ↓ ํ˜„์ƒ
Underfitting ๋ชจ๋ธ์ด ๋„ˆ๋ฌด ๋‹จ์ˆœํ•ด ํ•™์Šต ๋ฐ์ดํ„ฐ์กฐ์ฐจ ์„ค๋ช… ๋ชปํ•˜๋Š” ์ƒํƒœ
Generalization ๋ณด์ง€ ์•Š์€ ๋ฐ์ดํ„ฐ์—์„œ๋„ ์„ฑ๋Šฅ์„ ์œ ์ง€ํ•˜๋Š” ๋Šฅ๋ ฅ
Loss Function ๋ชจ๋ธ ์˜ˆ์ธก vs ์ •๋‹ต ์ฐจ์ด๋ฅผ ์ˆ˜์น˜ํ™”ํ•œ ํ•จ์ˆ˜ (MSE, CE ๋“ฑ)
Accuracy ์ „์ฒด ์˜ˆ์ธก ์ค‘ ์ •๋‹ต ๋น„์œจ (๋ถ„๋ฅ˜ ์„ฑ๋Šฅ ์ง€ํ‘œ)
Error Rate 1 – Accuracy, ์˜ค๋ถ„๋ฅ˜์œจ
Training Data ํŒŒ๋ผ๋ฏธํ„ฐ ํ•™์Šต์— ์‚ฌ์šฉ๋˜๋Š” ๋ฐ์ดํ„ฐ ์…‹
Test Data ๋ชจ๋ธ ์ผ๋ฐ˜ํ™” ์„ฑ๋Šฅ์„ ๊ฒ€์ฆํ•˜๋Š” ๋ฏธ์ง€ ๋ฐ์ดํ„ฐ ์…‹
Evaluation ์„ฑ๋Šฅ ์ง€ํ‘œ๋กœ ๋ชจ๋ธ์„ ์ •๋Ÿ‰ ํ‰๊ฐ€ํ•˜๋Š” ๊ณผ์ •
Function / Mapping ์ž…๋ ฅ → ์ถœ๋ ฅ์„ ๋Œ€์‘์‹œํ‚ค๋Š” ์ˆ˜ํ•™ ๊ทœ์น™
Feature ์›๋ณธ ๋ฐ์ดํ„ฐ์—์„œ ์ถ”์ถœํ•œ ์˜๋ฏธ ์žˆ๋Š” ์„ค๋ช… ๋ณ€์ˆ˜
Feature Space ํŠน์ง• ๋ฒกํ„ฐ๊ฐ€ ์‚ฌ๋Š” ๊ณ ์ฐจ์› ๊ณต๊ฐ„
Label ์ง€๋„ ํ•™์Šต์—์„œ ์ •๋‹ต ์ •๋ณด (ํด๋ž˜์Šค·๊ฐ’)
Input / Output ๋ชจ๋ธ์˜ ์ž…๋ ฅ ๋ณ€์ˆ˜ x, ์ถœ๋ ฅ ๋ณ€์ˆ˜ y
Noise ๋ฐ์ดํ„ฐ·๊ด€์ธก์— ํฌํ•จ๋œ ๋ฌด์ž‘์œ„ ์˜ค์ฐจ ๋˜๋Š” ์žก์Œ
Performance ๋ชจ๋ธ์ด ๊ณผ์—…์„ ์ˆ˜ํ–‰ํ•˜๋Š” ํ’ˆ์งˆ (์ •ํ™•๋„, RMSE ๋“ฑ)
Representation ๋ฐ์ดํ„ฐ์˜ ๋‚ด๋ถ€ ํ‘œํ˜„(๋ฒกํ„ฐ, ์€๋‹‰ ์ƒํƒœ ๋“ฑ)
Abstraction ๋ถˆํ•„์š”ํ•œ ์„ธ๋ถ€๋ฅผ ์ œ๊ฑฐํ•˜๊ณ  ํ•ต์‹ฌ ๊ตฌ์กฐ๋งŒ ํ‘œํ˜„
Algorithm ๋ฌธ์ œ ํ•ด๊ฒฐ ์ ˆ์ฐจ·์ˆœ์„œ(ํ”„๋กœ๊ทธ๋žจ)
Learning ๋ชจ๋ธ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์ตœ์ ํ™”ํ•ด ์„ฑ๋Šฅ์„ ๊ฐœ์„ ํ•˜๋Š” ๊ณผ์ •
Data Distribution ๋ฐ์ดํ„ฐ๊ฐ€ ๋”ฐ๋ฅด๋Š” ํ™•๋ฅ  ๋ถ„ํฌ

๐Ÿงฎ ์ˆ˜ํ•™ ๊ธฐ์ดˆ

๐Ÿ“ ์„ ํ˜•๋Œ€์ˆ˜ (Linear Algebra)

์šฉ์–ด ์ •์˜(ํ•ต์‹ฌ)

Linear Algebra ๋ฒกํ„ฐ·ํ–‰๋ ฌ·์„ ํ˜• ๋ณ€ํ™˜์„ ๋‹ค๋ฃจ๋Š” ์ˆ˜ํ•™ ๋ถ„์•ผ, ML์˜ ์–ธ์–ด
Scalar ๋‹จ์ผ ์‹ค์ˆ˜ ๊ฐ’ (0โ€‘์ฐจ ํ…์„œ)
Vector 1โ€‘D ์ˆ˜์—ด, nโ€‘์ฐจ์› ์ขŒํ‘œ (1โ€‘์ฐจ ํ…์„œ)
Matrix 2โ€‘D ์ˆ˜ ๋ฐฐ์—ด (ํ–‰ × ์—ด)
Tensor nโ€‘์ฐจ์› ์ผ๋ฐ˜ํ™” ๋ฐฐ์—ด
Dimension ๊ณต๊ฐ„์˜ ์ถ• ๊ฐœ์ˆ˜ ๋˜๋Š” ๋ฒกํ„ฐ ๊ธธ์ด n
Transpose (แต€) ํ–‰·์—ด์„ ๋’ค๋ฐ”๊พธ๋Š” ์—ฐ์‚ฐ
Dot / Inner Product ๋‘ ๋ฒกํ„ฐ์˜ ์š”์†Œ๋ณ„ ๊ณฑ์˜ ํ•ฉ → ์Šค์นผ๋ผ
Outer Product xโ€ฏyแต€ : ๋‘ ๋ฒกํ„ฐ๋ฅผ ๊ณฑํ•ด ํ–‰๋ ฌ ์ƒ์„ฑ
Matrix Multiplication (m×n)(n×p) → m×p ์„ ํ˜• ์กฐํ•ฉ ์—ฐ์‚ฐ
Hadamard Product ๋™์ผ ํฌ๊ธฐ ํ–‰๋ ฌ์˜ ์š”์†Œ๋ณ„ ๊ณฑ โˆ˜
Identity Matrix I ๋Œ€๊ฐ 1, ๋‚˜๋จธ์ง€ 0 → ๋‹จ์œ„ ๋ณ€ํ™˜
Inverse Matrix Aโป¹ AAโป¹ = I ๋ฅผ ๋งŒ์กฑ, ์„ ํ˜• ๋ฐฉ์ •์‹ ํ•ด ๊ตฌํ•˜๊ธฐ
System of Equations Ax = b ํ˜•ํƒœ ์—ฐ๋ฆฝ์„ ํ˜•๋ฐฉ์ •์‹
Linear Combination ์Šค์นผ๋ผ ๊ฐ€์ค‘ํ•ฉ์œผ๋กœ ๋ฒกํ„ฐ ์ƒ์„ฑ Σαแตขvแตข
Span ๋ฒกํ„ฐ ์ง‘ํ•ฉ์ด ์ƒ์„ฑํ•˜๋Š” ๋ชจ๋“  ์„ ํ˜• ์กฐํ•ฉ ๊ณต๊ฐ„
Column Space ํ–‰๋ ฌ ์—ด๋ฒกํ„ฐ๊ฐ€ ์ƒ์„ฑํ•˜๋Š” Span (= Range)
Rank ์—ด(๋˜๋Š” ํ–‰) ์„ ํ˜•๋…๋ฆฝ ๊ฐœ์ˆ˜ → ๊ณต๊ฐ„ ์ฐจ์›
Singular Matrix ์—ญํ–‰๋ ฌ์ด ์กด์žฌํ•˜์ง€ ์•Š๋Š” ํ–‰๋ ฌ (det=0)
Orthogonal ๋‚ด์  0 → ์ˆ˜์ง ๊ด€๊ณ„
Orthonormal ๋‚ด์  0 + ๊ธธ์ด 1 ๋ฒกํ„ฐ ์ง‘ํ•ฉ
Symmetric Matrix Aแต€ = A
Diagonal Matrix ๋น„๋Œ€๊ฐ ์›์†Œ 0 ํ–‰๋ ฌ
Unit Vector ๋…ธ๋ฆ„ 1 ๋ฒกํ„ฐ (ê)
Projection ๋ฒกํ„ฐ๋ฅผ ๋ถ€๋ถ„๊ณต๊ฐ„์œผ๋กœ ์‚ฌ์˜ํ•˜๋Š” ์„ ํ˜• ๋ณ€ํ™˜
Eigendecomposition A = VΛVโป¹, ๊ณ ์œ ๊ฐ’·๊ณ ์œ ๋ฒกํ„ฐ ๋ถ„ํ•ด
Eigenvalue λ Av = λv ๋ฅผ ๋งŒ์กฑํ•˜๋Š” ์Šค์นผ๋ผ
Eigenvector v ์„ ํ˜• ๋ณ€ํ™˜ ํ›„ ๋ฐฉํ–ฅ ๋ถˆ๋ณ€ ๋ฒกํ„ฐ
Positive Definite ๋ชจ๋“  v≠0 ์— vแต€Av > 0 ํ–‰๋ ฌ
Positive Semidefinite vแต€Av ≥ 0 ํ–‰๋ ฌ
SVD A = UΣVแต€, ์ง์‚ฌ๊ฐ ํ–‰๋ ฌ ๋ถ„ํ•ด
Frobenius Norm ํ–‰๋ ฌ ์š”์†Œ ์ œ๊ณฑํ•ฉ์˜ ๋ฃจํŠธ
L0/L1/L2 Norm ์š”์†Œ ๊ฐœ์ˆ˜/์ ˆ๋Œ“๊ฐ’ํ•ฉ/์œ ํด๋ฆฌ๋“œ ๊ธธ์ด
Max Norm ์š”์†Œ ์ ˆ๋Œ“๊ฐ’์˜ ์ตœ๋Œ“๊ฐ’ 

๐ŸŽฒ ํ™•๋ฅ ·ํ†ต๊ณ„ (Probability Theory)

์šฉ์–ด ์ •์˜(ํ•ต์‹ฌ)

Probability Theory ๋ถˆํ™•์‹ค์„ฑ·๋ฌด์ž‘์œ„ ํ˜„์ƒ์„ ์ˆ˜๋Ÿ‰ํ™”ํ•˜๋Š” ์ˆ˜ํ•™
Random Variable (RV) ์‹คํ—˜ ๊ฒฐ๊ณผ๋ฅผ ์ˆ˜๋กœ ๋งคํ•‘ํ•œ ๋ณ€์ˆ˜ X
Sample Space S ๊ฐ€๋Šฅํ•œ ๋ชจ๋“  ๊ฒฐ๊ณผ ์ง‘ํ•ฉ
Event ๊ด€์‹ฌ ์žˆ๋Š” ๊ฒฐ๊ณผ๋“ค์˜ ๋ถ€๋ถ„์ง‘ํ•ฉ
PMF ์ด์‚ฐ RV ํ™•๋ฅ  ์งˆ๋Ÿ‰ ํ•จ์ˆ˜ P(X=x)
PDF ์—ฐ์† RV ํ™•๋ฅ  ๋ฐ€๋„ ํ•จ์ˆ˜ p(x)
Marginal Probability ์ผ๋ถ€ RV๋งŒ ๋‚จ๊ธฐ๊ณ  ๋‚˜๋จธ์ง€ ์ ๋ถ„/ํ•ฉ์‚ฐ
Conditional Probability P(A
Independence P(A,B)=P(A)P(B) ์ด๋ฉด ๋…๋ฆฝ
Expectation E[X] ๊ฐ€์ค‘ ํ‰๊ท , ๋ถ„ํฌ์˜ ์ค‘์‹ฌ
Variance Var[X] ํ‰๊ท ์œผ๋กœ๋ถ€ํ„ฐ ์ œ๊ณฑํŽธ์ฐจ์˜ ๊ธฐ๋Œ€๊ฐ’
Standard Deviation σ √Var : ์‚ฐํฌ ์ •๋„
Covariance ๋‘ RV ์„ ํ˜• ์ƒ๊ด€ ์ •๋„ Cov[X,Y]
Prior ์‚ฌ์ „ ํ™•๋ฅ  P(θ)
Posterior ์‚ฌํ›„ ํ™•๋ฅ  P(θ
Likelihood P(D
Bayes’ Theorem Posterior ∝ Prior × Likelihood / Evidence
Uniform Distribution ๋ชจ๋“  ๊ฐ’์ด ๋™์ผ ํ™•๋ฅ 
Bernoulli Distribution 0/1 ๋‹จ์ผ ์‹œํ–‰ ๋ถ„ํฌ
Binomial Distribution Bernoulli n ํšŒ ์„ฑ๊ณต ํšŸ์ˆ˜ ๋ถ„ํฌ
Gaussian / Normal ์ข…ํ˜• ์—ฐ์† ๋ถ„ํฌ N(μ,σ²)
Standard Normal μ=0, σ=1 ์ •๊ทœ ๋ถ„ํฌ
Central Limit Theorem ํ‘œ๋ณธํ‰๊ท ์€ n→∞ ์‹œ ์ •๊ทœ๋กœ ์ˆ˜๋ ด
Law of Large Numbers ๋ฐ˜๋ณต ์‹œ ์ƒ๋Œ€๋นˆ๋„ → ์ฐธ ํ™•๋ฅ  ์ˆ˜๋ ด

๐Ÿ’ป ์ปดํ“จํŒ…·ํ”„๋ ˆ์ž„์›Œํฌ

์šฉ์–ด ์ •์˜(ํ•ต์‹ฌ)

PyTorch Python ๊ธฐ๋ฐ˜ ๋”ฅ๋Ÿฌ๋‹ ๋ผ์ด๋ธŒ๋Ÿฌ๋ฆฌ (Autograd, GPU)
NumPy ๋ฐฐ์—ด·์„ ํ˜•๋Œ€์ˆ˜ ์—ฐ์‚ฐ ๊ธฐ๋ณธ ํŒจํ‚ค์ง€
TensorFlow ๊ตฌ๊ธ€ ๋”ฅ๋Ÿฌ๋‹ ํ”„๋ ˆ์ž„์›Œํฌ (๊ทธ๋ž˜ํ”„ ์‹คํ–‰)
MXNet AWS ์ง€์› ๋‹ค์ค‘ ์–ธ์–ด ๋”ฅ๋Ÿฌ๋‹ ํ”„๋ ˆ์ž„์›Œํฌ
Python ML ์Šคํฌ๋ฆฝํŠธ ์–ธ์–ด, ๊ด‘๋ฒ”์œ„ ์ƒํƒœ๊ณ„
Implementation ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์‹ค์ œ ์ฝ”๋“œ๋กœ ์ž‘์„ฑ
Visualization ๋ฐ์ดํ„ฐ·๊ฒฐ๊ณผ๋ฅผ ๊ทธ๋ž˜ํ”ฝ์œผ๋กœ ํ‘œํ˜„
Code ์†Œ์Šค ํ”„๋กœ๊ทธ๋žจ
Training ๋ฐ์ดํ„ฐ๋กœ ํŒŒ๋ผ๋ฏธํ„ฐ ์ตœ์ ํ™” ๊ณผ์ •
Experiment ํ•˜์ดํผํŒŒ๋ผ๋ฏธํ„ฐ·๋ชจ๋ธ ๋น„๊ต ์‹คํ—˜
Software Framework ๊ณตํ†ต ๊ธฐ๋Šฅ์„ ์ œ๊ณตํ•˜๋Š” ๊ฐœ๋ฐœ ๋ผˆ๋Œ€
Easy to Install ํŒจํ‚ค์ง€ ๊ด€๋ฆฌ๋กœ ๊ฐ„๋‹จ ์„ค์น˜ ๊ฐ€๋Šฅ
Laptop Try out ๋กœ์ปฌ CPU/GPU๋กœ ์†Œ๊ทœ๋ชจ ์‹คํ—˜ ๊ฐ€๋Šฅ

๐Ÿ“Š ๋ชจ๋ธ·๊ธฐ๋ฒ•

์šฉ์–ด ์ •์˜(ํ•ต์‹ฌ)

Linear Model ์ถœ๋ ฅ์ด ์ž…๋ ฅ ์„ ํ˜• ๊ฒฐํ•ฉ์œผ๋กœ ํ‘œํ˜„๋˜๋Š” ๋ชจ๋ธ
Parametric Model ๊ณ ์ • ๊ธธ์ด ํŒŒ๋ผ๋ฏธํ„ฐ๋กœ ๋ชจ๋ธ ์ •์˜ (์„ ํ˜•, NN ๋“ฑ)
Nonparametric Model ๋ฐ์ดํ„ฐ ์ˆ˜์— ๋”ฐ๋ผ ๋ชจ๋ธ ๋ณต์žก๋„ ๋ณ€ํ•˜๋Š” ๊ธฐ๋ฒ• (kโ€‘NN ๋“ฑ)
Perceptron ๋‹จ์ธต ์„ ํ˜• ๋ถ„๋ฅ˜๊ธฐ, sgn(wแต€x+b)
SVM ์ตœ๋Œ€ ๋งˆ์ง„ ์„ ํ˜•·์ปค๋„ ๋ถ„๋ฅ˜๊ธฐ
kโ€‘NN ๊ฐ€์žฅ ๊ฐ€๊นŒ์šด k๊ฐœ ์ด์›ƒ ๋‹ค์ˆ˜๊ฒฐ ๋ถ„๋ฅ˜
Naive Bayes ํŠน์„ฑ ๋…๋ฆฝ ๊ฐ€์ • Bayes ๋ถ„๋ฅ˜๊ธฐ
Decision Tree ์ •๋ณด ์ด๋“ ๊ธฐ๋ฐ˜ ๋ถ„๊ธฐ์‹ ๋ถ„๋ฅ˜·ํšŒ๊ท€ ๋ชจ๋ธ
Random Forest ๋‹ค์ˆ˜ Tree ๋ฐฐ๊น… ์•™์ƒ๋ธ”
Neural Network ๊ณ„์ธต์  ๊ฐ€์ค‘ ํ•ฉ·๋น„์„ ํ˜• ํ™œ์„ฑ ํ•จ์ˆ˜ ๋ชจ๋ธ
Feedforward NN ์ˆœ์ „ํŒŒ๋งŒ ์กด์žฌํ•˜๋Š” ์ผ๋ฐ˜ NN
Backpropagation ์—ฐ์‡„ ๋ฏธ๋ถ„์œผ๋กœ ๊ฐ€์ค‘์น˜ ๊ทธ๋ž˜๋””์–ธํŠธ ๊ณ„์‚ฐ
Gradient Descent ์†์‹ค ์ตœ์†Œํ™”๋ฅผ ์œ„ํ•œ ๋ฐ˜๋ณต ์ตœ์ ํ™”
CNN ํ•ฉ์„ฑ๊ณฑ ํ•„ํ„ฐ๋กœ ๊ณต๊ฐ„ ํŠน์„ฑ ์ถ”์ถœ NN
Regularization ๊ณผ์ ํ•ฉ ๋ฐฉ์ง€๋ฅผ ์œ„ํ•œ ์ œ์•ฝ(L2, Dropout ๋“ฑ)
Ensemble ์—ฌ๋Ÿฌ ๋ชจ๋ธ ๊ฒฐํ•ฉํ•ด ์„ฑ๋Šฅ·์•ˆ์ •์„ฑ ํ–ฅ์ƒ
Bagging ๋ฐ์ดํ„ฐ ์ƒ˜ํ”Œ ๋ถ€ํŠธ์ŠคํŠธ๋žฉ + ํ‰๊ท 
Boosting ์˜ค๋ถ„๋ฅ˜ ๊ฐ€์ค‘์น˜ ↑ ์ˆœ์ฐจ ํ•™์Šต(Adaboost, GBM)

๐Ÿงฉ ๊ธฐํƒ€ ํ•ต์‹ฌ ์ผ๋ฐ˜ ์šฉ์–ด

์šฉ์–ด ์ •์˜(ํ•ต์‹ฌ)

Abstraction ๋ณต์žก์„ฑ์„ ์ค„์—ฌ ๋ณธ์งˆ์  ๊ตฌ์กฐ๋งŒ ํ‘œํ˜„
Reasoning ๋…ผ๋ฆฌ์  ์ถ”๋ก  ๊ณผ์ •
Uncertainty ๊ฒฐ๊ณผ์˜ ๋ถˆํ™•์‹ค์„ฑ·๋ฌด์ž‘์œ„์„ฑ
Sample ๊ด€์ธก์น˜ ํ•œ ๊ฐœ (๋ฐ์ดํ„ฐ ํฌ์ธํŠธ)
Dataset ์ƒ˜ํ”Œ๋“ค์˜ ์ง‘ํ•ฉ, ํ•™์Šต·๊ฒ€์ฆ์— ์‚ฌ์šฉ
Input Space ์ž…๋ ฅ ๋ณ€์ˆ˜๋“ค์ด ํ˜•์„ฑํ•˜๋Š” ๊ณต๊ฐ„ โ„แตˆ
Output Space ์ถœ๋ ฅ(๋ชฉํ‘œ) ๋ณ€์ˆ˜๊ฐ€ ํ˜•์„ฑํ•˜๋Š” ๊ณต๊ฐ„
Dimension Reduction ๊ณ ์ฐจ์› → ์ €์ฐจ์› ํŠน์ง• ์ถ•์†Œ (PCA ๋“ฑ)
Task Complexity ๋ฌธ์ œ ๋‚œ์ด๋„·๋ชจ๋ธ ํ•„์š” ํ‘œํ˜„๋ ฅ
Discrete / Continuous ๊ฐ’์ด ์ด์‚ฐ์ /์—ฐ์†์  ํŠน์„ฑ
Realโ€‘Valued ์‹ค์ˆ˜ ๋ฒ”์œ„ ๊ฐ’์„ ๊ฐ–๋Š”
Multivariate / Univariate ์ถœ๋ ฅ ๋ณ€์ˆ˜ ๋‹ค๋ณ€๋Ÿ‰/๋‹จ๋ณ€๋Ÿ‰
Multivariable / Univariable ์ž…๋ ฅ ๋ณ€์ˆ˜ ๋‹คํŠน์„ฑ/๋‹จํŠน์„ฑ

โœ๏ธ ํ™œ์šฉ ๊ฐ€์ด๋“œ

  1. Active Recall : ํ‘œ ๊ฐ€๋ฆฌ๊ณ  ์šฉ์–ด → ์ •์˜, ์ •์˜ → ์šฉ์–ด ์–‘๋ฐฉํ–ฅ ํ€ด์ฆˆ.
  2. Spaced Repetition : 1โ€‘3โ€‘7โ€‘14์ผ ๊ฐ„๊ฒฉ์œผ๋กœ ๋ณต์Šต.
  3. ์˜ˆ์ œ ์—ฐ๊ฒฐ : ๊ฐ ์šฉ์–ด์— ์ˆ˜์—… ์Šฌ๋ผ์ด๋“œ·๋ฌธ์ œ ์˜ˆ์‹œ๋ฅผ ๋ถ™์—ฌ ๋งฅ๋ฝ ํ•™์Šต.
  4. ์˜ค๋‹ต ๋…ธํŠธ : ํ—ท๊ฐˆ๋ฆฌ๋Š” ๊ฐœ๋…์€ ํ•˜์ด๋ผ์ดํŠธ ํ›„ ์ถ”๊ฐ€ ๋ฉ”๋ชจ.

ํ™”์ดํŒ…! ํ•„์š” ์‹œ ํŠน์ • ์šฉ์–ด ์ถ”๊ฐ€ ์„ค๋ช…·์ˆ˜์‹ ์œ ๋„·์ฝ”๋“œ ์˜ˆ์ œ ์š”์ฒญํ•ด์ค˜ ๐Ÿ˜Š