Tidak perlu jadi matematikawan — tapi 4 bidang ini wajib dikuasai untuk benar-benar memahami AI: Linear Algebra, Calculus, Probability, dan Statistics.
Vektor, matriks, operasi matriks. Bahasa fundamental representasi data di ML.
Turunan & gradien — pondasi optimasi: bagaimana model "belajar".
Ketidakpastian & inferensi. Pondasi Bayesian methods, klasifikasi probabilistik.
Setiap data di ML direpresentasikan sebagai vektor atau matriks. Foto = matriks pixel. Dokumen = vektor word embedding. Dataset = matriks (rows = samples, cols = features).
v = [3, 5, 7] // vektor 3DA = [[1, 2], [3, 4]] // matriks 2x2shape(A) = (2, 2)
a · b = Σ aᵢ × bᵢdot([1,2,3], [4,5,6]) = 1×4 + 2×5 + 3×6 = 32C[i][j] = Σ A[i][k] × B[k][j]Ketika kamu lihat nn.Linear(784, 128) di PyTorch — itu artinya matriks weights berukuran 784×128 yang dikalikan dengan input vektor 784D untuk menghasilkan output 128D. Tanpa pemahaman matriks, kamu tidak akan bisa debug atau optimize model.
Training ML = mencari parameter (weights) yang meminimalkan error. Kuncinya: gradient descent, yaitu turun perlahan ke titik error terendah dengan mengikuti arah gradien.
f(x) = x²f'(x) = 2x // turunan = slope kurva pada titik x
θ_new = θ_old − η · ∇L(θ)P(A) = jumlah outcome A / total outcomeP(A ∩ B) = P(A) × P(B|A) // jointP(A ∪ B) = P(A) + P(B) − P(A ∩ B) // union
P(A|B) = P(B|A) × P(A) / P(B)Normal (Gaussian) : 𝒩(μ, σ²) // bell curveBernoulli : binary outcome (coin flip)Binomial : n trials of BernoulliPoisson : count of rare events
| Konsep Statistik | Definisi | Aplikasi ML |
|---|---|---|
| Mean | Rata-rata aritmatika | Centroid clustering, baseline |
| Median | Nilai tengah | Robust measure, imputation |
| Variance / Std | Sebaran data | Feature scaling, error margin |
| Correlation | Hubungan 2 variabel | Feature selection |
| Covariance | Variabilitas bersama | PCA, multivariate analysis |
| Hypothesis Testing | Validasi klaim statistik | A/B testing model performance |
Konsep dari Claude Shannon yang vital untuk decision tree, klasifikasi, dan loss function.
H(X) = − Σ P(x) log P(x)L = − Σ y · log(ŷ)Jangan coba kuasai semua matematika sebelum mulai ML — kamu akan stuck. Lakukan: pelajari konsep dasar (90/10 rule — 90% manfaat datang dari 10% topik penting), lalu deep-dive saat kamu ketemu di kode.
Roadmap 3 bulan: Bulan 1 = Linear Algebra (Khan Academy / 3Blue1Brown). Bulan 2 = Calculus essentials + Probability dasar. Bulan 3 = Statistics + hands-on dengan numpy/pandas.