Materi 03 · Foundation

Matematika & Statistik untuk AI

Tidak perlu jadi matematikawan — tapi 4 bidang ini wajib dikuasai untuk benar-benar memahami AI: Linear Algebra, Calculus, Probability, dan Statistics.

⏱ 32 Menit🎯 Beginner📚 Module 3/15

1. Empat Pilar Matematika AI

📐

Linear Algebra

Vektor, matriks, operasi matriks. Bahasa fundamental representasi data di ML.

📈

Calculus

Turunan & gradien — pondasi optimasi: bagaimana model "belajar".

🎲

Probability

Ketidakpastian & inferensi. Pondasi Bayesian methods, klasifikasi probabilistik.

2. Linear Algebra Essentials

Setiap data di ML direpresentasikan sebagai vektor atau matriks. Foto = matriks pixel. Dokumen = vektor word embedding. Dataset = matriks (rows = samples, cols = features).

Vektor & Matriks v = [3, 5, 7] // vektor 3D
A = [[1, 2],
[3, 4]] // matriks 2x2
shape(A) = (2, 2)
Dot Product (similarity) a · b = Σ aᵢ × bᵢ
dot([1,2,3], [4,5,6]) = 1×4 + 2×5 + 3×6 = 32
// Dipakai di cosine similarity, attention mechanism
Matrix Multiplication C[i][j] = Σ A[i][k] × B[k][j]
// Operasi inti neural network: A=input, B=weights, C=output
💡 Insight

Kenapa Wajib Tahu

Ketika kamu lihat nn.Linear(784, 128) di PyTorch — itu artinya matriks weights berukuran 784×128 yang dikalikan dengan input vektor 784D untuk menghasilkan output 128D. Tanpa pemahaman matriks, kamu tidak akan bisa debug atau optimize model.

3. Calculus untuk Optimasi

Training ML = mencari parameter (weights) yang meminimalkan error. Kuncinya: gradient descent, yaitu turun perlahan ke titik error terendah dengan mengikuti arah gradien.

Derivative (turunan) f(x) = x²
f'(x) = 2x // turunan = slope kurva pada titik x
Gradient Descent Update Rule θ_new = θ_old − η · ∇L(θ)
// θ = parameter, η = learning rate, ∇L = gradien loss

4. Probability & Statistics

Probability Basics P(A) = jumlah outcome A / total outcome
P(A ∩ B) = P(A) × P(B|A) // joint
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) // union
Bayes' Theorem P(A|B) = P(B|A) × P(A) / P(B)
// Fondasi Naive Bayes classifier, Bayesian inference
Distribusi Penting Normal (Gaussian) : 𝒩(μ, σ²) // bell curve
Bernoulli : binary outcome (coin flip)
Binomial : n trials of Bernoulli
Poisson : count of rare events
Konsep StatistikDefinisiAplikasi ML
MeanRata-rata aritmatikaCentroid clustering, baseline
MedianNilai tengahRobust measure, imputation
Variance / StdSebaran dataFeature scaling, error margin
CorrelationHubungan 2 variabelFeature selection
CovarianceVariabilitas bersamaPCA, multivariate analysis
Hypothesis TestingValidasi klaim statistikA/B testing model performance

5. Information Theory (Bonus)

Konsep dari Claude Shannon yang vital untuk decision tree, klasifikasi, dan loss function.

Entropy (uncertainty) H(X) = − Σ P(x) log P(x)
// Tinggi = banyak ketidakpastian. Rendah = lebih predictable.
Cross-Entropy Loss L = − Σ y · log(ŷ)
// Loss function paling umum untuk klasifikasi

6. Strategi Belajar Matematika AI

Pendekatan Pragmatis

Jangan coba kuasai semua matematika sebelum mulai ML — kamu akan stuck. Lakukan: pelajari konsep dasar (90/10 rule — 90% manfaat datang dari 10% topik penting), lalu deep-dive saat kamu ketemu di kode.

Roadmap 3 bulan: Bulan 1 = Linear Algebra (Khan Academy / 3Blue1Brown). Bulan 2 = Calculus essentials + Probability dasar. Bulan 3 = Statistics + hands-on dengan numpy/pandas.

📝 Tugas

Praktik Numpy

  1. Install Python + numpy + jupyter notebook (pakai Google Colab kalau mau cepat).
  2. Buat vektor 3D dan matriks 3x3. Hitung dot product dan matrix multiplication manual + verify dengan numpy.
  3. Generate 1000 sampel dari distribusi Normal(μ=50, σ=10). Hitung mean, median, std manual + verify dengan numpy.
  4. Visualisasikan distribusi dengan matplotlib histogram.
  5. Hitung cross-entropy loss untuk prediksi [0.7, 0.2, 0.1] vs label [1, 0, 0].

Rangkuman