Inspirasinya dari otak manusia, tapi matematikanya jauh berbeda. Pahami perceptron, multi-layer network, activation function, dan backpropagation — fondasi semua AI modern.
Neural network ML tidak persis meniru otak. Inspirasi struktural, tapi mekanika berbeda. Anggap saja sebagai "fungsi matematika kompleks yang flexible".
Diciptakan Frank Rosenblatt 1958. Inspirasi neural network modern.
z = Σ(wᵢ · xᵢ) + boutput = activation(z)σ(z) = 1/(1+e⁻ᶻ). Output 0-1. Klasik tapi vanishing gradient di deep nets.
max(0, z). Default modern. Cepat, tidak vanishing untuk z>0.
tanh(z). Output -1 sampai 1. Centered around 0.
Multi-class output. Probabilitas yang sum=1.
Modern, dipakai di Transformer (BERT, GPT).
Variant ReLU yang tidak "mati" untuk z negatif.
1. Forward pass: hitung output dari input2. Hitung loss: L(y_true, y_pred)3. Backward pass: hitung ∂L/∂w untuk setiap weight4. Update weight: w = w − η · ∂L/∂w5. Repeat untuk banyak iterations (epochs)
Backprop hanya aplikasi chain rule dari kalkulus untuk hitung gradient di setiap layer secara efisien. Tanpa backprop, training deep network impossible.
| Optimizer | Karakter | Kapan Pakai |
|---|---|---|
| SGD | Sederhana, basic gradient descent | Baseline, pemahaman |
| Momentum | SGD + akumulasi gradien | Lebih stabil, faster convergence |
| RMSprop | Adaptive learning rate per param | RNN, non-stationary loss |
| Adam | Momentum + RMSprop combined | Default modern. Hampir selalu |
| AdamW | Adam dengan decoupled weight decay | Transformer training |
DeepMind AlphaFold (2020) menggunakan deep neural network untuk memprediksi struktur 3D protein dari sekuens amino acid — masalah open 50 tahun di biologi.
Dampak: 200+ juta struktur protein di-predict gratis, mempercepat penelitian obat-obatan & penyakit. Pelajaran: neural network bukan hanya untuk image/text — bisa solve masalah ilmiah fundamental.