AI yang powerful butuh tanggung jawab yang setara. Pelajari sumber bias, fairness metrics, transparency, privacy, dan regulasi yang membentuk masa depan AI yang etis.
AI bisa decide siapa dapat pinjaman, siapa di-interview kerja, siapa diberi diagnosis kanker, siapa diawasi polisi. Bias dalam model = bias dalam keputusan yang mempengaruhi nyawa & masa depan jutaan manusia.
Data masa lalu mengandung diskriminasi yang ada. Mis. resume 80% dari pria โ model bias gender.
Sample tidak mewakili populasi. Mis. data dari 1 kota โ model gagal di kota lain.
Cara collect data berbeda antar grup. Mis. credit data minoritas lebih sedikit.
Asumsi 1 model untuk semua grup, padahal pola berbeda per demografi.
Test set tidak balance representasi grup minoritas.
Model dipakai di konteks berbeda dari training (mis. lab โ real world).
COMPAS dipakai di pengadilan US untuk predict probabilitas recidivism (mengulangi kejahatan). Investigasi ProPublica 2016: black defendants 2ร lebih sering false-positive (di-flag tinggi tapi tidak mengulangi kejahatan) dibanding white defendants.
Pelajaran: model "akurat secara overall" bisa sangat tidak adil per grup. Audit fairness wajib di domain dengan dampak sosial besar.
| Metric | Definisi | Karakter |
|---|---|---|
| Demographic Parity | P(ลท=1 | A=0) = P(ลท=1 | A=1) | Sama proporsi positive antar grup |
| Equal Opportunity | P(ลท=1 | y=1, A=0) = P(ลท=1 | y=1, A=1) | Sama TPR antar grup |
| Equalized Odds | TPR & FPR sama antar grup | Lebih ketat dari Equal Opportunity |
| Predictive Parity | P(y=1 | ลท=1) sama antar grup | Same precision per grup |
Tidak mungkin satisfy semua fairness metric bersamaan kecuali grup punya base rate sama. Trade-off harus dipilih sadar berdasarkan konteks etis & legal.
Game theory-based feature importance. Lokal & global interpretation.
Local explanation dengan linear approximation per prediction.
Inherently interpretable. Trade-off accuracy untuk interpretability.
Hak konsumen untuk "right to explanation" sudah masuk regulasi (GDPR Article 22, UU PDP Indonesia). Tidak bisa lagi black-box AI di domain regulated (finansial, hiring, medical).
| Regulasi | Wilayah | Fokus |
|---|---|---|
| GDPR | Uni Eropa | Data protection, right to explanation |
| EU AI Act | Uni Eropa, 2024 | Risk-based AI regulation |
| UU PDP | Indonesia, 2022 | Personal data protection |
| Stranas KA | Indonesia, 2020-2045 | Strategi nasional AI |
| NIST AI RMF | USA, 2023 | AI Risk Management Framework |
| NY Local Law 144 | NYC, 2023 | Audit AI hiring tools |
โ Apakah training data representatif?
โ Apakah ada audit fairness antar grup?
โ Apakah keputusan model bisa dijelaskan?
โ Apakah ada mekanisme appeal untuk affected user?
โ Apakah privacy user terlindungi?
โ Apakah ada monitoring drift & performance per grup?
โ Apakah environmental impact (carbon dari training) di-track?
โ Apakah ada plan untuk handle adversarial misuse?