Materi 14 ยท Responsibility

AI Ethics, Bias & Responsible AI

AI yang powerful butuh tanggung jawab yang setara. Pelajari sumber bias, fairness metrics, transparency, privacy, dan regulasi yang membentuk masa depan AI yang etis.

โฑ 28 Menit๐ŸŽฏ All Levels๐Ÿ“š Module 14/15

1. Mengapa Etika AI Krusial?

AI Punya Power, Power Punya Konsekuensi

AI bisa decide siapa dapat pinjaman, siapa di-interview kerja, siapa diberi diagnosis kanker, siapa diawasi polisi. Bias dalam model = bias dalam keputusan yang mempengaruhi nyawa & masa depan jutaan manusia.

2. Tipe Bias dalam ML

๐Ÿ“Š

Historical Bias

Data masa lalu mengandung diskriminasi yang ada. Mis. resume 80% dari pria โ†’ model bias gender.

๐ŸŽฒ

Sampling Bias

Sample tidak mewakili populasi. Mis. data dari 1 kota โ†’ model gagal di kota lain.

๐Ÿ”

Measurement Bias

Cara collect data berbeda antar grup. Mis. credit data minoritas lebih sedikit.

๐Ÿงช

Aggregation Bias

Asumsi 1 model untuk semua grup, padahal pola berbeda per demografi.

๐Ÿ“‰

Evaluation Bias

Test set tidak balance representasi grup minoritas.

๐Ÿš€

Deployment Bias

Model dipakai di konteks berbeda dari training (mis. lab โ†’ real world).

3. Kasus Bias Terkenal

๐Ÿšจ Real World ยท Cautionary

COMPAS โ€” Algoritma Recidivism Court System

COMPAS dipakai di pengadilan US untuk predict probabilitas recidivism (mengulangi kejahatan). Investigasi ProPublica 2016: black defendants 2ร— lebih sering false-positive (di-flag tinggi tapi tidak mengulangi kejahatan) dibanding white defendants.

Pelajaran: model "akurat secara overall" bisa sangat tidak adil per grup. Audit fairness wajib di domain dengan dampak sosial besar.

4. Fairness Metrics

MetricDefinisiKarakter
Demographic ParityP(ลท=1 | A=0) = P(ลท=1 | A=1)Sama proporsi positive antar grup
Equal OpportunityP(ลท=1 | y=1, A=0) = P(ลท=1 | y=1, A=1)Sama TPR antar grup
Equalized OddsTPR & FPR sama antar grupLebih ketat dari Equal Opportunity
Predictive ParityP(y=1 | ลท=1) sama antar grupSame precision per grup
โš ๏ธ Hard Truth

Impossibility Theorem

Tidak mungkin satisfy semua fairness metric bersamaan kecuali grup punya base rate sama. Trade-off harus dipilih sadar berdasarkan konteks etis & legal.

5. Mitigasi Bias

6. Transparency & Explainability

๐Ÿ”ฌ

SHAP

Game theory-based feature importance. Lokal & global interpretation.

๐Ÿ“ˆ

LIME

Local explanation dengan linear approximation per prediction.

๐ŸŒณ

Decision Tree

Inherently interpretable. Trade-off accuracy untuk interpretability.

Hak konsumen untuk "right to explanation" sudah masuk regulasi (GDPR Article 22, UU PDP Indonesia). Tidak bisa lagi black-box AI di domain regulated (finansial, hiring, medical).

7. Privacy & Data Protection

8. Regulasi Global

RegulasiWilayahFokus
GDPRUni EropaData protection, right to explanation
EU AI ActUni Eropa, 2024Risk-based AI regulation
UU PDPIndonesia, 2022Personal data protection
Stranas KAIndonesia, 2020-2045Strategi nasional AI
NIST AI RMFUSA, 2023AI Risk Management Framework
NY Local Law 144NYC, 2023Audit AI hiring tools

9. Responsible AI Checklist

Sebelum Deploy AI

โœ“ Apakah training data representatif?
โœ“ Apakah ada audit fairness antar grup?
โœ“ Apakah keputusan model bisa dijelaskan?
โœ“ Apakah ada mekanisme appeal untuk affected user?
โœ“ Apakah privacy user terlindungi?
โœ“ Apakah ada monitoring drift & performance per grup?
โœ“ Apakah environmental impact (carbon dari training) di-track?
โœ“ Apakah ada plan untuk handle adversarial misuse?

๐Ÿ“ Tugas

Bias Audit

  1. Pilih dataset publik dengan demographic info (mis. UCI Adult Income).
  2. Train classifier baseline. Hitung accuracy overall.
  3. Hitung accuracy, TPR, FPR per gender dan ras.
  4. Hitung Demographic Parity dan Equal Opportunity.
  5. Apply mitigasi: resampling atau adjust threshold per grup.
  6. Tulis 1-page report: temuan bias + mitigasi + trade-off accuracy vs fairness.

Rangkuman