Keadilan

Mengevaluasi model machine learning secara bertanggung jawab membutuhkan lebih dari sekadar menghitung metrik kerugian. Sebelum model diproduksi, sangat penting untuk mengaudit data pelatihan dan mengevaluasi prediksi untuk memeriksa apakah ada bias.

Modul ini melihat berbagai jenis bias manusia yang dapat muncul dalam data pelatihan. Kemudian modul ini memberikan strategi untuk mengidentifikasi bias tersebut dan mengevaluasi efeknya.

Keadilan

Setumpuk pisang di rak di toko
  • Pisang
Setumpuk pisang
  • Pisang
  • Stiker
Setumpuk pisang
  • Pisang
  • Stiker
  • Pisang di rak
Setumpuk pisang
  • Pisang Hijau
  • Pisang Mentah
Setumpuk pisang hijau
  • Pisang yang terlalu Matang
  • Cocok untuk Roti Pisang
Setumpuk pisang cokelat

Pisang Kuning

Kuning adalah warna yang khas untuk pisang

Setumpuk pisang kuning
Diagram yang menunjukkan alur kerja machine learning standar: mengumpulkan data, lalu melatih model, kemudian membuat keluaran
Diagram yang menunjukkan dua jenis bias dalam data: bias manusia yang muncul di data (misalnya bias kehomogenan luar golongan), dan bias manusia yang memengaruhi pengumpulan data dan anotasi (misalnya bias konfirmasi)
  1. Pertimbangkan masalahnya
  1. Pertimbangkan masalahnya
  2. Tanyakan pada pakar
  1. Pertimbangkan masalahnya
  2. Tanyakan pada pakar
  3. Latih model untuk memperhitungkan bias
  1. Pertimbangkan masalahnya
  2. Tanyakan pada pakar
  3. Latih model untuk memperhitungkan bias
  4. Tafsirkan hasilnya
  1. Pertimbangkan masalahnya
  2. Tanyakan pada pakar
  3. Latih model untuk memperhitungkan bias
  4. Tafsirkan hasilnya
  5. Publikasikan dengan konteks