Keadilan

Tetap teratur dengan koleksi Simpan dan kategorikan konten berdasarkan preferensi Anda.

Evaluasi model machine learning secara bertanggung jawab memerlukan lebih dari sekadar menghitung metrik kerugian. Sebelum membuat model ke dalam produksi, sangat penting untuk mengaudit data pelatihan dan mengevaluasi prediksi untuk bias.

Modul ini melihat berbagai jenis bias manusia yang dapat muncul dalam data pelatihan. Hal ini kemudian memberikan strategi untuk mengidentifikasinya dan mengevaluasi efeknya.

Keadilan

Setumpuk pisang di rak di toko
  • Pisang
Sekelompok pisang
  • Pisang
  • Stickers
Sekelompok pisang
  • Pisang
  • Stickers
  • Pisang di rak
Sekelompok pisang
  • Pisang Hijau
  • Pisang Mentah
Setumpuk pisang hijau
  • Selesai Pisang
  • Cocok untuk Roti Pisang
Sekelompok pisang cokelat

Pisang Kuning

Kuning bersifat prototipe untuk pisang

Setumpuk pisang kuning
Diagram yang menggambarkan alur kerja machine learning standar: mengumpulkan data, lalu melatih model, lalu membuat output
Diagram yang menggambarkan dua jenis bias dalam data: bias manusia yang muncul dalam data (seperti bias kehomogenan luar grup), dan bias manusia yang memengaruhi pengumpulan data serta anotasi (seperti bias konfirmasi)
  1. Pertimbangkan masalahnya
  1. Pertimbangkan masalahnya
  2. Tanya pakar
  1. Pertimbangkan masalahnya
  2. Tanya pakar
  3. Melatih model untuk memperhitungkan bias
  1. Pertimbangkan masalahnya
  2. Tanya pakar
  3. Melatih model untuk memperhitungkan bias
  4. Menafsirkan hasil
  1. Pertimbangkan masalahnya
  2. Tanya pakar
  3. Melatih model untuk memperhitungkan bias
  4. Menafsirkan hasil
  5. Publikasikan dengan konteks