Keadilan
Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Keadilan menangani kemungkinan hasil yang berbeda yang mungkin dialami pengguna akhir terkait dengan karakteristik sensitif seperti ras, pendapatan, orientasi seksual, atau gender melalui pengambilan keputusan algoritmik. Misalnya, apakah algoritma perekrutan memiliki bias terhadap atau menentang pelamar dengan nama yang terkait dengan gender atau etnis tertentu?
Pelajari lebih lanjut bagaimana sistem machine learning mungkin rentan terhadap bias manusia dalam video ini:
Untuk contoh di dunia nyata, baca cara produk seperti Google Penelusuran dan Google Foto meningkatkan keberagaman representasi warna kulit melalui Monk Skin Tone Scale.
Ada metode yang andal untuk mengidentifikasi, mengukur, dan mengurangi bias dalam model. Modul Keadilan dalam Kursus Singkat Machine Learning memberikan pembahasan mendalam tentang teknik mitigasi bias dan keadilan.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-07-27 UTC."],[],[]]