Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Keadilan
Keadilan mengatasi kemungkinan hasil yang berbeda yang mungkin dialami pengguna akhir
terkait karakteristik sensitif seperti ras, pendapatan, orientasi seksual,
atau gender melalui pengambilan keputusan algoritme. Misalnya, apakah algoritma rekrutmen
memiliki bias untuk atau terhadap pelamar dengan nama yang terkait dengan
gender atau etnis tertentu?
Pelajari lebih lanjut bagaimana sistem machine learning mungkin rentan terhadap bias manusia
dalam video ini:
Untuk contoh di dunia nyata, baca tentang cara produk seperti Google Penelusuran dan
Google Foto meningkatkan keberagaman representasi warna kulit melalui
Monk Skin Tone Scale.
Ada metode yang andal untuk mengidentifikasi, mengukur, dan mengurangi bias dalam model. Modul Keadilan
dari Kursus Singkat Machine Learning
memberikan gambaran mendalam tentang keadilan dan teknik mitigasi bias.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2024-11-14 UTC."],[[["Fairness in machine learning aims to address potential unequal outcomes for users based on sensitive attributes like race, gender, or income due to algorithmic decisions."],["Machine learning systems can inherit human biases, impacting outcomes for certain groups, and require strategies for identification, measurement, and mitigation."],["Google has worked on improving fairness in products like Google Search and Google Photos by utilizing the Monk Skin Tone Scale to better represent skin tone diversity."],["Developers can learn about fairness and bias mitigation techniques in detail through resources like the Fairness module of Google's Machine Learning Crash Course and interactive AI Explorables from People + AI Research (PAIR)."]]],[]]