公平性

公平性:透過演算法決策,解決使用者可能因種族、收入、性傾向或性別等敏感特徵,而面臨的結果差異。舉例來說,聘用演算法是否可能對與特定性別或族群相關聯的姓名,抱持偏見或反感?

如要進一步瞭解機器學習系統如何受到人類偏誤影響,請觀看這部影片:

如需實際範例,請參閱這篇文章,瞭解 Google 搜尋和 Google 相簿等產品如何透過孟克膚色量表,提升膚色代表性的多元性。

您可以透過可靠的方法,找出、評估及減少模型中的偏誤。機器學習密集課程公平性模組,深入探討公平性和偏見減輕技術。

People + AI Research (PAIR) 提供互動式 AI 探索工具,說明如何評估公平性隱藏偏誤,協助您瞭解這些概念。如要瞭解更多與機器學習公平性相關的詞彙,請參閱 Google 開發人員平台上的機器學習詞彙:公平性