공정성

머신러닝 모델을 책임감 있게 평가하려면 단순한 손실 통계를 계산하는 것 이상의 활동이 필요합니다. 모델을 제품에 투입하기 전에 학습 데이터를 점검하고 예측에 편향성이 없는지 평가해야 합니다.

이 모듈에서는 데이터 학습에서 나타날 수 있는 다양한 유형의 사람이 갖는 편향을 살펴봅니다. 그런 다음 편향을 식별하고 그 영향을 평가할 수 있는 전략을 제시합니다.

공정성

매장의 선반에 있는 바나나 한 송이
  • 바나나
바나나 한 송이
  • 바나나
  • 스티커
바나나 한 송이
  • 바나나
  • 스티커
  • 선반 위의 바나나
바나나 한 송이
  • 녹색 바나나
  • 덜익은 바나나
녹색 바나나 한 송이
  • 너무 익은 바나나
  • 바나나 빵에 적합
갈색 바나나 한 송이

노란색 바나나

노란색은 가장 일반적인 바나나 색상

노란색 바나나 한 송이
데이터 수집, 모델 학습, 출력 생성의 일반적인 머신러닝 워크플로를 보여주는 그림
두 가지 편향 유형을 설명하는 그림: 데이터에서 나타나는 사람이 갖는 편향(외부 집단 동질화 편향 등) 및 데이터 수집과 주석에 영향을 주는 사람이 갖는 편향(확증 편향 등)
  1. 문제 살펴보기
  1. 문제 살펴보기
  2. 전문가에게 문의
  1. 문제 살펴보기
  2. 전문가에게 문의
  3. 모델이 편향을 고려하도록 학습시킴
  1. 문제 살펴보기
  2. 전문가에게 문의
  3. 모델이 편향을 고려하도록 학습시킴
  4. 결과 해석
  1. 문제 살펴보기
  2. 전문가에게 문의
  3. 모델이 편향을 고려하도록 학습시킴
  4. 결과 해석
  5. 맥락과 함께 게시