추천 시스템의 마지막 단계에서 시스템은
추가 기준이나 제약 조건을 고려할 수 있습니다. 1개
순위 재지정 접근 방식은 일부 후보를 삭제하는 필터를 사용하는 것입니다.
또 다른 순위 재지정 방식은 반환된 점수를 수동으로 변환하는 것입니다.
가중치가 적용됩니다.
이 섹션에서는 최신성, 다양성, 공정성을 간략하게 설명합니다.
이러한 요인은 맞춤 동영상을 개선하는 데 도움이 될 수 있는 여러 요소 중 하나입니다.
있습니다. 이러한 요인 중 일부는 종종 여러 단계를 수정해야 하는 경우가 있습니다.
살펴봤습니다 각 섹션마다 적용할 수 있는 솔루션이 제공됩니다.
개인적으로 또는 그룹으로
제공할 수 있습니다
최신 상태
대부분의 추천 시스템은 최신 사용 정보를 통합하는 것을 목표로 합니다.
현재 사용자 기록, 최신 항목 등입니다. 모델을 최신 상태로 유지
모델이 적절한 추천을 제공하는 데
도움이 됩니다
솔루션
가능한 한 자주 학습을 다시 실행하여 최신 학습 데이터를 학습합니다.
모델이 예기치 않은 활동으로 인해
방법을 배우게 됩니다. 웜 스타트로 인해 교육 및 훈련이
있습니다. 예를 들어 행렬 분해에서는
할 수 있습니다.
'평균' 행렬 분해에서 신규 사용자를 나타내는 사용자
모델을 학습시키는 작업도
반복해야 합니다 사용자마다 동일한 삽입을 사용하지 않아도 됩니다.
사용자 특성을 기반으로 사용자 클러스터를 만들 수 있습니다.
소프트맥스 모델 또는 2타워 모델과 같은 DNN을 사용합니다. 모델은
특성 벡터를 입력으로 사용하면
모델의 예측에 도움이 되지 않는 쿼리나
학습 중에 볼 수 있습니다.
문서 연령을 기능으로 추가합니다. 예를 들어 YouTube에서 동영상의 연령을
또는 지형지물로 마지막으로 본 시간을 나타냅니다.
다양성
시스템에서 항상 '가장 가까운' 상품을 추천하는 경우 쿼리에
후보들이 서로 매우 비슷한 경향이 있습니다. 이
다양성이 부족하면 사용자 환경이 나쁘거나 지루해질 수 있습니다. 예를 들어
YouTube에서 사용자가
시청한 동영상과 매우 유사한 동영상을 추천하는 경우
현재 보고 있는 사용자(예: 올빼미 동영상)
(그림에서 보듯이) 사용자는 금방 관심을 잃을 가능성이 큽니다.
솔루션
다양한 소스를 사용하여 여러 후보 생성기 학습
다양한 목적 함수를 사용하여 여러 순위자 학습
다양성을 보장하기 위해 장르 또는 기타 메타데이터를 기준으로 항목의 순위를 다시 지정합니다.
공정성
모델은 모든 사용자를 공정하게 대우해야 합니다. 따라서
모델이 학습 데이터에서 무의식적인 편향을 학습하지 않는 것입니다.
솔루션
설계 및 개발에 다양한 관점을 포함시킵니다.
포괄적인 데이터 세트로 ML 모델을 학습시킵니다. 다음 경우에 보조 데이터 추가
데이터가 너무 희소합니다 (예: 특정 카테고리가
과소 대표됨).
각 항목에서 측정항목 (예: 정확성 및 절대 오차)을 추적합니다.
편견을 살피기 위한 것입니다.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2024-07-26(UTC)"],[[["Recommendation systems can be improved by re-ranking candidates using filters or score transformations based on criteria like video age or click-bait detection."],["Maintaining freshness in recommendations involves regularly retraining models, incorporating new user and item data, and potentially using DNNs or age-based features."],["Enhancing diversity can be achieved by employing multiple candidate generators and rankers, along with re-ranking based on metadata like genre."],["Ensuring fairness requires diverse development teams, comprehensive training data, and monitoring metrics across demographics to mitigate biases."]]],[]]