Pengurutan ulang

Pada tahap akhir sistem rekomendasi, sistem dapat mengurutkan ulang kandidat untuk mempertimbangkan kriteria atau batasan tambahan. Salah satu pendekatan peringkat ulang adalah menggunakan filter yang menghapus beberapa kandidat.

Pendekatan peringkat ulang lainnya adalah mengubah skor yang ditampilkan oleh pemberi peringkat secara manual.

Bagian ini secara singkat membahas keaktualan, keberagaman, dan keadilan. Faktor-faktor ini termasuk di antara banyak faktor yang dapat membantu meningkatkan kualitas sistem rekomendasi Anda. Sebagian faktor ini sering kali memerlukan modifikasi berbagai tahap proses. Setiap bagian menawarkan solusi yang dapat Anda terapkan satu per satu atau secara kolektif.

Keaktualan

Sebagian besar sistem rekomendasi bertujuan untuk menggabungkan informasi penggunaan terbaru, seperti histori pengguna saat ini dan item terbaru. Menjaga model tetap segar membantu model membuat rekomendasi yang baik.

Solusi

  • Jalankan kembali pelatihan sesering mungkin untuk mempelajari data pelatihan terbaru. Sebaiknya mulai pelatihan terlebih dahulu agar model tidak perlu belajar kembali dari awal. Start warm dapat mengurangi waktu pelatihan secara signifikan. Misalnya, dalam faktorisasi matriks, awali penyematan untuk item yang ada di instance model sebelumnya.
  • Buat "rata-rata" pengguna untuk mewakili pengguna baru dalam model faktorisasi matriks. Anda tidak memerlukan penyematan yang sama untuk setiap pengguna—Anda dapat membuat cluster pengguna berdasarkan fitur pengguna.
  • Gunakan DNN seperti model softmax atau model dua menara. Karena mengambil vektor fitur sebagai input, model dapat dijalankan pada kueri atau item yang tidak terlihat selama pelatihan.
  • Tambahkan usia dokumen sebagai fitur. Misalnya, YouTube dapat menambahkan usia video atau waktu tayangan terakhirnya sebagai fitur.

Gambar empat video yang direkomendasikan tentang burung hantu.

Keberagaman

Jika sistem selalu merekomendasikan item yang "quot;terdekat" dengan penyematan kueri, kandidat cenderung sangat mirip satu sama lain. Kurangnya keberagaman ini dapat menyebabkan pengalaman pengguna yang buruk atau membosankan. Misalnya, jika YouTube hanya merekomendasikan video yang sangat mirip dengan video yang sedang ditonton pengguna, seperti video burung hantu (seperti yang ditunjukkan dalam ilustrasi), pengguna akan cepat kehilangan minat.

Solusi

  • Melatih beberapa generator kandidat menggunakan sumber yang berbeda.
  • Melatih beberapa pemberi peringkat menggunakan fungsi tujuan yang berbeda.
  • Urutkan ulang item berdasarkan genre atau metadata lainnya untuk memastikan keberagaman.

Keadilan

Model Anda harus memperlakukan semua pengguna secara adil. Oleh karena itu, pastikan model Anda tidak mempelajari bias yang tidak disadari dari data pelatihan.

Solusi

  • Sertakan beragam perspektif dalam desain dan pengembangan.
  • Melatih model ML pada set data yang komprehensif. Tambahkan data tambahan saat data Anda terlalu renggang (misalnya, saat kategori tertentu kurang terwakili).
  • Melacak metrik (misalnya, akurasi dan error absolut) pada setiap demografi untuk mengamati bias.
  • Buat model terpisah untuk grup yang kurang terlayani.