تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
المساءلة هي تحمل مسؤولية تأثيرات نظام الذكاء الاصطناعي.
تتضمن المساءلة عادةً الشفافية، أو مشاركة معلومات عن
سلوك النظام والعملية التنظيمية، والتي قد تشمل توثيق و
مشاركة كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. توضّح المواقع التالية طريقتَين قيّمتَين لتوثيق المساءلة:
ومن الجوانب الأخرى للمساءلة إمكانية التفسير، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن المستخدمون من تحديد السمات التي تؤدي إلى توقّع معيّن. بالإضافة إلى ذلك، التفسير هو إمكانية شرح قرارات النموذج التلقائية بطريقة يسهل على البشر فهمها.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[],[]]