تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
المساءلة هي تحمل مسؤولية تأثيرات نظام الذكاء الاصطناعي.
تتضمن المساءلة عادةً الشفافية، أو مشاركة معلومات عن
سلوك النظام والعملية التنظيمية، والتي قد تشمل توثيق و
مشاركة كيفية إنشاء النماذج ومجموعات البيانات وتدريبها وتقييمها. توضّح المواقع التالية طريقتَين قيّمتَين لتوثيق المساءلة:
ومن الجوانب الأخرى للمساءلة إمكانية التفسير، التي تتضمن فهم قرارات نماذج تعلُّم الآلة، حيث يتمكّن المستخدمون من تحديد السمات التي تؤدي إلى توقّع معيّن. بالإضافة إلى ذلك، التفسير هو إمكانية شرح قرارات النموذج التلقائية بطريقة يسهل على البشر فهمها.
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Accountability in AI involves taking ownership for the effects of a system, often achieved through transparency about the system's development and behavior."],["Transparency can be enhanced using documentation practices like Model Cards and Data Cards, which provide information about models and datasets."],["Interpretability and explainability are crucial aspects of accountability, enabling understanding of model decisions and providing human-understandable explanations for automated actions."],["Fostering user trust in AI systems requires focusing on explainability and transparency, with further resources available in Google's Responsible AI Practices and Explainability Resources."]]],[]]