إنّ تقييم تقنيات الذكاء الاصطناعي من حيث الإنصاف والمساءلة والأمان والخصوصية هو
مفتاح تطوير الذكاء الاصطناعي بمسؤولية. يجب دمج عمليات التحقّق هذه في كل مرحلة من مراحل دورة حياة المنتج لضمان تطوير منتجات آمنة ومتساوية وموثوقة للجميع.
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Generative AI models present new challenges to Responsible AI due to their open-ended output and varied uses, prompting the need for guidelines like Google's Generative AI Prohibited Use Policy and Toolkit for Developers."],["Google provides further resources on crucial aspects of generative AI, including safety, fairness, prompt engineering, and adversarial testing."],["Building AI responsibly requires thorough assessment of fairness, accountability, safety, and privacy throughout the entire product lifecycle."],["Google emphasizes the importance of Responsible AI and offers additional resources like the AI Principles, Generative AI information, and toolkits for developers."]]],[]]