تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تشمل سلامة الذكاء الاصطناعي مجموعة من تقنيات التصميم والتشغيل التي يجب اتّباعها لتجنّب الإجراءات التي يمكن أن تتسبّب في إلحاق الضرر، سواء عن قصد أو بدون قصد، واحتواء هذه الإجراءات.
على سبيل المثال، هل تعمل أنظمة الذكاء الاصطناعي على النحو المطلوب، حتى في حال حدوث هجوم مستهدف أو تعرُّض للاختراق؟ هل نظام الذكاء الاصطناعي قوي بما يكفي للعمل بأمان
حتى في حال حدوث خلل؟ كيف تخطّط مسبقًا لتجنّب المخاطر أو تجنّب حدوثها؟ هل نظام الذكاء الاصطناعي
موثوق ومستقر في ظل الضغط؟
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]