تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
تشمل ممارسات الخصوصية في الذكاء الاصطناعي المسؤول
النظر في الآثار المحتملة لاستخدام data
الحسّاسة. ويشمل ذلك عدم الالتزام بالمتطلبات القانونية والتنظيمية فقط، بل
الالتزام أيضًا بالمعايير الاجتماعية والتوقعات الفردية المعتادة. على سبيل المثال،
ما هي الإجراءات الوقائية التي يجب اتخاذها لضمان خصوصية الأفراد،
مع الأخذ في الاعتبار أنّ نماذج تعلُّم الآلة قد تتذكر أو تكشف جوانب من البيانات التي
تم تحليلها؟ ما هي الخطوات اللازمة لضمان منح المستخدمين شفافية وإمكانية تحكّم كافية في بياناتهم؟
اطّلِع على مزيد من المعلومات حول خصوصية الذكاء الاصطناعي من خلال الاطّلاع على الخطوات التفاعلية في PAIR Explorables:
تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-02-25 (حسب التوقيت العالمي المتفَّق عليه)"],[[["Responsible AI privacy practices involve respecting legal and regulatory requirements, social norms, and individual expectations regarding sensitive data."],["Safeguards are crucial to ensure individual privacy, as ML models can retain and potentially reveal aspects of the data used in training."],["Transparency and user control over their data are essential considerations in responsible AI development."],["Google's PAIR Explorables offer interactive learning experiences to deepen your understanding of ML privacy concepts like randomized response, federated learning, and data leakage."]]],[]]