קל לארגן דפים בעזרת אוספים
אפשר לשמור ולסווג תוכן על סמך ההעדפות שלך.
שיטות פרטיות ב-AI אחראי כוללות שיקול של ההשלכות האפשריות של שימוש במידע אישי רגיש. המשמעות היא לא רק כיבוד הדרישות המשפטיות והרגולטוריות, אלא גם התחשבות בנורמות חברתיות ובציפיות אישיות אופייניות. לדוגמה, אילו אמצעי הגנה צריך להפעיל כדי להבטיח את הפרטיות של אנשים פרטיים, בהתחשב בכך שמודלים של למידת מכונה עשויים לזכור או לחשוף היבטים של הנתונים שהם נחשפו אליהם? אילו פעולות נדרשות כדי להבטיח למשתמשים שקיפות מספקת ושליטה בנתונים שלהם?
מידע נוסף על פרטיות ב-ML זמין במדריכים האינטראקטיביים של PAIR Explorables:
[[["התוכן קל להבנה","easyToUnderstand","thumb-up"],["התוכן עזר לי לפתור בעיה","solvedMyProblem","thumb-up"],["סיבה אחרת","otherUp","thumb-up"]],[["חסרים לי מידע או פרטים","missingTheInformationINeed","thumb-down"],["התוכן מורכב מדי או עם יותר מדי שלבים","tooComplicatedTooManySteps","thumb-down"],["התוכן לא עדכני","outOfDate","thumb-down"],["בעיה בתרגום","translationIssue","thumb-down"],["בעיה בדוגמאות/בקוד","samplesCodeIssue","thumb-down"],["סיבה אחרת","otherDown","thumb-down"]],["עדכון אחרון: 2025-02-25 (שעון UTC)."],[[["Responsible AI privacy practices involve respecting legal and regulatory requirements, social norms, and individual expectations regarding sensitive data."],["Safeguards are crucial to ensure individual privacy, as ML models can retain and potentially reveal aspects of the data used in training."],["Transparency and user control over their data are essential considerations in responsible AI development."],["Google's PAIR Explorables offer interactive learning experiences to deepen your understanding of ML privacy concepts like randomized response, federated learning, and data leakage."]]],[]]