Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Yapay zeka güvenliği, kasıtlı veya kasıtsız olarak zarara neden olabilecek eylemleri önlemek ve kontrol altına almak için uyulması gereken bir dizi tasarım ve operasyon tekniği içerir.
Örneğin, yapay zeka sistemleri güvenlik ihlali veya hedeflenmiş saldırı karşısında bile amaçlandığı gibi davranıyor mu? Yapay zeka sistemi, bozulduğunda bile güvenli bir şekilde çalışacak kadar güçlü mü? Riskleri önlemek veya azaltmak için nasıl plan yapıyorsunuz? Yapay zeka sistemi, baskı altında güvenilir ve kararlı mı?
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2025-07-27 UTC."],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]