Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Keamanan AI mencakup serangkaian teknik desain dan operasional yang harus diikuti untuk
menghindari dan membatasi tindakan yang dapat menyebabkan bahaya, baik disengaja maupun tidak disengaja.
Misalnya, apakah sistem AI berperilaku sebagaimana mestinya, bahkan saat terjadi pelanggaran keamanan
atau serangan yang ditargetkan? Apakah sistem AI cukup andal untuk beroperasi dengan aman
meskipun terganggu? Bagaimana cara Anda merencanakan ke depan untuk mencegah atau menghindari risiko? Apakah sistem
AI andal dan stabil dalam tekanan?
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-02-25 UTC."],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]