Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
La seguridad de la IA incluye un conjunto de técnicas de diseño y operativas que se deben seguir para evitar y contener acciones que puedan causar daños, de forma intencional o no.
Por ejemplo, ¿los sistemas de IA se comportan según lo previsto, incluso ante una violación de seguridad o un ataque dirigido? ¿El sistema de IA es lo suficientemente sólido como para funcionar de forma segura incluso cuando se ve afectado? ¿Cómo planificas con anticipación para prevenir o evitar los riesgos? ¿El sistema de IA es confiable y estable bajo presión?
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-02-25 (UTC)"],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]