Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
A segurança da IA inclui um conjunto de técnicas de design e operacionais a serem seguidas para
evitar e conter ações que possam causar danos, intencionalmente ou não.
Por exemplo, os sistemas de IA se comportam como o esperado, mesmo diante de uma violação
de segurança ou ataque direcionado? O sistema de IA é robusto o suficiente para operar com segurança,
mesmo quando perturbado? Como você planeja com antecedência para prevenir ou evitar riscos? O sistema de IA
é confiável e estável sob pressão?
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-02-25 UTC."],[[["AI safety encompasses design and operational techniques to prevent harm, ensuring AI systems behave as intended, even under pressure or attack."],["Adversarial testing is a key safety technique where AI systems are intentionally challenged with malicious or harmful input to assess their robustness."],["Google's Responsible AI Practices provide recommendations for protecting AI systems, including methods for adversarial testing and safeguarding against attacks."]]],[]]