Sicherheit
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Die Sicherheit von KI umfasst eine Reihe von Design- und Betriebstechniken, mit denen Aktionen vermieden und eingedämmt werden können, die vorsätzlich oder unbeabsichtigt schädlich sind.
Verhalten sich KI-Systeme beispielsweise wie vorgesehen, auch bei einem Sicherheitsverstoß oder einem gezielten Angriff? Ist das KI-System robust genug, um auch bei Störungen sicher zu funktionieren? Wie planen Sie im Voraus, um Risiken zu vermeiden? Ist das KI-System zuverlässig und stabil?
Eine dieser Sicherheitstechniken ist Adversarial Testing, also der Versuch, Ihre eigene Anwendung zu „hacken“, um herauszufinden, wie sie sich bei schädlichen oder unbeabsichtigt schädlichen Eingaben verhält. Im Responsible Generative AI Toolkit finden Sie weitere Informationen zu Sicherheitsbewertungen, einschließlich Adversarial-Tests. Weitere Informationen zu den Aktivitäten von Google in diesem Bereich und zu den gewonnenen Erkenntnissen finden Sie im Keyword-Blogpost Google's AI Red Team: the ethical hackers making AI safer (Das „AI Red Team“ von Google: die Ethik-Hacker, die KI sicherer machen) oder unter SAIF: Google's Guide to Secure AI (SAIF: Google's Guide to Secure AI).
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Benötigte Informationen nicht gefunden","missingTheInformationINeed","thumb-down"],["Zu umständlich/zu viele Schritte","tooComplicatedTooManySteps","thumb-down"],["Nicht mehr aktuell","outOfDate","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Problem mit Beispielen/Code","samplesCodeIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-07-27 (UTC)."],[],[]]