Secure AI Framework (SAIF): Conceptual Framework for Secure AI Systems

Sztuczna inteligencja dynamicznie się rozwija, dlatego ważne jest, aby wraz z nią ewoluować także efektywne strategie zarządzania ryzykiem. Secure AI Framework (SAIF) to koncepcyjny schemat bezpiecznych systemów AI, który ma pomóc w osiągnięciu tego ewolucji.

Wraz z coraz integracją możliwości sztucznej inteligencji z produktami na całym świecie przestrzeganie surowych i odpowiedzialnych zasad będzie miało jeszcze większe znaczenie.

Narzędzie SAIF zostało zaprojektowane w celu ograniczenia ryzyka związanego z systemami AI, takiego jak kradzież modelu, zatrucie danych treningowych, wstrzyknięcie szkodliwych danych wejściowych poprzez wstrzyknięcie potwierdzenia i wydobycie poufnych informacji z danych treningowych.

Schemat SAIF

SAIF składa się z 6 głównych elementów:

1. Rozszerzanie solidnych podstaw zabezpieczeń do ekosystemu AI

Obejmuje to korzystanie z zabezpieczeń infrastruktury domyślnie i ekspertów w ciągu ostatnich 2 dekad do ochrony systemów, aplikacji i użytkowników używających sztucznej inteligencji. Jednocześnie rozwijaj wiedzę organizacyjną, aby nadążyć za rozwojem sztucznej inteligencji oraz zacząć skalować i dostosowywać zabezpieczenia infrastruktury w kontekście sztucznej inteligencji i ewoluujących modeli zagrożeń. Na przykład istnieją już pewne techniki wstrzykiwania, takie jak wstrzyknięcie kodu SQL, a organizacje mogą dostosowywać zabezpieczenia, takie jak dezynfekcja i ograniczanie wejściowego ruchu, aby lepiej chronić się przed atakami typu wstrzykiwanie.

2. Rozszerz możliwości wykrywania i reagowania, aby wprowadzić sztuczną inteligencję do świata zagrożeń organizacji

Terminowość ma kluczowe znaczenie w wykrywaniu i reagowaniu na cyberincydenty związane ze sztuczną inteligencją oraz zwiększanie możliwości analizy zagrożeń i innych możliwości w organizacji. W przypadku organizacji obejmuje to monitorowanie danych wejściowych i wyjściowych sztucznej inteligencji w celu wykrywania anomalii i używanie analiz zagrożeń do przewidywania ataków. Zwykle wymaga to współpracy z zespołami ds. zaufania i bezpieczeństwa, analiz zagrożeń i zespołów przeciwdziałania nadużyciom.

3. Automatyzuj obronę, aby dotrzymać kroku obecnym i nowym zagrożeniom

Najnowsze innowacje w zakresie sztucznej inteligencji mogą zwiększyć skalę i szybkość reakcji na incydenty związane z bezpieczeństwem. Przeciwnicy będą prawdopodobnie używać sztucznej inteligencji do skalowania swojego wpływu, dlatego tak ważne jest, aby używać sztucznej inteligencji oraz obecnych i nowych funkcji, które zapewnią jej elastyczność i oszczędność w ochronie przed nimi.

4. Zharmonizowane zarządzanie na poziomie platformy w celu zapewnienia spójnych zabezpieczeń w całej organizacji

Spójność między platformami kontrolnymi może pomóc w ograniczaniu ryzyka sztucznej inteligencji i skalowaniu ochrony na różnych platformach i narzędziach, aby zapewnić najlepsze zabezpieczenia wszystkich aplikacji AI w skalowalny i opłacalny sposób. Obejmuje to rozszerzanie zabezpieczeń zapewniających domyślną ochronę na platformach sztucznej inteligencji (takich jak Vertex AI i Security AI Workbench) oraz dodawanie mechanizmów kontrolnych i zabezpieczeń do cyklu życia programowania. Funkcje uwzględniające ogólne przypadki użycia, takie jak Perspective API, mogą pomóc całej organizacji skorzystać z najnowocześniejszych zabezpieczeń.

5. Dostosowanie elementów sterujących w celu złagodzenia skutków problemu i szybszego zapętlenia opinii po wdrożeniu AI

Ciągłe testowanie implementacji dzięki ciągłemu uczeniu się może zapewnić wykrywanie i ochronę zabezpieczeń w odpowiedzi na zmieniające się środowisko zagrożeń. Obejmuje to techniki takie jak wzmocnienie uczenia się na podstawie incydentów i opinii użytkowników, a także działania takie jak aktualizowanie zbiorów danych treningowych, dostosowywanie modeli do przeprowadzania strategicznych ataków i zezwalanie oprogramowaniu służącemu do tworzenia modeli na umieszczanie dodatkowych zabezpieczeń w kontekście (np. wykrywanie nietypowych zachowań). Organizacje mogą również prowadzić regularne ćwiczenia, aby poprawić bezpieczeństwo w zakresie produktów i funkcji opartych na AI.

6. Dowiedz się, jakie jest ryzyko w kontekście systemów AI związanych z procesami biznesowymi

Przeprowadzanie kompleksowych ocen ryzyka związanych ze sposobem wdrażania sztucznej inteligencji może też pomóc w podjęciu decyzji. Obejmuje to ocenę pełnego ryzyka biznesowego, takiego jak pochodzenie danych, walidacja i monitorowanie działania w przypadku określonych typów aplikacji. Dodatkowo organizacje powinny tworzyć zautomatyzowane kontrole, aby sprawdzić wydajność sztucznej inteligencji.

Dodatkowe materiały

Przewodnik dla praktyków dotyczących wdrażania SAIF. Ten przewodnik zawiera ogólne praktyczne uwagi na temat tego, jak organizacje mogą wprowadzić podejście SAIF do istniejących lub nowych wdrożeń sztucznej inteligencji.

Dlaczego Red Teams odgrywają kluczową rolę w pomaganiu organizacjom w zabezpieczaniu sztucznej inteligencji to szczegółowy raport na temat jednej kluczowej możliwości wdrażania platformy SAIF: Red w zespole. Obejmują one 3 ważne obszary:

  1. Czym jest czerwony zespół i dlaczego jest tak ważny
  2. Jakie rodzaje ataków atakują zespoły czerwone
  3. Lekcje, których się nauczyliśmy, i które możemy udostępniać innym