Sicherheitsüberprüfung von KI-Modellen durch ein kontrolliertes Testen auf Schwächen, Ausnutzbarkeit oder ungewollte Verhaltensweisen. Red Teams versuchen etwa, Chatbots zu toxischem Verhalten zu provozieren – mit dem Ziel, die Robustheit zu verbessern.