HomeEntryRed-Teaming bei KI

Red-Teaming bei KI

Sicherheitsüberprüfung von KI-Modellen durch ein kontrolliertes Testen auf Schwächen, Ausnutzbarkeit oder ungewollte Verhaltensweisen. Red Teams versuchen etwa, Chatbots zu toxischem Verhalten zu provozieren – mit dem Ziel, die Robustheit zu verbessern.

Kontakt
Rothenbaumchaussee 11, 20148 Hamburg
info@nextstrategy.ai
+49 (0) 40 756 817 83

Bürozeiten
Montag - Freitag
9:00 - 17:00 Uhr

Videotermin vereinbaren
Jetzt Videotermin vereinbaren