Verfügbare KI-Modelle
GPT 5.2 Pro
Ist das leistungsstärkste Produktionsmodell der GPT-5.2-Familie von OpenAI und wird über die Responses API für Workloads mit höchsten Anforderungen an Genauigkeit, Schlussfolgern, Tool-Nutzung sowie Kontext und Durchsatz bereitgestellt.
- Input Tokens 1.047.576
- Output Tokens 32.768
GPT 5.2 chat
Ist der chatoptimierte Snapshot der GPT-5.2-Familie von OpenAI (in ChatGPT als GPT-5.2 Instant bekannt) und eignet sich für interaktive Anwendungen mit Bedarf an Geschwindigkeit, langen Kontexten, multimodalen Eingaben und stabilem Dialogverhalten.
- Input Tokens 1.047.576
- Output Tokens 32.768
GPT 5.2
Ressourcenschonende Mikro-Version von GPT-4.1, optimiert für leichtgewichtige Anwendungen und hohe Request-Raten.
- Input Tokens 1.047.576
- Output Tokens 32.768
Sora 2 Pro
- Input Tokens n.v.
- Output Tokens n.v.
Sora 2
Äußerst leistungsstarkes Modell zur Videogenerierung mit Soundeffekten, unterstützt Chat-Format.
- Input Tokens n.v.
- Output Tokens n.v.
GPT Image 1.5
GPT-Image-1.5 ist ein multimodales GPT-Modell zur Bildgenerierung aus Textprompts und präzisen Bearbeitungen von Eingabebildern gemäß Nutzeranweisungen.
- Input Tokens n.v.
- Output Tokens n.v.
GPT 4.1
Kontextoptimiertes OpenAI-Modell für umfangreiche Dokumente, tiefgehendes Research und komplexe Coding-Aufgaben.
- Input Tokens 1.047.576
- Output Tokens 32.768
GPT 4.1 Mini
Optimierte, ressourcenschonende Variante von GPT-4.1, gleicher Kontextumfang wie das Originalmodell.
- Input Tokens 1.047.576
- Output Tokens 32.768
GPT 4.1 Nano
Ressourcenschonende Mikro-Version von GPT-4.1, optimiert für leichtgewichtige Anwendungen und hohe Request-Raten.
- Input Tokens 1.047.576
- Output Tokens 32.768
GPT 4o
Ein modernes, multimodales Spitzenmodell für Echtzeitverarbeitung von Text, Audio und Bild, das durch hohe Intelligenz und beeindruckende Leistungsfähigkeit besticht.
- Input Tokens 128.000
- Output Tokens 16.384
GPT 4o Mini
Eine schnelle und kostengünstige Variante von GPT-4o, die durch exzellentes logisches Denken und Multimodalität überzeugt – perfekt für skalierbare und effiziente Anwendungen.
- Input Tokens 128.000
- Output Tokens 16.384
GPT Image 1
OpenAIs fortschrittliche Engine zur Generierung und Bearbeitung von Bildern aus Text, optimiert für hohe Realismus- und Variationsvielfalt.
- Input Tokens n.v.
- Output Tokens n.v.
GPT o3
Optimiertes Modell für strukturiertes Reasoning und die Bearbeitung komplexer, mehrstufiger Logikprozesse.
- Input Tokens 200.000
- Output Tokens 100.000
GPT o3-mini
Optimierte o3-Version mit Fokus auf Kostenersparnis und effizienter Leistung.
- Input Tokens 200.000
- Output Tokens 100.000
GPT o4-mini
Optimiertes Multimodalmodell mit hoher Verarbeitungsgeschwindigkeit, erweitertem Reasoning und Coding-Unterstützung.
- Input Tokens 200.000
- Output Tokens 100.000
GPT o4-mini-high
Optimierte High-Performance-Variante von o4-mini, speziell für umfangreiche Aufgaben und komplexe logische Prozesse.
- Input Tokens 200.000
- Output Tokens 100.000
GPT-OSS 120B
Erstes Open-Source-Modell von OpenAI, optimiert für hohe Performance und MXFP4-natives Training.
- Input Tokens 200.000
- Output Tokens 100.000
Gemma 3 27B Instruct
Ein schlankes Multimodal-KI-Modell mit ausgezeichneter Kontextverarbeitung und umfassender Mehrsprachigkeits-
unterstützung.
- Input Tokens 128.000
- Output Tokens 16.000
Gemini-3-flash
Ist ein leichtgewichtiges, effizientes, multimodales Modell von Google, das für reale Anwendungen mit schnellen Antworten und geringer Latenz entwickelt wurde.
- Input Tokens 1.000.000
- Output Tokens 62.000
Nano Banana Pro
- Input Tokens 65.000
- Output Tokens 32.000
Gemini 3 Pro
Leistungsstarkes Modell für Programmierung, Mathematik und logisches Denken, mit Deep Think-Modus für mehrstufige Problemlösungen.
- Input Tokens 1.000.000
- Output Tokens 65.000
Gemini 2.5 Pro
- Input Tokens 1.000.000
- Output Tokens 65.000
Gemini 2.5 Flash-Lite
Kosteneffiziente Variante für Aufgaben mit minimaler Latenz.
- Input Tokens 1.000.000
- Output Tokens 65.000
Gemini 2.5 Flash
Hochleistungsmodell von Google zur multimodalen Verarbeitung von Text, Bild, Audio und Video, optimiert für komplexe Analyse, Research und tiefgehendes Reasoning.
- Input Tokens 1.000.000
- Output Tokens 32.768
Veo 3 Pro
- Input Tokens n.v.
- Output Tokens n.v.
Imagen 4 Pro
Fortgeschrittenes Modell für generative Bild-KI, optimiert für ein ausgewogenes Verhältnis von Renderqualität und Verarbeitungsgeschwindigkeit.
- Input Tokens n.v.
- Output Tokens n.v.
Imagen 4 Ultra
Hochleistungs-Bildmodell von Google, optimiert für präzises Editing, stilistische Anpassungen und treue Umsetzung von Textvorgaben.
- Input Tokens n.v.
- Output Tokens n.v.
Imagen 4 Fast
Optimiertes Bildgenerierungsmodell, ausgelegt für hohe Geschwindigkeit und parallele Verarbeitung großer Datenmengen.
- Input Tokens n.v.
- Output Tokens n.v.
Imagen 4 Pro
Fortgeschrittenes Modell für generative Bild-KI, optimiert für ein ausgewogenes Verhältnis von Renderqualität und Verarbeitungsgeschwindigkeit.
- Input Tokens n.v.
- Output Tokens n.v.
Imagen 4 Ultra
Hochleistungs-Bildmodell von Google, optimiert für präzises Editing, stilistische Anpassungen und treue Umsetzung von Textvorgaben.
- Input Tokens n.v.
- Output Tokens n.v.
Сlaude Sonnet 4.5
Claude Sonnet 4.5 verbessert die Fähigkeiten für praktische Computeraufgaben erheblich: Auf OSWorld stieg es von 42,2 % (Sonnet 4) auf 61,4 % an die Spitze. Die Claude for Chrome-Erweiterung nutzt diese Verbesserungen direkt.
- Input Tokens 200.000
- Output Tokens 64.000
Claude Opus 4.5
Ist ein instruktionsoptimiertes Modell von Anthropic für komplexes Schlussfolgern, Programmierung und Multi-Turn-Dialoge, mit erweiterten Kontext-, Tool- und RAG-Funktionen, strukturierten Ausgaben und Sicherheitskontrollen.
- Input Tokens 200.000
- Output Tokens 64.000
Claude Haiku 4.5
Schnellstes und kosteneffizientestes Modell.
- Input Tokens 200.000
- Output Tokens 64.000
Claude Opus 4
Anthropics führendes Flaggschiff-Modell für hochkomplexe Aufgaben, Funktionsaufrufe, agentische Anwendungsfälle und Code-Generierung.
- Input Tokens 200.000
- Output Tokens 16.000
Claude Sonnet 4
Ein leistungsstarkes, harmonisch abgestimmtes KI-Modell für komplexes logisches Denken, professionelle Code-Erstellung und umfangreiche Analysen – multimodal mit visuellen Fähigkeiten und ideal als vielseitiges Allround-System für den täglichen Einsatz.
- Input Tokens 200.000
- Output Tokens 64.000
Claude Sonnet 3.7
Ausgewogenes Modell mit Tool-CoT, Vision und Reasoning; Vorgänger von Claude Sonnet 4.
- Input Tokens 200.000
- Output Tokens 8.000
Claude Sonnet 3.5
Ein ausgewogenes KI-Modell mit leistungsstarkem Tool-Calling, fortschrittlicher Vision und intelligenter Performance.
- Input Tokens 200.000
- Output Tokens 8.000
Llama 3.3 70B Instruct
Ein leistungsfähiges Open-Source-Instruktionsmodell für Dialoge, präzises Q&A und flexible Content-Generierung.
- Input Tokens 128.000
- Output Tokens 16.000
Llama Guard 3 8B
Open-Source-Sicherheitsfilter zur Inhaltsmoderation (toxische, illegale Inhalte usw.).
- Input Tokens 32.000
- Output Tokens 4.000
DeepSeek V3.2
- Input Tokens 128.000
- Output Tokens 4.000
Deepseek R1 Llama 70B
Destilliertes Open-Source-Modell DeepSeek R1 (Llama 3.3 70B als Basismodell), optimiert für Reasoning.
- Input Tokens 128.000
- Output Tokens 64.000
Deepseek R1
Ein offen zugängliches Reasoning-Modell, ausgelegt für die Verarbeitung sehr großer Kontexte sowie anspruchsvolle Anwendungen in Wissenschaft, Logik und Mathematik.
- Input Tokens 128.000
- Output Tokens 64.000
Mistral Large
Mistrals Spitzenmodell, entwickelt für anspruchsvolle Einsatzszenarien und professionelle Code-Erstellung.
- Input Tokens 128.000
- Output Tokens 16.000
Mistral Medium
Ein flexibel einsetzbares KI-Modell für umfassende Sprachverarbeitung, Software-Erstellung und anspruchsvolle logische Schlussfolgerungen.
- Input Tokens 128.000
- Output Tokens 16.000
Mistral Moderation
Klassifizierungsmodell zur Unterstützung von Inhaltsmoderation und Sicherheitsbewertung.
- Input Tokens 128.000
- Output Tokens 4.000
Mistral OCR
Leistungsstarkes OCR-Modell von Mistral zur effizienten und präzisen Verarbeitung von Dokumenten.
- Input Tokens n.v.
- Output Tokens n.v.
Mistral Small
Leistungsstarkes Modell für blitzschnelle, präzise Antworten und zuverlässige Funktionsaufrufe.
- Input Tokens 128.000
- Output Tokens 16.000
Pixtral Large
Multimodales KI-Modell für die Analyse visueller und tabellarischer Daten, Frage-Antwort-Systeme und strukturiertes Dokumentenverständnis.
- Input Tokens 128.000
- Output Tokens 16.000
Magistral Small
Open-Source-Modell für strukturiertes Reasoning, optimiert für langkettige logische Abläufe und vielseitige Aufgaben.
- Input Tokens 40.000
- Output Tokens 8.000
Magistral Medium
Effizientes Modell mit ausgewogener Größe und Rechenleistung, optimiert für Vision-basierte Reasoning-Aufgaben und mehrstufige Logikprozesse.
- Input Tokens 40.000
- Output Tokens 8.000
Magistral Large
Hochskalierbares Reasoning-Modell von Mistral, optimiert für komplexe Problemlösungen und anspruchsvolles Denken
- Input Tokens 128.000
- Output Tokens 16.000
Whisper Large v3
Bewährtes Modell für akkurate Transkription von Sprache in Text, optimiert für hohe Genauigkeit.
- Input Tokens n.v.
- Output Tokens n.v.
Qwen 3 235B-A22B
Apache-20 Mixture-of-Experts-Modell mit 22B aktiven Parametern, spezialisiert auf mehrsprachige Verarbeitung und strukturiertes Reasoning.
- Input Tokens 32.000
- Output Tokens 8.000
Qwen 3 32B
Open-Source-Midrange-Modell, optimiert für Textanalyse, strukturiertes Reasoning und die Nutzung externer Tools.
- Input Tokens 32.000
- Output Tokens 8.000
Sonar Pro
Großes Kontextmodell mit 200K Token, optimiert für effiziente Informationssuche, Frage-Antwort-Systeme und konsistente Antwortqualität.
- Input Tokens 200.000
- Output Tokens 8.000
Sonar Reasoning
Modell zur effizienten Bearbeitung analytischer Aufgaben, optimiert für mehrstufiges Reasoning (COT) und nachvollziehbare Erklärungen.
- Input Tokens 128.000
- Output Tokens 8.000
Sonar Reasoning Pro
Optimierte Pro-Variante für strukturiertes Reasoning und Bearbeitung komplexer, mehrstufiger Logikketten.
- Input Tokens 128.000
- Output Tokens 8.000
Elevenlabs
Text-to-Speech-Modelle mit hoher Qualität, unterstützt multiple Sprecher und zahlreiche Sprachen für flexible Anwendungen.
- Input Tokens n.v.
- Output Tokens n.v.
FLUX 1.1 Kontext
Optimierte FLUX-Variante für Bildbearbeitung und -modifikation mit hoher Präzision.
- Input Tokens n.v.
- Output Tokens n.v.
FLUX 1.1 Pro
Hochpräziser Bildgenerator, proprietär, optimiert für realistische Bildgenerierung und konsistente Qualität.
- Input Tokens n.v.
- Output Tokens n.v.
FLUX 1.1 Schnell
Optimierte, ressourcenschonende Open-Source-Variante von FLUX für schnelle Bildverarbeitung.
- Input Tokens n.v.
- Output Tokens n.v.
Grok 3
KI-Assistent von xAI mit multimodaler Vision, Web-Integration, Reasoning-Fähigkeiten und aktuellem Wissensstand; Verhalten kann variabel sein.
- Input Tokens 128.000
- Output Tokens 8.000
Phi 4
Ressourcenoptimiertes Modell mit Fokus auf leistungsstarkes Reasoning, mathematische Berechnungen und schnelle Antwortzeiten.
- Input Tokens 128.000
- Output Tokens 16.000
Grok 4.1 Fast
KI-Assistent von xAI mit multimodaler Vision, Web-Integration, Reasoning-Fähigkeiten und aktuellem Wissensstand; Verhalten kann variabel sein.
- Input Tokens 2.000.000
- Output Tokens 8.000
Grok 4
KI-Modell mit Textmodalität (künftig Vision). Unterstützt extrem große Kontextfenster.
- Input Tokens 256.000
- Output Tokens 256.000
Grok 3 Mini
- Input Tokens 131.000
- Output Tokens 8.000