
Wie stark soll die KI nachdenken?
OpenAI erprobt einen neuen Regler in der ChatGPT-Oberfläche: Mit dem „Thinking Effort“-Picker steuern Nutzer künftig, wie tief sich das Modell in eine Aufgabe hineindenkt. Die Funktion zielt darauf ab, Geschwindigkeit, Antworttiefe und (indirekt) Kosten besser auszubalancieren – von schnellen „Kurzantworten“ bis hin zu maximaler, rechenintensiver Analyse. Erste Hinweise stammen aus Tests, die in der Web-App sichtbar sind.
Vier Stufen – und ein internes „Juice“-Budget
Laut den aktuellen Funden gibt es vier Stufen: Light, Standard, Extended und Max. Jede Stufe ist mit einem internen Budget verknüpft – dem sogenannten „Juice“ –, das definiert, wie viele Denk-/Zwischenschritte das Modell intern macht, bevor es antwortet. Genannt werden die Werte 5 (Light), 18 (Standard), 48 (Extended) und 200 (Max). Mehr „Juice“ bedeutet in der Regel eine tiefere, aber langsamere Antwort.
Wichtig: Die höchste Stufe „Max (200)“ soll derzeit nur ausgewählten, hochpreisigen Tarifen vorbehalten sein. BleepingComputer schreibt, die Option sei für den ChatGPT-Pro-Plan (200 US-$) vorgesehen; OpenAI beschreibt Pro offiziell als 200-Dollar-Tarif mit erweiterten, rechenintensiven Fähigkeiten. Die breite Verfügbarkeit des „Max“-Modus im UI ist jedoch noch nicht bestätigt.
Was OpenAI offiziell zu „Reasoning Effort“ sagt
Parallel zu den UI-Tests dokumentiert OpenAI in seinen GPT-5-Ankündigungen und Entwicklerunterlagen den Parameter reasoning_effort. Er steuert, wie „hart“ ein Modell denkt – inklusive eines neuen Werts minimal für besonders schnelle Antworten. Zudem gibt es eine verbosity-Einstellung (low/medium/high), um die Länge/Erklärtiefe der Ausgabe zu kontrollieren. In Summe erhalten Nutzer und Entwickler damit feinere Regler für Tempo, Tiefe und Stil der Antworten.
Auch Microsofts Azure-Dokumentation für OpenAI führt reasoning_effort und bestätigt die Bandbreite (z. B. low/medium/high, bei GPT-5 zusätzlich minimal). Das unterstreicht, dass die UI-Option „Thinking Effort“ auf bereits existierende API-Funktionen aufsetzt.
Wozu das gut ist: Kontrolle über Tempo, Tiefe und Kosten
Die neue Steuerung adressiert ein zentrales Praxisproblem: Nicht jede Aufgabe braucht maximale Denktiefe. Für „Was koche ich heute?“ reicht ein schneller, oberflächlicher Vorschlag; bei Bond-Bewertung oder Regressionsdiagnostik kann gründliches, langsameres Denken den Unterschied machen. Overthinking bei simplen Aufgaben kann sogar stören – Berichte aus der Community weisen darauf hin, dass „zu viel Denken“ teils unnötig verkompliziert.
Die Stufen im Überblick
- Light (Juice 5): Schnelle Reaktionen, minimale interne Denkschritte. Ideal für triviale Fragen, Formatierungen, kurze Zusammenfassungen.
- Standard (Juice 18): Alltagseinstellung für solide Qualität bei normaler Latenz.
- Extended (Juice 48): Für komplexere Aufgaben mit mehreren Teilfragen, erste Analysen/Abwägungen.
- Max (Juice 200): Tiefenanalyse für harte Probleme; spürbar langsamer und nur in höherpreisigen Tarifen erwartet.
Wie passt das zu GPT-5?
OpenAI positioniert GPT-5 als „vereintes System“: ein effizienter Standard-Modus plus ein Thinking-Modus für schwierige Fälle. Ein Router soll je nach Aufgabe/Intention entscheiden – oder der Nutzer gibt via UI bzw. Prompt explizit vor („think hard about this“). Der „Thinking Effort“-Regler ist die logische UI-Entsprechung zu diesen Backend-Fähigkeiten.
Für wen ist das verfügbar?
Derzeit handelt es sich um Tests, die nur bei einigen Konten sichtbar sind. Berichte deuten darauf hin, dass vor allem Pro- und Enterprise-Nutzer die UI früher sehen könnten. Eine breite Ausrollung hat OpenAI noch nicht offiziell angekündigt.
Entwickler-Ecke: Best Practices
- API-Parameter nutzen:
reasoning_effort
gezielt setzen (minimal/low/medium/high je nach Modell),verbosity
passend wählen (kurz vs. ausführlich). - Aufgaben splitten: Komplexe Vorhaben in mehrere Agent-Zyklen zerlegen; mit höherem Effort für die kniffligen Teilaufgaben arbeiten.
- Latency & Budget beachten: Höherer Effort → mehr interne Reasoning-Tokens → höhere Kosten/Latenz; für Massen-Workloads konservativ wählen.
Fazit
Mit „Thinking Effort“ macht OpenAI die Denktiefe von ChatGPT erstmals sichtbar steuerbar. Wer schnelle Alltagsantworten braucht, bleibt flott; wer tiefgehende Analysen will, dreht auf – und bezahlt mit Zeit und Compute. Die Funktion baut auf dokumentierten API-Parametern von GPT-5 auf und wird aktuell in der Oberfläche erprobt. Spannend bleibt, wie schnell OpenAI die Option breit ausrollt – und wie strikt die höchste Stufe preislich abgegrenzt wird.
Letzte Aktualisierung am 1.09.2025 / Affiliate Links / Bilder von der Amazon Product Advertising API.Alle hier angezeigten Preise und Verfügbarkeiten gelten zum angegebenen Zeitpunkt der Einbindung und können sich jederzeit ändern.Der Preis und die Verfügbarkeit, die zum Kaufzeitpunkt auf Amazon.de angezeigt werden, sind maßgeblich. Als Amazon-Partner verdienen wir an qualifizierten Verkäufen.
Linkliste
- BleepingComputer: OpenAI is testing „Thinking effort“ for ChatGPT
- OpenAI: Introducing GPT-5
- OpenAI: Introducing GPT-5 for developers
- OpenAI Cookbook: GPT-5 Prompting Guide (Reasoning Effort & Verbosity)
- Microsoft Azure Docs: Reasoning models & reasoning_effort
- OpenAI: Introducing ChatGPT Pro (200-Dollar-Plan)
- TestingCatalog: Effort-Control & Conversation Branching
- Threads (@testingcatalog): Thinking-Effort-Picker (Screens)
- WinBuzzer: OpenAI tests „Thinking Effort“