Modellleistung und Kosten ausbalancieren
Caching, Prompt-Versionierung und Monitoring sind wirksame Strategien, um die Nutzungskosten von LLMs im Griff zu behalten. Gleichzeitig weißt du, dass deine Anwendungsfälle stark variieren: von einfacher Code-Autovervollständigung bis hin zum vollständigen Bugfixing über Enterprise-Repositories – und jede Aufgabe verlangt andere Modellfähigkeiten.
Eine weitere Möglichkeit, Kosten zu senken, ist die Wahl des passenden Modells für die jeweilige Aufgabe: Schnellere, weniger leistungsfähige Modelle reichen oft für einfache Aufgaben, während komplexere Aufgaben größere, teurere Modelle mit fortgeschrittenen Reasoning-Fähigkeiten benötigen.
Diese Übung ist Teil des Kurses
KI-gestütztes Programmieren für Entwickler
Interaktive Übung
In dieser interaktiven Übung kannst du die Theorie in die Praxis umsetzen.
Übung starten