Geschrieben von Chris Schön am Apr 14, 2026
Wer in den letzten zwei Jahren KI-Features in Laravel-Projekten gebaut hat, kennt das Spiel: Ein OpenAI-Package hier, ein Anthropic-Wrapper dort, dazwischen selbstgebaute Abstraktionsschichten, die bei jedem Provider-Update bröckeln. Mit Laravel 13 ändert sich das grundlegend. In unserem letzten Beitrag zum Laravel AI SDK haben wir die Grundlagen beleuchtet — jetzt geht es um die Praxis: echte Integrationsmuster für Kundenprojekte.
Vor Laravel 13 sah KI-Integration in den meisten Projekten so aus: Du hast openai-php/laravel installiert, einen Service gebaut, und alles lief — bis der Kunde plötzlich Anthropic wollte, weil Claude für seinen Use-Case bessere Ergebnisse lieferte (so der Kunde). Dann hast du eine zweite Integration gebaut, eine eigene Abstraktionsschicht darüber gelegt und gehofft, dass sich die APIs nicht zu stark unterscheiden.
Das Ergebnis: fragile Wrapper, inkonsistente Fehlerbehandlung und ein Testaufwand, der in keinem Verhältnis zum Feature stand. Jedes Projekt hat das Rad neu erfunden.
Laravel 13 liefert mit dem offiziellen AI SDK (laravel/ai) eine First-Party-Lösung, die genau dieses Problem adressiert. Die Kernidee: eine einheitliche, provider-agnostische API für generative KI-Modelle.
Was das SDK mitbringt:
Das SDK folgt Laravels Philosophie: Convention over Configuration. Wer schon mit Mail, Notifications oder Filesystem gearbeitet hat, fühlt sich sofort zuhause — du konfigurierst Provider wie Treiber.
Die Installation ist Laravel-typisch unkompliziert:
composer require laravel/ai
php artisan vendor:publish --tag=ai-config
In config/ai.php konfigurierst du deine Provider:
return [
'default' => env('AI_PROVIDER', 'openai'),
'providers' => [
'openai' => [
'api_key' => env('OPENAI_API_KEY'),
'model' => env('OPENAI_MODEL', 'gpt-4.1'),
],
'anthropic' => [
'api_key' => env('ANTHROPIC_API_KEY'),
'model' => env('ANTHROPIC_MODEL', 'claude-sonnet-4-20250514'),
],
'gemini' => [
'api_key' => env('GOOGLE_API_KEY'),
'model' => env('GEMINI_MODEL', 'gemini-2.5-pro'),
],
],
];
Das war’s. Ab jetzt kannst du über die AI-Facade arbeiten, ohne dich um Provider-Details zu kümmern.
Nach den ersten Wochen mit dem SDK in Kundenprojekten kristallisieren sich klare Gewinner heraus:
Weniger geeignet — zumindest als Quick Win — sind Use-Cases mit hohem Prompt-Engineering-Aufwand oder solche, die Echtzeit-Antworten unter 200ms erfordern.
use Illuminate\Support\Facades\AI;
$response = AI::text('Fasse diesen Artikel in 3 Sätzen zusammen: ' . $article->body);
echo $response->text;
use Illuminate\Support\Facades\AI;
return response()->stream(function () use ($message) {
$stream = AI::stream()
->systemPrompt('Du bist ein hilfreicher Kundenservice-Assistent.')
->text($message);
foreach ($stream as $chunk) {
echo $chunk->text;
ob_flush();
flush();
}
});
Das ist der eigentliche Gamechanger für Produktivprojekte — automatischer Fallback, wenn ein Provider nicht verfügbar ist:
use Illuminate\Support\Facades\AI;
$response = AI::using('anthropic')
->fallback('openai')
->fallback('gemini')
->text('Generiere eine Produktbeschreibung für: ' . $product->name);
use Illuminate\Support\Facades\AI;
$result = AI::structured()
->schema([
'sentiment' => 'string|in:positive,negative,neutral',
'confidence' => 'float|between:0,1',
'keywords' => 'array',
])
->text('Analysiere diese Kundenbewertung: ' . $review->text);
// $result->sentiment => "positive"
// $result->confidence => 0.92
// $result->keywords => ["schnelle Lieferung", "gute Qualität"]
Das Upgrade auf Laravel 13 folgt dem bekannten Muster. Für das AI SDK speziell:
openai-php/laravel und ähnliche können nach der Migration raus, müssen aber nicht sofort entfernt werden.use Illuminate\Support\Facades\AI;
AI::fake([
'Hier ist eine Zusammenfassung des Artikels...',
]);
// Test ausführen...
AI::assertSent(function ($request) {
return str_contains($request->prompt, 'Fasse');
});
Wichtig: Laravel 13 erfordert PHP 8.3+. Prüfe das zuerst — in der Kundenarbeit ist das oft der eigentliche Blocker.
KI-API-Calls sind nicht gratis, und in Produktivprojekten summiert sich das schnell. Ein Überblick der aktuellen Kosten pro 1M Tokens (Input/Output):
| Provider | Modell | Input | Output |
|---|---|---|---|
| OpenAI | GPT-4.1 | $2.00 | $8.00 |
| Anthropic | Claude Sonnet 4 | $3.00 | $15.00 |
| Gemini 2.5 Pro | $1.25 | $10.00 |
Optimierungsstrategien, die sich bewährt haben:
Cache::remember() mit einem Hash des Prompts als Key reicht oft.Nach mehreren Integrationen in Kundenprojekten sind das die wiederkehrenden Stolpersteine:
Rate Limits unterschätzen — OpenAI und Anthropic haben strikte Rate Limits, besonders bei neuen Accounts. Implementiere von Anfang an Retry-Logik mit exponentiellem Backoff. Das SDK unterstützt das, aber du musst es konfigurieren.
Timeouts in Synchron-Requests — Ein AI-Call kann 5–30 Sekunden dauern. Niemals in einem synchronen Web-Request ohne Timeout-Handling. Nutze Jobs für alles, was nicht gestreamt wird:
use App\Jobs\GenerateSummary;
GenerateSummary::dispatch($article)->onQueue('ai');
Prompt-Injection ignorieren — User-Input direkt in Prompts einzubauen ohne Sanitization ist das SQL-Injection-Äquivalent der KI-Welt. Validiere und begrenze User-Input, bevor er in einen Prompt fließt.
Keine Fallback-Strategie — Provider haben Ausfälle. Wer nur auf OpenAI setzt und keinen Fallback hat, steht bei einem Ausfall mit kaputten Features da. Die Multi-Provider-Fallback-Funktion des SDK existiert aus gutem Grund.
Kurze Antwort: Ja — wenn du ohnehin KI-Features planst oder bestehende hast.
Das Laravel AI SDK ist kein experimentelles Spielzeug. Es ist eine durchdachte, Laravel-typische Abstraktion, die das Chaos der bisherigen Multi-Package-Lösungen beendet. Die provider-agnostische API, die eingebaute Testbarkeit und der Streaming-Support machen es für Kundenprojekte sofort einsetzbar.
Sofort upgraden, wenn:
Noch warten, wenn:
Für die tägliche Agenturarbeit ist das AI SDK der pragmatischste Weg, KI-Features in Laravel-Projekte zu bringen — ohne den bisherigen Integrations-Overhead.