Laravel 13 AI SDK in der Kundenarbeit: Integrationsmuster für Produktivprojekte.

Geschrieben von Chris Schön am Apr 14, 2026

Header image forLaravel 13 AI SDK in der Kundenarbeit: Integrationsmuster für Produktivprojekte

Wer in den letzten zwei Jahren KI-Features in Laravel-Projekten gebaut hat, kennt das Spiel: Ein OpenAI-Package hier, ein Anthropic-Wrapper dort, dazwischen selbstgebaute Abstraktionsschichten, die bei jedem Provider-Update bröckeln. Mit Laravel 13 ändert sich das grundlegend. In unserem letzten Beitrag zum Laravel AI SDK haben wir die Grundlagen beleuchtet — jetzt geht es um die Praxis: echte Integrationsmuster für Kundenprojekte.

Das Problem: AI-Integration war bisher ein Flickwerk

Vor Laravel 13 sah KI-Integration in den meisten Projekten so aus: Du hast openai-php/laravel installiert, einen Service gebaut, und alles lief — bis der Kunde plötzlich Anthropic wollte, weil Claude für seinen Use-Case bessere Ergebnisse lieferte (so der Kunde). Dann hast du eine zweite Integration gebaut, eine eigene Abstraktionsschicht darüber gelegt und gehofft, dass sich die APIs nicht zu stark unterscheiden.

Das Ergebnis: fragile Wrapper, inkonsistente Fehlerbehandlung und ein Testaufwand, der in keinem Verhältnis zum Feature stand. Jedes Projekt hat das Rad neu erfunden.

Was ist neu in Laravel 13? Das AI SDK im Überblick

Laravel 13 liefert mit dem offiziellen AI SDK (laravel/ai) eine First-Party-Lösung, die genau dieses Problem adressiert. Die Kernidee: eine einheitliche, provider-agnostische API für generative KI-Modelle.

Was das SDK mitbringt:

Das SDK folgt Laravels Philosophie: Convention over Configuration. Wer schon mit Mail, Notifications oder Filesystem gearbeitet hat, fühlt sich sofort zuhause — du konfigurierst Provider wie Treiber.

Erste Schritte: Installation und Konfiguration

Die Installation ist Laravel-typisch unkompliziert:

composer require laravel/ai
php artisan vendor:publish --tag=ai-config

In config/ai.php konfigurierst du deine Provider:

return [
    'default' => env('AI_PROVIDER', 'openai'),

    'providers' => [
        'openai' => [
            'api_key' => env('OPENAI_API_KEY'),
            'model' => env('OPENAI_MODEL', 'gpt-4.1'),
        ],
        'anthropic' => [
            'api_key' => env('ANTHROPIC_API_KEY'),
            'model' => env('ANTHROPIC_MODEL', 'claude-sonnet-4-20250514'),
        ],
        'gemini' => [
            'api_key' => env('GOOGLE_API_KEY'),
            'model' => env('GEMINI_MODEL', 'gemini-2.5-pro'),
        ],
    ],
];

Das war’s. Ab jetzt kannst du über die AI-Facade arbeiten, ohne dich um Provider-Details zu kümmern.

Use-Cases aus der Praxis: Wo das SDK sofort Sinn macht

Nach den ersten Wochen mit dem SDK in Kundenprojekten kristallisieren sich klare Gewinner heraus:

Weniger geeignet — zumindest als Quick Win — sind Use-Cases mit hohem Prompt-Engineering-Aufwand oder solche, die Echtzeit-Antworten unter 200ms erfordern.

Code-Beispiele: Von einfach bis fortgeschritten

Einfache Text-Generierung

use Illuminate\Support\Facades\AI;

$response = AI::text('Fasse diesen Artikel in 3 Sätzen zusammen: ' . $article->body);

echo $response->text;

Streaming-Response für Chatbots

use Illuminate\Support\Facades\AI;

return response()->stream(function () use ($message) {
    $stream = AI::stream()
        ->systemPrompt('Du bist ein hilfreicher Kundenservice-Assistent.')
        ->text($message);

    foreach ($stream as $chunk) {
        echo $chunk->text;
        ob_flush();
        flush();
    }
});

Multi-Provider-Fallback

Das ist der eigentliche Gamechanger für Produktivprojekte — automatischer Fallback, wenn ein Provider nicht verfügbar ist:

use Illuminate\Support\Facades\AI;

$response = AI::using('anthropic')
    ->fallback('openai')
    ->fallback('gemini')
    ->text('Generiere eine Produktbeschreibung für: ' . $product->name);

Structured Output mit Casts

use Illuminate\Support\Facades\AI;

$result = AI::structured()
    ->schema([
        'sentiment' => 'string|in:positive,negative,neutral',
        'confidence' => 'float|between:0,1',
        'keywords' => 'array',
    ])
    ->text('Analysiere diese Kundenbewertung: ' . $review->text);

// $result->sentiment => "positive"
// $result->confidence => 0.92
// $result->keywords => ["schnelle Lieferung", "gute Qualität"]

Migration von Laravel 12: Was beachten?

Das Upgrade auf Laravel 13 folgt dem bekannten Muster. Für das AI SDK speziell:

  1. Bestehende OpenAI-Packages entfernenopenai-php/laravel und ähnliche können nach der Migration raus, müssen aber nicht sofort entfernt werden.
  2. API-Keys migrieren — Die ENV-Variablen in das neue Format überführen.
  3. Eigene Wrapper schrittweise ersetzen — Nicht alles auf einmal. Neue Features mit dem SDK bauen, bestehende nach und nach migrieren.
  4. Tests anpassen — Das SDK bringt eigene Fakes mit:
use Illuminate\Support\Facades\AI;

AI::fake([
    'Hier ist eine Zusammenfassung des Artikels...',
]);

// Test ausführen...

AI::assertSent(function ($request) {
    return str_contains($request->prompt, 'Fasse');
});

Wichtig: Laravel 13 erfordert PHP 8.3+. Prüfe das zuerst — in der Kundenarbeit ist das oft der eigentliche Blocker.

Performance und Kosten: Was kostet KI im Projekt?

KI-API-Calls sind nicht gratis, und in Produktivprojekten summiert sich das schnell. Ein Überblick der aktuellen Kosten pro 1M Tokens (Input/Output):

Provider Modell Input Output
OpenAI GPT-4.1 $2.00 $8.00
Anthropic Claude Sonnet 4 $3.00 $15.00
Google Gemini 2.5 Pro $1.25 $10.00

Optimierungsstrategien, die sich bewährt haben:

Häufige Fallstricke und wie man sie vermeidet

Nach mehreren Integrationen in Kundenprojekten sind das die wiederkehrenden Stolpersteine:

Rate Limits unterschätzen — OpenAI und Anthropic haben strikte Rate Limits, besonders bei neuen Accounts. Implementiere von Anfang an Retry-Logik mit exponentiellem Backoff. Das SDK unterstützt das, aber du musst es konfigurieren.

Timeouts in Synchron-Requests — Ein AI-Call kann 5–30 Sekunden dauern. Niemals in einem synchronen Web-Request ohne Timeout-Handling. Nutze Jobs für alles, was nicht gestreamt wird:

use App\Jobs\GenerateSummary;

GenerateSummary::dispatch($article)->onQueue('ai');

Prompt-Injection ignorieren — User-Input direkt in Prompts einzubauen ohne Sanitization ist das SQL-Injection-Äquivalent der KI-Welt. Validiere und begrenze User-Input, bevor er in einen Prompt fließt.

Keine Fallback-Strategie — Provider haben Ausfälle. Wer nur auf OpenAI setzt und keinen Fallback hat, steht bei einem Ausfall mit kaputten Features da. Die Multi-Provider-Fallback-Funktion des SDK existiert aus gutem Grund.

Fazit: Sollte man jetzt upgraden?

Kurze Antwort: Ja — wenn du ohnehin KI-Features planst oder bestehende hast.

Das Laravel AI SDK ist kein experimentelles Spielzeug. Es ist eine durchdachte, Laravel-typische Abstraktion, die das Chaos der bisherigen Multi-Package-Lösungen beendet. Die provider-agnostische API, die eingebaute Testbarkeit und der Streaming-Support machen es für Kundenprojekte sofort einsetzbar.

Sofort upgraden, wenn:

Noch warten, wenn:

Für die tägliche Agenturarbeit ist das AI SDK der pragmatischste Weg, KI-Features in Laravel-Projekte zu bringen — ohne den bisherigen Integrations-Overhead.