AI-Assisted PHP Development – Was funktioniert, was nicht
80 Prozent der PHP-Entwickler nutzen AI-Tools, aber nur 3 Prozent vertrauen dem Output vollständig. Ein ehrlicher Werkstattbericht aus der täglichen Praxis.
Die Zahlen klingen erst einmal beeindruckend. Laut dem JetBrains State of PHP 2025 haben 95 Prozent der PHP-Entwickler AI-Tools zumindest ausprobiert, 80 Prozent nutzen sie regelmäßig. 49 Prozent greifen täglich zu ChatGPT, 29 Prozent setzen GitHub Copilot ein, und JetBrains AI hat seinen Anteil auf 20 Prozent verdreifacht.
Doch eine andere Zahl aus dem Stack Overflow Developer Survey 2025 relativiert die Euphorie: Nur 3,1 Prozent der Entwickler vertrauen dem AI-generierten Output vollständig. Das heißt: 97 Prozent derjenigen, die AI-Tools nutzen, tun das mit einem gesunden Maß an Skepsis oder mit einem unguten Gefühl.
Wir arbeiten seit über zwei Jahren täglich mit AI-Tools in PHP-Projekten. Nicht als Experiment, sondern in produktivem Code für unsere Kunden. In diesem Artikel legen wir offen, was davon tatsächlich funktioniert, wo wir Zeit sparen und wo AI-Tools uns mehr Zeit kosten, als sie bringen.
Die Tool-Landschaft für PHP
Der Markt hat sich deutlich ausdifferenziert. Die relevanten Tools lassen sich in drei Kategorien einteilen.
Coding-Assistenten
Claude Code, GitHub Copilot und Cursor sind die relevanten Tools für PHP-Arbeit. Claude Code ist unser tägliches Werkzeug — die PHP-Unterstützung ist stark, besonders bei modernem PHP 8.x. Javier Eguiluz vom Symfony Core Team bringt es auf den Punkt: Das Setup ist wichtiger als das Modell. Copilot liefert laut der Berliner Agentur webfactory.de Zeitersparnisse "im einstelligen bis niedrigen zweistelligen Minutenbereich pro Tag" für Routine-Code. Cursor hat unter PHP-Entwicklern laut JetBrains etwa 6% Marktanteil und eignet sich vor allem für Prototyping.
IDEs mit AI-Integration
PhpStorm hat seit Version 2025.3 einen nativen Claude Agent — der erste Third-Party AI Agent in JetBrains IDEs. Der Vorteil: kein Tool-Wechsel, kein Kontextverlust. Wer Claude Code über MCP mit PhpStorm verbindet, bekommt zusätzlich Zugriff auf IDE-Tools wie Refactoring, Navigation und Inspektion direkt aus dem AI-Workflow.
Framework-Level AI
Symfony hat mit über 70 Packages und offiziellen AI-Komponenten — Platform, Agent, Store, Mate/MCP — AI-Integration auf Framework-Ebene geschaffen. Laravel bietet mit Boost einen MCP-Server, der Claude Code mit Dokumentation, Migrations und PHP-Ausführung verbindet. Beide Frameworks machen AI zu einem nativen Bestandteil des Entwicklungsworkflows.
Was funktioniert
Nach zwei Jahren täglicher Nutzung haben sich fünf Bereiche herauskristallisiert, in denen AI-Tools konsistent Mehrwert liefern.
- Boilerplate und CRUD. REST API mit Validierung und Tests in 15 Minuten statt 3-4 Stunden. Alles, was einem klaren Muster folgt und wenig Domainwissen erfordert, lässt sich delegieren.
- Tests. PHPUnit hat ~50% Marktanteil im PHP-Ökosystem — entsprechend reichhaltig sind die Trainingsdaten. AI produziert solide Grundgerüste, die man an die Business-Logik anpasst.
- Dokumentation. McKinsey beziffert die Zeitersparnis auf 45-50%. DocBlocks, API-Dokumentation, README-Dateien — repetitive Aufgaben, bei denen AI zuverlässig liefert.
- Refactoring. PHP 7 auf PHP 8 modernisieren, Type Hints ergänzen, switch durch match ersetzen — 20-30% Zeitersparnis laut McKinsey. Und: AI übersieht keine Stellen über 200 Dateien hinweg.
- Explorative Arbeit. AI als interaktive Dokumentation liefert Startpunkte, die schneller zum Ziel führen als veraltete Stack-Overflow-Antworten.
Was nicht funktioniert
Die Liste ist länger als die meisten Anbieter zugeben würden.
- Komplexe Business-Logik. AI generiert syntaktisch korrekten, aber semantisch falschen Code. Domänenregeln, die nur im Kopf der Fachabteilung existieren, kann kein Tool abbilden.
- Legacy-Modernisierung. Martin Fowler sagt zurecht: "Use LLMs for legacy work." Aber nach ~90 Minuten verliert Claude den Kontext. Batches von 5-20 Dateien sind das Maximum.
- Framework-Mixing. AI mischt Laravel- und Symfony-Patterns — Laravel dominiert mit 64% die Trainingsdaten. Bei Custom Frameworks fällt AI auf generische Muster zurück.
- Sicherheit. 48% des AI-generierten Codes enthält Sicherheitslücken (Veracode/Apiiro). Bei XSS-Abwehr versagt AI in 86% der Fälle. Für PHP im Web besonders kritisch.
- Der "Almost Right"-Effekt. 66% der Entwickler sagen, AI-Code sei "fast richtig" (Faros AI). Das Debugging von fast-richtigem Code kostet oft mehr als das Schreiben von Grund auf — man spart 20 Minuten beim Generieren und verliert 40 beim Debuggen.
PHP-spezifische Besonderheiten
PHP hat als Sprache einige Eigenschaften, die die AI-Unterstützung sowohl begünstigen als auch erschweren.
Trainingskorpus-Vorteil
PHP hat eines der größten Code-Korpora auf GitHub. Das schlägt sich direkt in der Qualität der AI-Ergebnisse nieder. Im SWE-bench Multilingual erreicht PHP eine Resolve Rate von 48,84 Prozent — Platz 3 von 7, oberhalb von JavaScript. Wer PHP schreibt, profitiert also von der schieren Masse an Trainingsdaten mehr als Entwickler in Nischensprachen.
Graduelle Typisierung als Herausforderung
Seit PHP 7.0 sind Type Hints optional. Das stellt AI vor eine Entscheidung: Soll der generierte Code typisiert sein oder nicht? Ohne klare Vorgaben produziert AI einen Mix, der inkonsistent wirkt. Die Lösung ist einfach, aber nicht offensichtlich: Eine CLAUDE.md oder AGENTS.md, die explizit vorgibt, dass Type Hints erwartet werden. Ohne diese Vorgabe raten die Tools.
Deployment-Simplizität als Vorteil
Kein Build-Step bedeutet: AI-generierter Code ist sofort testbar. Der Feedback-Loop ist kürzer als bei JavaScript mit seinen Build-Pipelines oder Python mit seinen Virtual Environments. Das klingt trivial, macht aber in der Praxis einen spürbaren Unterschied — man erkennt Fehler schneller.
Das Prowedo-Setup
Unsere Projekte laufen auf PHP 8.4+ mit einem Custom Framework. Die wichtigste Erkenntnis nach zwei Jahren: Die Qualität der AI-Ergebnisse hängt zu 80 Prozent vom Setup ab, nicht vom Modell.
Werkzeuge
Claude Code ist unser primäres Entwicklungswerkzeug. Es läuft zusammen mit PhpStorm, das über MCP angebunden ist. Claude hat damit direkten Zugriff auf IDE-Tools wie Code-Navigation, Refactoring und Inspektion. Für automatisiertes End-to-End-Testing setzen wir Playwright ein.
Die CLAUDE.md als Router
Das Herzstück des Setups ist die CLAUDE.md im Projektroot. Sie ist kein kurzer Hinweis, sondern ein umfassendes Dokument mit über 200 Zeilen: Coding Guidelines mit expliziten Dos and Don'ts, Architektur-Dokumentation, Namenskonventionen und eine Anti-Pattern-Tabelle. Ohne diese Datei generiert Claude generischen Code. Mit ihr generiert es Code, der in unser Projekt passt.
Ein konkretes Beispiel: Unser Framework nutzt eigene Database-Methoden statt Eloquent oder Doctrine. Die CLAUDE.md enthält eine Lookup-Tabelle, die häufige LLM-Halluzinationen dem korrekten Pattern gegenüberstellt. AI-Modelle greifen ohne solche expliziten Verbote zuverlässig auf Patterns bekannter Frameworks zurück, die in unserem Kontext schlicht nicht funktionieren.
Anti-Patterns dokumentieren
Neben der CLAUDE.md pflegen wir dedizierte Referenzdateien: Was tun, was nicht tun, und Side-by-Side-Vergleiche typischer LLM-Halluzinationen mit dem korrekten Code. Die Erkenntnis dahinter: AI braucht explizite Verbote, nicht nur Empfehlungen. Wer nur beschreibt, wie der Code aussehen soll, bekommt sonst regelmäßig Patterns die nicht funktionieren. Wer zusätzlich dokumentiert, was verboten ist und warum, reduziert diese Fehler drastisch.
Spezialisierte Agents statt General-Purpose-Prompts
Statt alle Aufgaben an einen einzigen AI-Prompt zu delegieren, setzen wir auf spezialisierte Agents. Unser Setup umfasst über ein Dutzend davon — jeweils mit eigenen Instruktionen, die zwischen 800 und 900 Zeilen lang sind. Ein Planner-Agent erstellt strukturierte Umsetzungspläne mit Kontext, betroffenen Dateien und Verifikationskriterien. Ein Code-Validator prüft jeden generierten Code gegen Framework-Regeln und bewertet ihn mit einem Score-System. Weitere Agents generieren Controller, Models oder Migrations nach den Konventionen unseres Frameworks.
Der Vorteil: Jeder Agent kennt genau sein Fachgebiet. Die CLAUDE.md routet Aufgaben an den passenden Spezialisten, einfache Tasks werden direkt umgesetzt, komplexe Aufgaben durchlaufen erst den Planner.
Planmode statt Blindflug
Vor jeder nicht-trivialen Aufgabe steht ein Plan. Der enthält konkrete Hinweise auf die betroffenen Dateien und Module, nicht nur abstrakte Beschreibungen. Wir lassen Claude den Plan in mehreren Runden explizit kritisieren, bis die Schwachstellen identifiziert sind. Zu große Pläne werden aufgeteilt. Die Ausführung erfolgt schrittweise, mit Testing nach jedem Schritt.
Automatisierte Quality Gates
Nach jedem Edit läuft automatisch ein PHP-Syntax-Check über Hooks, fehlerhafte Dateien werden sofort zurückgemeldet, bevor sie in den nächsten Schritt gelangen. Ein Bash-Guard verhindert unsichere Befehle. File-Protection-Hooks schützen kritische Dateien vor versehentlichen Änderungen durch die AI. Diese Automatisierung fängt Fehler ab, bevor sie sich fortpflanzen, und gibt Entwicklern Sicherheit der KI zu vertrauen.
Testing als Grundprinzip
Wir unterscheiden zwei Ebenen. Unit-Tests prüfen die Business-Logik isoliert, testbarer Code ist dabei kein Nebenprodukt, sondern ein explizites Designziel. Für End-to-End-Tests nutzen wir Claude zusammen mit Chrome zur Discovery: Claude navigiert die Anwendung, identifiziert Flows und Grenzfälle. Was funktioniert, wird anschließend in Playwright automatisiert.
Regelmäßiges Refactoring
AI-generierter Code neigt zu Bloat. Deshalb planen wir regelmäßige Refactoring-Sessions ein, nicht als Notfallmaßnahme, sondern als fester Bestandteil des Entwicklungszyklus. Das verhindert, dass sich technische Schulden aufbauen, die später teuer werden.
Fazit
Die Produktivitätsgewinne durch AI-Tools in der PHP-Entwicklung sind real, aber sie verteilen sich ungleich. Bei Boilerplate, Tests, Dokumentation und Refactoring liegen die Zeitersparnisse konsistent bei über 50 Prozent. Das sind die Bereiche, in denen sich der Einsatz ohne Einschränkung lohnt.
Bei Business-Logik, Sicherheit und Legacy-Modernisierung bleibt AI ein Unterstützungstool, das menschliche Expertise nicht ersetzt, sondern ergänzt. Wer hier blind vertraut, zahlt später in Form von Bugs, Sicherheitslücken und Code, den niemand versteht.
Wie wir im vorherigen Artikel dargelegt haben, ist der Schlüssel nicht die Wahl des richtigen Tools, sondern die Qualität des Setups und die Bereitschaft, AI-Output kritisch zu prüfen. Die 3,1 Prozent, die dem Output vollständig vertrauen, machen es sich zu einfach. Die 97 Prozent, die skeptisch bleiben, liegen richtig, solange Skepsis nicht in Verweigerung umschlägt.
Wer AI-Tools in der PHP-Entwicklung produktiv einsetzen will, braucht keine besseren Modelle. Er braucht bessere Prozesse. Und die Bereitschaft, die eigene Arbeitsweise anzupassen, statt auf das nächste Update zu warten.
Sie setzen AI in Ihrer PHP-Entwicklung ein und suchen nach einem strukturierten Ansatz? Wir teilen unsere Erfahrungen gern in einem unverbindlichen Gespräch.