Agentic Engineering: Was wir aus unserem Team-Workshop gelernt haben
Warum wir diesen Agentic Engineering Workshop gemacht haben
Die Schlagzeilen überschlagen sich: KI-Agenten revolutionieren die Softwareentwicklung. Entwickler würden 30 Prozent produktiver.
Wir wollten wissen: Wie fühlt sich das in der Praxis an? Und vor allem: Was davon ist relevant für die Arbeit, die wir als E-Commerce-Agentur täglich machen: Adobe Commerce, Shopify Plus, Onsite-Search, komplexe Integrationen?
Also haben wir uns zwei Tage Zeit genommen. Das gesamte Team: Entwicklung, Projektmanagement, Onsite-Search, Personal und Geschäftsführung. Echte Aufgaben aus echten Projekten. Hier ist, was wir erlebt und gelernt haben.

Was sind KI-Agenten überhaupt?
Die Kurzversion: Ein KI-Agent ist eine KI, die nicht nur antwortet, sondern handelt.
Der Unterschied zum klassischen Chatbot
Ein LLM (Large Language Model) wie ChatGPT ist im Kern ein Gesprächspartner. Man stellt eine Frage, bekommt eine Antwort. Dann wartet das System auf die nächste Eingabe. Es hat keinen Zugriff auf Dateien, kann keine Befehle ausführen, verändert nichts in der Außenwelt.
Ein Agent nutzt ein solches Sprachmodell als „Gehirn“, kann aber zusätzlich handeln: Dateien lesen und schreiben, Befehle ausführen, mit anderen Systemen interagieren. Er zerlegt komplexe Aufgaben in Schritte und arbeitet sie eigenständig ab.
Ein Beispiel aus der Praxis
Klassischer Chatbot: Du beschreibst ein Problem, die KI zeigt dir Code, den du kopierst und selbst einbaust.
Agent: Du beschreibst das Problem, die KI analysiert dein Projekt, findet die relevanten Dateien, implementiert eine Lösung, führt Tests durch, und fragt dich vor kritischen Änderungen um Erlaubnis.
Der Unterschied ist wie zwischen einem Navi und einem Chauffeur: Das eine zeigt den Weg, das andere bringt dich ans Ziel.
Unser Setup: Claude Code im Fokus
Für den Workshop haben wir uns Verstärkung geholt: Stefan Munz von hackers&wizards hat uns durch die zwei Tage begleitet. Eine gute Entscheidung. Statt uns durch Dokumentation zu kämpfen, waren wir innerhalb kürzester Zeit produktiv. Stefan kennt die Tools, die Fallstricke und die Best Practices. Das hat uns Stunden gespart und Frust erspart.
Im Fokus stand Claude Code, Anthropics Terminal-Agent mit vollem Dateisystem-Zugriff. Er arbeitet direkt in der Kommandozeile, versteht Projektstrukturen und kann eigenständig Dateien erstellen, ändern und Tests ausführen. Für unsere Arbeit mit komplexen E-Commerce-Projekten ein guter Fit.
Was gut funktioniert hat
Prototypen und Mockups
Der größte Aha-Moment im Team: Wie schnell sich erste Prototypen bauen lassen. Innerhalb von Minuten statt Stunden entsteht ein funktionierender Entwurf, den man mit Stakeholdern durchspielen kann. Das hilft, Probleme und fehlende Anforderungen früh zu identifizieren, bevor die eigentliche Entwicklung beginnt.
Planung und Anforderungsanalyse
Überraschend nützlich: Claude Code bei der Auswertung von Anforderungen einsetzen, die Implementierung planen lassen, offene Fragen herausarbeiten. Der Agent stellt Fragen, an die man selbst nicht gedacht hätte.
Recherche und Dokumentation
Eigenständig Internetrecherchen durchführen und die Ergebnisse strukturiert in Markdown-Dateien ablegen: Das spart Zeit bei der Informationsbeschaffung. Auch das erstellen technischer Dokumentation aus bestehendem Code funktioniert erstaunlich gut. Nicht immer perfekt, aber eine solide Grundlage, die man überarbeiten kann.
Integration in bestehende Projekte
Wer kennt es nicht: Ein neues Projekt, unbekannte Codebase, wenig Dokumentation. Hier helfen die Agenten als „erklärender Kollege“, der Zusammenhänge aufzeigt.
Claude Code versteht Projektstrukturen und kann sich in bestehenden Code einarbeiten. Bei der Integration neuer Features in laufende Projekte war das hilfreich.
Tests schreiben
Die ungeliebte Aufgabe, die gerne aufgeschoben wird. KI-Agenten können Test-Gerüste erstellen, die man dann verfeinert. Senkt die Einstiegshürde.
Wo wir skeptisch geblieben sind
Vertrauen ist gut, Kontrolle ist Pflicht
Ein Teammitglied brachte es auf den Punkt: Die größte Herausforderung ist die Fülle an Informationen, die man geliefert bekommt. Und das Abwägen, was man prüfen muss und wo man vertrauen kann.
Konkret: Claude Code hat sich bei Fragen zu seiner eigenen Dokumentation teilweise selbst widersprochen. Bei wichtigen Entscheidungen sollte man immer nachrecherchieren.
Anforderungen werden nicht immer korrekt erfasst
Der Agent versteht nicht automatisch alle Nuancen einer Anforderung. Er liefert eine Interpretation, die muss man prüfen und korrigieren. Wer blind übernimmt, bekommt Probleme.
Technische Stolpersteine
Kleine, aber nervige Probleme: Python Virtual Environments wurden nicht immer korrekt eingerichtet, Konfigurationen vergessen. Mit klaren Anweisungen in der AGENTS.md-Datei (einer Art Briefing für den Agenten) ließ sich das beheben. Aber man muss wissen, dass es nötig ist.
Komplexe Geschäftslogik
Bei E-Commerce-Projekten geht es oft um spezifische Anforderungen: Preisregeln, Rabattstaffeln, Warenwirtschafts-Anbindungen. Die Agenten verstehen den Code, aber nicht das Geschäft dahinter. Hier braucht es weiterhin Menschen, die beide Seiten kennen.
Token-Limits im Alltag
Ein praktisches Problem: Mit dem Standard-Plan kommt man nicht durch einen vollen Arbeitstag. Wer Claude Code ernsthaft in den Workflow integrieren will, braucht einen größeren Plan und muss die Kosten einkalkulieren.
Unsere Takeaways für die tägliche Arbeit
Mitdenken bleibt Pflicht
Die wichtigste Erkenntnis: KI-Agenten arbeiten nicht alleine. Man muss genau verstehen, was sie gerade machen, um sie kontinuierlich zum gewünschten Ergebnis lenken zu können. Wer den Agenten „einfach machen lässt“, bekommt selten das beste Ergebnis.
Skills gezielt einsetzen
Durch angepasste Skills (vordefinierte Anweisungen für unseren Workflow) können wir die Arbeit beschleunigen und unsere mentale Energie auf die wesentlichen Entwicklungsentscheidungen konzentrieren. Das Setup kostet Zeit, zahlt sich aber aus.
Automatisieren, wo es verlässlich funktioniert
Der pragmatische Ansatz: Schauen, wo sich Abläufe so automatisieren lassen, dass die Ergebnisse verlässlich sind und im gewünschten Rahmen bleiben. Nicht alles mit KI machen wollen, aber dort einsetzen, wo es funktioniert.
Es macht auch einfach Spaß
Ein Aspekt, der in nüchternen ROI-Betrachtungen untergeht: Einige im Team haben Dinge wesentlich schneller geschafft als sonst. Und hatten dabei Spaß. Das ist kein Produktivitätsargument, aber auch nicht unwichtig.
Fazit: Wir bleiben dran
Nach zwei Tagen Workshop ist unser Bild differenzierter als die Schlagzeilen vermuten lassen.
Was wir mitnehmen: Claude Code kann bei bestimmten Aufgaben erheblich Zeit sparen, etwa bei Prototypen, Recherche, Anforderungsanalyse. Gleichzeitig braucht es Übung, die richtigen Einsatzgebiete zu finden und die Ergebnisse kritisch zu prüfen.
Was wir gelernt haben: Der Agent ist ein Werkzeug, kein Kollege. Er braucht klare Anweisungen, Kontrolle und einen Menschen, der mitdenkt. Wer das akzeptiert, kann profitieren.
Wie es weitergeht: Wir werden Claude Code in unsere Workflows integrieren, schrittweise, mit Augenmaß. Der Workshop war der Anfang, nicht das Ende.
Gut, dass wir uns die Zeit genommen haben. Die praktikablen Ansätze, die dabei herausgekommen sind, hätten wir ohne das gemeinsame Experimentieren nicht gefunden.
