Es ist Dienstagmorgen, kurz nach acht. Marc Wenzel, Leiter Softwareentwicklung beim mittelständischen Antriebstechnik-Hersteller Eltrand Systems GmbH in Wuppertal, öffnet seinen Laptop. Auf dem Bildschirm: vierzehn neue Pull Requests aus der Nacht. Erstellt nicht von seinen Entwicklern – sondern von vier KI-Agenten, die zwischen 22 Uhr und 6 Uhr Tickets aus dem Backlog abgearbeitet haben. Vier davon sind reif für den Merge, drei brauchen Nacharbeit, zwei hat der Agent selbst zurückgezogen, weil die Tests rot wurden. Marc trinkt einen Schluck Kaffee. Vor zwölf Monaten hatte er noch acht Junior-Entwickler. Heute hat er drei – plus die Agenten.
So sieht Softwareentwicklung im deutschen Mittelstand 2026 aus, wenn das Unternehmen den Sprung gemacht hat. Sie sieht ganz anders aus, wenn nicht. Welche Variante 2027 die Norm sein wird, entscheidet sich gerade in diesen Monaten – und sie entscheidet sich nicht in den USA, sondern in deutschen Entwicklungsabteilungen, in denen seit dem Frühjahr 2026 die Frage neu verhandelt wird: Welche Rolle spielen autonome Coding-Agenten in unserer Wertschöpfung, und wie binden wir sie ein, ohne Qualität, Sicherheit und Compliance zu opfern?
Was Agentic Coding wirklich bedeutet
Der Begriff Agentic Coding – manchmal auch Agentic Engineering – bezeichnet einen qualitativen Sprung gegenüber der "Autocomplete-KI" der Jahre 2023 bis 2025. Wo GitHub Copilot in seiner Erstgeneration einzelne Zeilen vervollständigte und Cursor frühe Modelle für Code-Vervollständigung im Editor anbot, geht Agentic Coding deutlich weiter: Ein KI-Agent erhält eine Aufgabenbeschreibung – ein Jira-Ticket, einen Bugreport, eine User Story – und arbeitet sie eigenständig ab. Er liest sich in das Repository ein, identifiziert die zu ändernden Dateien, schreibt den Code, generiert Unit-Tests, lässt sie laufen, korrigiert Fehler, dokumentiert die Änderung und öffnet einen Pull Request.
Drei Plattformen prägen das deutsche Marktbild im Mai 2026: Anthropics Claude Code als nutzungsbasierter Terminal-Agent, Microsofts GitHub Copilot Workspaces als integrierter Bestandteil der GitHub-Plattform und das Editor-zentrische Cursor von Anysphere. Hinzu kommen domänenspezifische Tools, die etwa für SAP-Customizing, Embedded-C oder Game-Development optimiert sind, sowie eine wachsende Zahl Open-Source-Frameworks, mit denen Unternehmen eigene Agenten-Pipelines bauen.
Allen gemein ist das Architekturmuster: Ein Sprachmodell als zentraler Reasoning-Kern, ergänzt um Werkzeuge zum Lesen und Schreiben von Dateien, zum Ausführen von Tests, zum Aufrufen von APIs und zum Stellen von Rückfragen. Die Agenten arbeiten iterativ – planen, handeln, beobachten, korrigieren – und können einzelne Aufgaben minutenlang oder stundenlang verfolgen. Microsoft Research, Anthropic und unabhängige Studien aus dem Jahr 2025 berichten konsistent von 30 bis 55 Prozent Produktivitätsgewinn bei standardisierbaren Entwicklungsaufgaben, sofern der Agent richtig eingebunden ist.
Eine User Story aus dem deutschen Mittelstand
Zurück zu Marc Wenzel. Eltrand Systems baut elektrische Antriebe für Förderbänder, Verpackungsmaschinen und Sondermaschinen. 280 Mitarbeitende, davon 22 in der Software-Abteilung, die das proprietäre Steuerungs-Backend, die Servicetechniker-App und die Kundenportal-Plattform entwickelt. Bis Ende 2025 war die Abteilung in einer typischen Mittelstands-Klemme: zu wenig Entwickler für die Roadmap, technische Schulden aus zehn Jahren ERP-Integration, ein Backlog von rund 1.400 offenen Tickets.
Im Oktober 2025 startete Wenzel ein vorsichtiges Pilotprojekt mit Claude Code. Zwei Senior-Entwickler bekamen Zugang, einen klar abgegrenzten Use Case – die Migration veralteter Test-Suites von xUnit auf das neue interne Test-Framework – und ein Wochen-Budget für Token-Kosten. Das Ergebnis nach drei Monaten: 1.200 Tests migriert, davon 95 Prozent ohne menschliche Nacharbeit. Was vorher mit 0,8 Vollzeitstellen geplant war, dauerte unter Aufsicht der Senior-Entwickler etwa 60 Arbeitsstunden über das gesamte Projekt verteilt.
Anfang 2026 erweiterte Wenzel das Programm. Drei Agenten-Profile entstanden: Bugfixer, Refactorer und Documenter. Jeder Agent bekam ein eigenes Service-Konto, ein streng begrenztes Set von Repository-Berechtigungen, automatische Code-Review-Bots, die seine Pull Requests vor dem Merge prüfen, und einen menschlichen Owner, der die Verantwortung für jede gemergte Änderung trug.
Heute, im Mai 2026, sieht der Alltag bei Eltrand so aus: Wenn ein Kunden-Support-Ticket als reproduzierbarer Bug klassifiziert ist, wird es nicht mehr direkt einem Entwickler zugewiesen, sondern zunächst in eine Agenten-Queue geschoben. Der Agent versucht, den Bug nachzustellen, schreibt einen failenden Test, fixt die Logik, prüft die Side-Effects und öffnet einen PR. Im Schnitt schließt der Agent 38 Prozent dieser Tickets ohne menschlichen Eingriff – und reicht 47 Prozent so qualitativ vor, dass sie binnen 20 Minuten gemerged werden können. Nur 15 Prozent landen wieder in der menschlichen Queue, weil sie architektonische Entscheidungen erfordern oder unklare Spezifikationen aufweisen.
Was Marc Wenzel in dieser Zeit gelernt hat, deckt sich mit den Erfahrungen anderer Mittelstands-CTOs, mit denen er sich austauscht: Agentic Coding entfaltet seinen Wert nicht durch das Modell, sondern durch die Umgebung, in die es eingebettet ist. Ohne saubere Tests, ohne dokumentierte API-Verträge, ohne Konventionen für Ordnerstrukturen und Naming, ohne automatisierte Code-Reviews verbringen die Agenten ihre Zeit damit, Trümmer zu produzieren. Mit dieser Infrastruktur werden sie zu echten Teammitgliedern.
Ein Beispiel aus der Praxis: vom Ticket zum Merge
Wie sieht so ein automatisierter Lauf konkret aus? Ein vereinfachter Auszug aus einer Eltrand-Pipeline-Konfiguration:
# .github/workflows/agent-bugfix.yml
name: agent-bugfix
on:
issues:
types: [labeled]
jobs:
triage:
if: github.event.label.name == 'agent-ready'
runs-on: self-hosted
steps:
- uses: actions/checkout@v4
- name: Run agent
run: |
claude-code run \
--task "${{ github.event.issue.body }}" \
--max-turns 40 \
--allowed-tools "read,write,bash:test/*,bash:lint/*" \
--open-pr "fix/issue-${{ github.event.issue.number }}"
- name: Auto-review gates
run: ./scripts/run-review-bots.sh
Der entscheidende Punkt ist nicht der Agent-Aufruf selbst, sondern die strikte Werkzeug-Allowlist – der Agent darf lesen, schreiben und Tests beziehungsweise Linter ausführen, aber keine willkürlichen Shell-Befehle. Dazu kommen die nachgelagerten Review-Bots, die jeden agentenerzeugten PR auf Konventionsbrüche, Sicherheits-Findings und Architektur-Konformität prüfen, bevor ein Mensch ihn zu Gesicht bekommt.
Die unsichtbaren Kosten – und warum sie sich trotzdem rechnen
Ein häufig übersehener Punkt in der öffentlichen Debatte: Agentic Coding ist nicht kostenlos. Bei Eltrand fallen monatlich etwa 4.700 Euro an Token-Kosten an, dazu kommen die Lizenzkosten für die orchestrierenden Plattformen und die initiale Investition in eine modernisierte CI/CD-Pipeline, die mit dem höheren PR-Volumen umgehen kann. Hinzu kommen Aufwände für Governance: Wer prüft, was die Agenten dürfen? Wer trägt die Verantwortung, wenn ein Agenten-PR einen Datenschutz-Vorfall produziert? Wie weisen wir gegenüber Auditoren nach, dass unsere Software nicht ungeprüft von einer KI in Produktion gebracht wurde?
Die Antwort darauf ist nicht trivial. Wenzel hat ein dreistufiges Freigabesystem etabliert. Stufe eins: rein interne Tools, niedrige Schadensklasse – Agenten können selbständig mergen, sofern alle Tests grün sind und keine sicherheitsrelevanten Pakete betroffen sind. Stufe zwei: kundenrelevante Anwendungen, mittlere Schadensklasse – Agenten öffnen PRs, ein Entwickler reviewt, ein zweites Augenpaar sichert ab. Stufe drei: kritische Komponenten – Authentifizierung, Bezahlung, Maschinensteuerung – Agenten dürfen nur Vorschläge machen, nicht selbst commiten. Diese Stufen sind in den CI-Konfigurationen technisch erzwungen, nicht nur per Konvention.
Die wirtschaftliche Rechnung am Ende eines Quartals fällt eindeutig aus: Gegenüber der Vergleichsperiode 2024 hat Eltrand bei gleicher Teamgröße 41 Prozent mehr Tickets geschlossen, die Time-to-Production neuer Features ist von 21 auf 9 Tage gefallen, und die Bug-Backlog-Länge ist um 38 Prozent geschrumpft – obwohl die Zahl neuer Bugs leicht gestiegen ist, weil Eltrand insgesamt mehr Software auf die Straße bringt.
Was die Marktdaten zeigen
Die Erfahrung von Eltrand ist kein Einzelfall. Anthropics Agentic Coding Trends Report 2026 dokumentiert, dass weltweit über 80 Prozent der professionellen Entwickler mindestens wöchentlich KI-Tools nutzen, mit deutlich steigender Tendenz bei Mittelstandsbetrieben. In Deutschland ist die Adoption traditionell vorsichtiger als in den USA – das Bitkom-KI-Barometer 2026 nennt rund 40 Prozent KI-Nutzung im Kerngeschäft, gegenüber etwa 12 Prozent im Jahr 2023. Innerhalb der Software-Abteilungen liegt der Wert höher, vor allem dort, wo bereits eine moderne DevOps-Kultur existiert.
Interessanter als die reinen Zahlen ist das Muster. Die Studien zeigen einen scharfen Bruch zwischen zwei Lagern: Unternehmen, die Agentic Coding strategisch in ihre Entwicklungsprozesse integrieren, und Unternehmen, die KI-Tools einfach "dazustellen" und auf die individuelle Initiative der Entwickler setzen. Die strategischen Integrierer realisieren die berichteten Produktivitätsgewinne. Die opportunistischen Nutzer sehen meist enttäuschende Effekte – mehr Code, der nicht passt, mehr PRs, die niemand reviewen kann, mehr technische Schulden, weil die Agenten-Patches nicht in eine Architektur eingebettet werden.
Das deckt sich mit der zentralen These des codecentric-Tech-Trends-Reports 2026: 2026 ist in Deutschland das Jahr, in dem KI breit operationalisiert wird – nicht das Jahr der Hypes, sondern das der Business Cases. Wer die KI-Strategie wie ein Software-Projekt aufsetzt, mit klaren Anforderungen, definierten Verantwortlichkeiten und messbaren Ergebnissen, gewinnt. Wer die KI als magisches Wundermittel betrachtet, das schon irgendwie wirken wird, verliert Zeit und Budget.
Die Sicherheits- und Compliance-Dimension
Was in der Begeisterung über die neuen Möglichkeiten leicht untergeht: Agentic Coding ist auch ein massiver Eingriff in die Informationssicherheit der Entwicklungsumgebung. Ein Agent, der Tests ausführen darf, kann auch beliebige Befehle absetzen. Ein Agent, der Pakete installieren darf, kann auch Schadcode aus kompromittierten Registries holen. Ein Agent, der einen Pull Request öffnen darf, kann theoretisch manipulierte Änderungen einschmuggeln, die im Code-Review übersehen werden.
Die Branche reagiert mit einer eigenen Disziplin – Agent Security oder AgentOps Security –, die folgende Bausteine umfasst: streng eingegrenzte Sandboxen, in denen die Agenten arbeiten; Allowlists für ausführbare Befehle; eigene Identitäten je Agenten-Profil mit minimalen Berechtigungen; Audit-Logs jedes Agent-Schritts; Human-in-the-Loop-Gates für sicherheitsrelevante Operationen; Supply-Chain-Schutz für die KI-Modelle selbst, weil ein vergiftetes Modell genau die Sicherheitschecks unterlaufen kann, die es verhindern soll.
Hinzu kommt die regulatorische Komponente. Der EU AI Act, dessen Hochrisiko-Verpflichtungen ab dem 2. August 2026 gelten, betrifft Agentic-Coding-Systeme zwar nicht direkt – sie fallen in der Regel nicht unter die Hochrisikokategorie –, aber er hat Folgewirkungen für Dokumentation und Transparenz. Wer KI-Agenten in der Wertschöpfung einsetzt, muss zunehmend nachweisen können, welcher Code von einem Menschen, welcher von einem Agenten und welcher in Co-Produktion entstanden ist. Dieser Nachweis lässt sich nur dann erbringen, wenn Commit-Metadaten, PR-Provenienz und Agent-Logs systematisch erhalten bleiben. Ein Stichwort, das im Markt zunehmend Konturen gewinnt: AI Provenance.
Für Branchen, die zusätzlich unter NIS2 fallen – also etwa Energie, Wasser, Gesundheit, Verkehr und große Teile der Industrie – kommt die Pflicht zur "Sicherheit der Lieferkette" hinzu. Wenn ein Agent Code in eine Anwendung schreibt, die einen NIS2-relevanten Dienst stützt, ist der Agent Teil dieser Lieferkette. Das BSI hat noch keine spezifische Handreichung dazu veröffentlicht, aber die Logik der bisherigen Vorgaben lässt erwarten, dass Unternehmen die Risiken aus KI-gestützter Entwicklung dokumentieren, bewerten und durch geeignete Maßnahmen mitigieren müssen. Wer sich heute eine saubere Architektur aufbaut, hat es bei der nächsten Audit-Welle leichter.
Handlungsempfehlungen für den Mittelstand
Wer den Schritt in Richtung Agentic Coding macht, sollte ihn strukturiert gehen. Aus den Erfahrungen, die wir bei pleXtec in Beratungsprojekten und in eigener Anwendung sammeln, ergibt sich ein pragmatisches Vorgehen.
Erstens: Reifegrad realistisch einschätzen. Agentic Coding setzt eine moderne Engineering-Kultur voraus – automatisierte Tests mit nennenswerter Coverage, eine funktionierende CI-Pipeline, klare Code-Konventionen, ein Issue-Tracking, das Tickets mit echten Akzeptanzkriterien führt. Wer diese Grundlagen nicht hat, sollte sie zuerst aufbauen, bevor er Agenten einsetzt – sonst beschleunigen sie nur das Produzieren von Müll.
Zweitens: Klein anfangen, mit klarer Erfolgsmessung. Wählen Sie einen begrenzten Use Case – etwa Test-Migration, Bugfixes in einem isolierten Modul, Dokumentationsergänzung – und definieren Sie messbare Ziele: PR-Annahmequote, Time-to-Merge, Anzahl menschlicher Korrekturschleifen. Was nicht gemessen wird, lässt sich nicht skalieren.
Drittens: Agenten wie Mitarbeiter behandeln, nicht wie Werkzeuge. Geben Sie jedem Agenten-Profil eine eigene Identität, eine schriftliche Rollenbeschreibung, klare Berechtigungsgrenzen und einen menschlichen Owner. Diese Struktur ist nicht nur Sicherheits-Hygiene, sondern erleichtert auch das Lernen aus Fehlern: Wenn etwas schiefgeht, lässt sich die Verantwortung zuordnen.
Viertens: Code-Review nicht abschaffen, sondern verlagern. Die Versuchung ist groß, bei massenhaft generierten PRs den Review zu vernachlässigen – "der Agent hat doch Tests geschrieben". Das ist ein Trugschluss. Tests prüfen, was die Anforderung sagt; Reviews prüfen, was die Architektur erlaubt. Beide brauchen Sie. Allerdings können automatisierte Pre-Reviews – Linter, Static Analysis, Security-Scanner, Architektur-Konformitäts-Checks – einen Großteil der Routinearbeit übernehmen, sodass der Mensch sich auf die wirklich wichtigen Fragen konzentriert.
Fünftens: Governance früh denken. Wer KI-Agenten produktiv einsetzt, braucht Antworten auf Fragen, die heute scheinbar nur akademisch wirken: Welche Modelle dürfen wir benutzen? Welche Daten dürfen wir an externe LLM-APIs schicken? Wie dokumentieren wir die KI-Beteiligung an unserem Code für Auditoren und für Kunden, die danach fragen werden? Eine schlanke Compliance-Architektur, die diese Fragen vorab beantwortet, spart später erhebliche Reibungsverluste.
Sechstens: Junior-Entwickler nicht abschaffen. Die Versuchung, mit weniger Personal mehr zu schaffen, ist real. Sie ist auch gefährlich. Senior-Entwickler entstehen aus Junior-Entwicklern. Wer die Junior-Stufe wegrationalisiert, hat in fünf Jahren niemanden mehr, der die Agenten orchestrieren kann. Klüger ist es, die Junior-Rolle umzubauen: weg von reiner Code-Produktion, hin zu Code-Review, Spezifikation, Architektur-Skizzen und der Pflege der Agenten-Umgebung selbst.
Ausblick: Wohin die Reise geht
Agentic Coding ist 2026 keine Spielwiese mehr, sondern ein industrieller Prozess. Die nächste Welle wird drei Dinge bringen. Erstens: Multi-Agenten-Systeme, in denen mehrere spezialisierte Agenten zusammenarbeiten – ein Architekt-Agent, der das Design vorgibt, ein Implementierungs-Agent, der den Code schreibt, ein QA-Agent, der die Tests fährt, ein Reviewer-Agent, der das Ganze gegenprüft. Erste Open-Source-Frameworks für solche Konstellationen reifen gerade.
Zweitens: domänenspezifische Agenten, die nicht nur Programmiersprachen, sondern fachliche Modelle verstehen – Buchhaltungs-Agenten, die SAP-Customizing schreiben; ERP-Agenten, die Lagerlogik in Microsoft Dynamics implementieren; Maschinenbau-Agenten, die SPS-Programme erzeugen. Für den deutschen Mittelstand sind das die spannenderen Werkzeuge als generische Coding-Plattformen, weil sie in den Branchen ankommen, in denen Wertschöpfung tatsächlich passiert.
Drittens: ein Wandel der Entwickler-Rolle, der über die nächsten drei bis fünf Jahre alle IT-Organisationen erreichen wird. Entwickler werden zu Orchestratoren, Spezifikationsschreibern, Architekten, Code-Reviewern, Verantwortlichen für die Sicherheit und Qualität dessen, was Agenten liefern. Der reine Tipparbeiter, der Zeile für Zeile Logik einhackt, wird seltener. Damit verschiebt sich auch das Anforderungsprofil bei Neueinstellungen – und damit die Art, wie Hochschulen und Berufsausbildung das Fach vermitteln müssen.
Marc Wenzel hat dafür ein einfaches Bild: "Vor zehn Jahren waren wir im Werkzeugbau überrascht, dass CNC-Maschinen Werkstücke besser fräsen als unsere besten Werkzeugmacher. Heute fräsen die Maschinen, und unsere Leute programmieren sie. Bei Software passiert gerade dasselbe – wir programmieren die Programmierer." Wer in diesem Bild denkt, sieht die Aufgabe nicht in der Abwehr der Veränderung, sondern in deren bewusster Gestaltung. Es ist eine der spannendsten Transformationen, die der deutsche Mittelstand seit der ERP-Welle der 1990er Jahre erlebt hat.
Fazit
Agentic Coding ist kein Zukunftsthema mehr, sondern Realität. Die Frage ist nicht, ob KI-Agenten in der Softwareentwicklung mitarbeiten – sie tun es bereits in immer mehr Unternehmen. Die Frage ist, wie strukturiert, sicher und compliance-konform ein Unternehmen sie einbindet. Wer die Engineering-Kultur, die Governance und die Sicherheitsarchitektur jetzt aufbaut, gewinnt einen Vorsprung, der sich in den nächsten Jahren in Produktivität, Reaktionsgeschwindigkeit und Innovationsfähigkeit übersetzt. Wer abwartet, wird Mühe haben aufzuholen.
Wir bei pleXtec begleiten Mittelstandsunternehmen in genau diesem Übergang – von der ersten Reifegrad-Analyse über die Pilotierung bis zur breiten Operationalisierung von KI-Agenten in der Softwareentwicklung. Wenn Sie für Ihr Unternehmen den nächsten Schritt planen oder ausloten möchten, ob Agentic Coding für Ihren Stack die richtige Antwort ist, sprechen Sie mit uns. Hier geht es zum Erstgespräch.