„Fasse ich nicht an. Ist mit AI gemacht." Mein Plädoyer für eine informierte Meinung.

Eigentlich gehört dieser Artikel nicht hierher. Wie ihr wisst, geht es mir in diesem Blog um agiles Arbeiten.

Aber ich habe in den letzten Wochen eine Erfahrung gemacht, die mich beschäftigt, und die Reaktionen darauf haben mich dazu gebracht, diesen Post zu schreiben. Ich habe eine Desktop-App entwickelt: Cylenivo, verfügbar für Windows, Mac und Linux. Die Idee dazu hatte ich schon ein bisschen länger, weil Cylenivo eine Lücke von Jira schließt: Gute Auswertung von Cycle und Lead Time (und ein paar weitere kleine Dinge...).  

Das Problem: Ich kann nicht entwickeln. Was ich kann ist Konzeption so wie Ideen in gute User Experience verwandeln und ich habe das Domain-Wissen wie man z.B. sinnvoll eine Cycle Time berechnet (das ist komplexer, als man so denkt...). 

Was in 2026 noch hinzu kommt: AI Coding hat nochmal einen großen Schritt gemacht. Die Tools der bekannten Hersteller rund um Entwicklung mit AI sind deutlich besser geworden als sie es z.B. in 2024 waren.

Was sich seit 2024 wirklich verändert hat

Ich habe für Cylenivo mit Claude Code gearbeitet. Ich hätte genauso gut Codex oder Gemini nehmen können. Mir geht es in diesem Artikel nicht darum, welches Modell das beste ist. Was mich interessiert, ist der Stand der Dinge im Jahr 2026, und der ist ein anderer als noch 2024 oder 2025. Ich habe da schon viel mit AI-gestützter Entwicklung experimentiert und war oft von den Ergebnissen enttäuscht. Das ist heute anders. Die Qualität der Ergebnisse, die Verlässlichkeit in komplexeren Kontexten, die Fähigkeit, über mehrere Iterationen hinweg kohärenten Code zu produzieren hat sich substanziell verbessert. 

Das als Vorrede und zur Herstellung des Kontext für euch. 

Das Feedback, das mich zum Schreiben gebracht hat

Auf Cylenivo habe ich verschiedene Reaktionen bekommen. Eine davon war sinngemäß: „Fasse ich nicht an, ist mit AI gemacht." Ich habe darüber nachgedacht, und ich kann diese Haltung bis zu einem gewissen Grad verstehen (ich komme im nächsten Kapitel dazu). Was mich aber beschäftigt ist, dass die entscheidende Frage dabei vollständig ausgeblendet wird: Löst die App ein Problem? Tut sie das, wofür sie gebaut wurde? Ist sie nützlich? Das scheint für manche Menschen keine Rolle mehr zu spielen, sobald das Wort „AI" im Raum steht. Und das finde ich nicht sinnvoll. Nicht wegen meiner App, sondern wenn man das weiter denkt.

Ich halte das für einen Realitätsverlust, der einer nüchternen Betrachtung nicht standhält. Die meiste Software, die heute genutzt wird, enthält mit hoher Wahrscheinlichkeit Anteile, die mit AI-Unterstützung entstanden sind. Und das wird eher zunehmen. Wer also die AI gestützte Entwicklung konsequent ablehnen will, wird kaum noch Software finden, die er verwenden kann.

Und dann ist da noch AI Slop. Das nervt mich auch: Inhaltslose LinkedIn-Posts, die offensichtlich von einem Modell generiert wurden und nichts Eigenes enthalten, Videos, in denen AI-generierte Stimmen bedeutungslose Texte vorlesen, Produkte, bei denen AI-Features eingebaut wurden, weil es gerade trendy ist, nicht weil sie irgendeinen Mehrwert bringen. Das ist AI Slop.

Eine App, die ein konkretes Problem löst ist für mich aber kein Slop. Egal womit sie gebaut wurde. Hier wird gerade sehr viel in einen Topf geworfen, was nicht zusammengehört.

Die echten Nachteile, die man ernst nehmen muss

Natürlich gibt es auch bei mir große Bedenken, wohin uns das alles führen wird. Und es gibt legitime Einwände gegen AI und AI in der Softwareentwicklung, die ich auch genauso sehe, gerade weil ich in meinem Job Verantwortung für Entwicklerinnen und Entwickler trage.

Der offensichtlichste Einwand ist der ökologische. Der Energieverbrauch großer Sprachmodelle ist erheblich, und die Infrastruktur dahinter ist nicht klimaneutral. Wer das in seine Entscheidung einbezieht, hat gute Gründe dafür.

Ein zweiter Einwand betrifft die Trainingsdaten. Modelle wurden auf Code und Inhalten trainiert, bei denen die Frage nach Urheberrecht und Einwilligung nicht eindeutig beantwortet ist. Hinzu kommt die Frage, was mit den Daten passiert, die man während der Nutzung eingibt. Das sind berechtigte Bedenken, die ich nicht wegdiskutieren will.

Was mich persönlich am meisten beschäftigt, ist die Frage nach der Entwicklung von Entwicklerinnen und Entwicklern. Wenn AI zunehmend den Code schreibt, was passiert dann mit dem Lernprozess? Wie wird aus einem Junior ein Senior, wenn ein Großteil der kognitiven Arbeit von einem Modell übernommen wird? Wird irgendwann eine Generation von Entwicklerinnen und Entwicklern heranwachsen, die gut darin ist, Code zu reviewen, aber nicht darin, ihn zu denken? Ich habe darauf keine Antwort. Die Frage ist vollkommen berechtigt. 

Dazu kommt die Geschwindigkeit selbst als Risiko. AI beschleunigt die Produktion von Code erheblich. Aber Feedback-Zyklen, also die Frage, ob das, was man produziert, auch wirklich gebraucht wird, laufen nicht schneller (s.a. Work-Feedback Loop). Die Gefahr von Aktionismus sollte nicht unterschätzt werden: Wir bauen mehr, schneller, aber nicht unbedingt das Richtige.

Und schließlich gibt es noch den Punkt der Abhängigkeit. Wer heute seine Entwicklungsprozesse tief in AI-Tools einbettet, macht sich abhängig von Unternehmen, die ihre Preise und Bedingungen frei gestalten können. Das Muster kennen wir zum Beispiel durch Uber. Die haben in vielen US-Städten den klassischen Taximarkt nahezu verdrängt. Jetzt, wo die Alternativen verschwunden sind, steigen die Preise. Das gleiche Risiko besteht bei AI-Infrastruktur, wenn die Marktdurchdringung groß genug ist.

Was AI in der Entwicklung ermöglicht

All das gesagt, gibt es handfeste Vorteile die ihr sehen solltet und die mit in die Diskussion gehören. Der wichtigste für mich: Jemand, der nicht entwickeln kann, kann eine Idee trotzdem verwirklichen. Das ist keine Kleinigkeit. In Cylenivo steckt, wenn ich es grob schätze, ein Äquivalent von mehreren Hundert Stunden Entwicklungsarbeit. Als Hobby-Projekt, das ich kostenlos zum Download anbiete, wäre das über eine beauftragte Agentur oder einen freien Entwickler schlicht für mich nicht finanzierbar gewesen. Die Idee wäre in meinem Kopf geblieben und ein Produkt, dass Teams helfen kann, wäre nicht entstanden.

AI macht Entwicklung außerdem schneller (mittlerweile auch über den gesamten Lebenszyklus eines Produkts) und in bestimmten Kontexten kostengünstiger als rein menschliche Entwicklung. Das ist ein wirtschaftlicher Fakt, der bedrohlich ist. Es bleibt aber eine Tatsache und in einem Markt, in dem man weltweit konkurriert, ist es ökonomisch nicht sinnvoll, dieses Potential nicht zu nutzen. Es sei denn, man kann damit leben, dass ein Unternehmen stirbt. Das klingt dramatisch, aber letztendlich ist es so. 

Mythen, die in 2026 nicht mehr stimmen

Es gibt einige Mythen über AI-gestützte Entwicklung, die möglicherweise in 2024 zutrafen, heute aber nicht mehr der Realität entsprechen. Der erste Mythos ist, dass es nur mit einem perfekten One-Shot-Prompt funktioniert, dass man von Anfang an genau wissen muss, was man will, und dass man bei einem Fehlschlag von vorne anfangen muss. Das stimmt nicht mehr. Iterative Entwicklung, Korrekturen, Nachfragen, das Verwerfen von Teilansätzen und der Neustart in einem Teilbereich ist heute ein ganz normaler Ablauf.

Der zweite Mythos ist, dass AI sich in komplexen Projekten hoffnungslos verrennt. Auch das entspricht nicht mehr meiner Erfahrung, wenn man die richtigen Rahmenbedingungen schafft.

Der dritte Mythos, dem ich ab und zu begegne: Komplexere Ideen sind grundsätzlich nicht umsetzbar. Cylenivo ist kein einfaches Produkt. Es enthält Berechnungen, Datenbanklogik, eine GUI für drei Betriebssysteme, Exportfunktionen und trotzdem hat es funktioniert, die App zu entwickeln.

Dann gibt es noch den vierten Mythos der schlechten Code-Qualität und Wartbarkeit von AI-Code. Die hängt aber heute (übrigens wie bei menschlichen Entwicklern auch) vom Vorgehen ab. Wer AI-generierten Code ohne Review übernimmt, bekommt möglicherweise schlechten Code. Wer strukturiert vorgeht, regelmäßig reviewt und Architektur, Sicherheit und potenzielle Bugs explizit prüft, bekommt etwas anderes. Der Quellcode von Cylenivo ist öffentlich auf GitHub einsehbar. Schaut rein und gebt Feedback, das ist ausdrücklich erwünscht und ich würde mich sehr darüber freuen.

Was man wirklich braucht, um damit zu arbeiten

Ich erlebe, dass die Anforderungen an die Person, die mit AI entwickelt, oft unterschätzt werden. Die Vorstellung, man könne einfach eine Idee eintippen und eine fertige App erhalten, ist heute immer noch verbreitet. Tatsächlich eben oft unter den Menschen, die AI komplett ablehnen. Was man tatsächlich braucht, lässt sich in vier Bereichen beschreiben.

Erstens braucht man ein gutes Harness für die AI: sehr gute, strukturierte Informationen über das Projekt, den Tech Stack, die Architektur. Tools wie Context7 helfen dabei, aktuelle Dokumentation in den Kontext zu bringen. Meta-Informationen (wie z.B. die CLAUDE.md) müssen permanent aktuell gehalten werden. Und nach jeder bedeutenden Änderung gehört ein explizites Review auf Architektur, Sicherheit und Bugs dazu. Nicht als optionaler Schritt, sondern als fester Bestandteil des Prozesses. (auch hier: Wie sonst auch, wenn Menschen entwickeln).

Zweitens braucht man Erfahrung in der jeweiligen Domain. Konzept und Produktidee kann AI nicht liefern, Design im Sinne von Nutzerführung und Interaktionslogik muss vom Menschen kommen und setzt Erfahrung voraus. Berechnungen müssen verstanden und vorgegeben werden. Ein Beispiel aus Cylenivo: Was ist Cycle Time wirklich? Von welchem Moment zu welchem Moment wird sie gemessen? Wird sie nur einmal gemessen oder auch, wenn der Status eines Tickets die Cycle Time Grenzen mehrfach überschreiten? Das ist eine fachliche Entscheidung, keine technische, und sie muss der Mensch treffen.

Drittens spielt Erfahrung im Prompting eine erhebliche Rolle. Ich mache das seit Ende 2022, und ich lerne bis heute dazu. Die Fähigkeit, eine Anforderung so zu formulieren, dass das Modell sie richtig interpretiert, ist nicht trivial und kommt nicht von selbst.

Viertens: Das Toolset drumherum ist genauso wichtig wie bei klassischer Entwicklung. Tests (und zwar durchdachte Tests, nicht irgendwelche) sind unverzichtbar. Eine vernünftige Entwicklungsumgebung, klare Testszenarien, ein strukturierter Arbeitsablauf und kleine Stories. Das ist im Kern analog zu dem, was menschliche Entwicklerinnen und Entwickler auch brauchen.

Fazit

Ich kann nachvollziehen, warum Menschen AI in der Softwareentwicklung ablehnen. Die Einwände (Umwelt, Datenethik, die Frage nach der Zukunft des Entwicklerberufs, Abhängigkeit von großen Unternehmen) sind real und verdienen eine ernsthafte Auseinandersetzung. Was ich nicht nachvollziehen kann, ist eine pauschale Ablehnung, die auf diesen Argumenten nicht wirklich aufbaut, sondern sich mit dem Schlagwort „AI" begnügt.

Meine Empfehlung ist klar: Schaut euch an, wie AI-gestützte Entwicklung heute tatsächlich funktioniert, bevor ihr euch eine feste Meinung bildet. Gerade wenn ihr gegen AI seid und wenn ihr Devs seid. Nicht weil ihr AI gut finden müsst, sondern weil eine fundierte Meinung besser ist als eine reflexhafte. Das gilt für dieses Thema genauso wie für jedes andere.

Aktualisiert:

Mastodon Diskussionen