KI Softwareentwicklung

Reality Check GenAI in Software-Entwicklung: Zwischen Hype und Wertschöpfung

von Michael Heß, Head of AI

Jenseits des Hype-Zyklus

Die Integration von künstlicher Intelligenz in die Softwareentwicklung hat einen kritischen Wendepunkt erreicht. Nach dem anfänglichen Hype-Zyklus zeichnet sich für Technologieführer eine komplexere und differenziertere Realität ab. Die weit verbreitete Einführung von KI ist unbestreitbar: Der DORA-Bericht 2024 zeigt, dass 89 % der Unternehmen der Integration von KI in ihre Anwendungen Priorität einräumen. 76 % der Technologen geben an, sich bei Teilen ihrer täglichen Arbeit auf KI zu verlassen.1 Das Versprechen lautet auf beschleunigte Arbeitsabläufe, gesteigerte Kreativität und beispiellose Produktivität.

Allerdings zeigt sich eine erhebliche Diskrepanz zwischen Wahrnehmung und Leistung. Zwar setzen mittlerweile über 75 % der Entwickler KI-Coding-Assistenten ein und geben an, sich produktiver zu fühlen, doch viele Unternehmen stellen keine entsprechende Verbesserung der Gesamtliefergeschwindigkeit oder greifbare Geschäftsergebnisse fest.2 Dieses Phänomen, das als KI-Produktivitätsparadoxon bezeichnet wird, ist kein Zeichen für das Scheitern der KI, sondern vielmehr ein Symptom für eine tiefgreifende, systemische Diskrepanz zwischen einer leistungsstarken neuen Technologie und den etablierten Arbeitssystemen.

In diesem Bericht wird dieses Paradoxon anhand einer Reihe von vier kritischen, datengestützten Beobachtungen dekonstruiert. Untersucht werden die Auswirkungen der KI aus der Perspektive des einzelnen Entwicklers, der Gesundheit der Codebasis, der Einschränkungen des Bereitstellungssystems sowie der Dynamik der menschlichen Organisation. Die Analyse zeigt, dass die mit den heutigen KI-Assistenten verbundenen Herausforderungen Vorboten der viel größeren architektonischen und strategischen Veränderungen sind, die erforderlich sind, um die kommende Ära der autonomen, agentenbasierten KI zu bewältigen.

1. Das Paradoxon der Entwicklererfahrung

Gefühlte Beschleunigung vs. Objektive Realität

Entwickler und Entwicklerinnen, die generative KI einsetzen, berichten von erheblichen Verbesserungen ihrer täglichen Arbeitserfahrung. Untersuchungen zeigen, dass intensive KI-Nutzer mehr Zeit in einem Flow-Zustand verbringen, insgesamt zufriedener mit ihrer Arbeit sind und seltener unter Burnout leiden.3 Dies wird durch Studien bestätigt, die zeigen, dass sich Entwickler, die KI einsetzen, stärker auf befriedigende Arbeit konzentrieren und engagierter sind. Dieser starke psychologische Vorteil führt zu einer überzeugenden Darstellung beschleunigter Arbeitsabläufe und gesteigerter persönlicher Produktivität.4

Diese Wahrnehmung wird jedoch durch objektive Leistungsdaten infrage gestellt. Eine randomisierte, kontrollierte Studie (RCT), die 2025 von METR durchgeführt wurde, ergab, dass erfahrene Open-Source-Entwickler bei der Verwendung von KI-Tools im Durchschnitt 19 % länger für ihre Aufgaben brauchten. Die Diskrepanz ist gravierend: Dieselben Entwickler, die objektiv langsamer waren, schätzten, dass die KI-Tools sie 20 % schneller gemacht hätten.5

Warum diese Diskrepanz?

Die Ursache für diese Diskrepanz scheint in einer Neudefinition dessen zu liegen, was „Arbeit“ ausmacht. In der Vergangenheit haben Entwickler den Aufwand mit der Zeit gleichgesetzt, die sie aktiv mit dem Schreiben von Code verbracht haben. KI-Assistenten reduzieren diese spezifische Tätigkeit jedoch drastisch, was ein starkes Gefühl der Beschleunigung vermittelt. Die kognitive Belastung wurde jedoch nicht beseitigt, sondern hat sich von der Codegenerierung auf neue, weniger greifbare Aufgaben verlagert: Prompt Engineering, Ausgabeverifizierung, Debugging von KI-generierter Logik und Integration des Codes in ein größeres System. Da diese neuen Tätigkeiten mental noch nicht in gleicher Weise wie das Tippen als „Arbeit” kategorisiert werden, unterschätzen Entwickler die Gesamtzeit bis zur Fertigstellung. Sie sind zwar schneller bei der Aufgabe, die sie, aber die Gesamtaufgabe hat sich um eine neue, oft versteckte Ebene des KI-Management-Aufwands erweitert.

Das Dilemma der „wertvollen Arbeit“

Ein beliebtes Argument für den Einsatz von KI ist, dass sie Routineaufgaben automatisiert und Entwicklern somit mehr Zeit für anspruchsvollere Aufgaben wie die Systemarchitektur, die Lösung komplexer Probleme oder die Nutzerforschung lässt. Die Daten deuten jedoch darauf hin, dass das Gegenteil der Fall ist. In derselben DORA-Studie3, die eine höhere Arbeitszufriedenheit hervorhob, wurde auch festgestellt, dass Entwickler, die KI einsetzen, weniger Zeit für das aufwenden, was sie als „wertvolle Arbeit” betrachten. Dabei hat sich der Zeitaufwand für mühsame oder routinemäßige Aufgaben nicht entsprechend verringert.

Diese kontraintuitive Erkenntnis lässt sich durch das erklären, was im durch KI geschaffenen Zeitvakuum geschieht. Laut der Umfrage „2025 State of DevEx Survey” von Atlassian7 sparen Entwickler zwar durch den Einsatz von KI über 10 Stunden pro Woche ein, verlieren aber durch organisatorische Ineffizienzen und Reibungsverluste bei der Zusammenarbeit eine vergleichbare Zeit. Die in der IDE eingesparte Zeit wird sofort durch systemische Verzögerungen an anderer Stelle im Softwareentwicklungszyklus wieder aufgezehrt.

Darüber hinaus trägt die Beschaffenheit aktueller KI-Tools zu diesem Trend bei. Aufgrund ihrer begrenzten Kontextfenster sind KI-Assistenten eher darauf spezialisiert, lokalisierten Standardcode zu generieren, als bestehende systemweite Abstraktionen zu durchdenken und wiederzuverwenden. Dies fördert ein Arbeitsmuster, bei dem die Zeit, die bei einer geringwertigen Aufgabe eingespart wird, sofort in die Generierung einer weiteren Aufgabe reinvestiert wird. Ohne einen klaren strategischen Auftrag, sich auf hochwertige Arbeit zu konzentrieren, wird die durch KI entstandene Lücke nicht mit Architekturdesign-Sitzungen gefüllt, sondern mit der Generierung weiterer Codezeilen. Dies führt zu einem Zustand hoher Aktivität und positiver Stimmung, jedoch sinkt der Anteil der Zeit, die für die Arbeit aufgewendet wird, die wirklich langfristigen Wert schafft.

2. Die versteckte Steuer der Code-Inflation

Während die Entwicklererfahrung eine komplexe Mischung aus wahrgenommenen Vorteilen und versteckten Kosten ist, sind die Auswirkungen der KI auf die Codebasis selbst weit weniger eindeutig. Es gibt immer mehr Belege dafür, dass die reine Generierungskraft der KI zu einer Verschlechterung der Codequalität und Wartbarkeit führt und eine Art „Steuer” in Form von technischen Schulden auferlegt, die von den Entwicklerteams über Jahre hinweg beglichen werden muss.8

Die Erosion der Engineering Disziplin

Der „GitClear 2025 AI Code Quality Report” ist eine umfassende Analyse von 211 Millionen Zeilen Code, die zwischen 2020 und 2024 geändert wurden. Er liefert ein deutliches, quantitativ fundiertes Bild dieses Trends. Die Daten zeigen eine dramatische Erosion etablierter Best Practices im Engineering, die direkt mit dem Aufstieg von KI-Assistenten zusammenhängt.

Die wichtigste Erkenntnis ist der starke Rückgang des Refactoring. Der Prozentsatz des „verschobenen” Codes – ein starker Indikator für Refactoring-Aktivität, bei denen ein Entwickler einen wiederverwendbaren Teil der Logik identifiziert und an einen gemeinsamen Ort verschiebt – sank dabei von 24,1 % aller Codeänderungen im Jahr 2020 auf lediglich 9,5 % im Jahr 2024.

Stattdessen generieren Entwickler riesige Mengen neuen und duplizierten Codes. So stieg der Anteil der „hinzugefügten” Codezeilen in Commits im gleichen Zeitraum von 39% auf 46%. Noch alarmierender ist, dass der Anteil der kopierten und eingefügten Zeilen stark angestiegen ist. 2024 war das erste Jahr, in dem das Volumen des duplizierten Codes in Commits das des refaktorierten Codes überstieg.9

Dieses Phänomen ist eine direkte Folge der Funktionsweise von KI-Tools. Diese sind darauf ausgelegt, auf der Grundlage des in einer Eingabeaufforderung bereitgestellten Kontexts eine lokalisierte, sofortige Lösung zu liefern. Dadurch ist es viel einfacher, einen neuen, leicht abgewandelten Code-Block zu generieren, als die Codebasis nach einer vorhandenen Abstraktion zu durchsuchen, die wiederverwendet werden kann.

Direkte Folgekosten: Fluktuation und verschwendete Arbeitszeit

Die negativen Auswirkungen dieses minderwertigen, duplizierten Codes sind kein fernes Problem. Der GitClear-Bericht zeigt einen deutlichen Anstieg der „Fluktuation“. Dieser Begriff bezeichnet den Prozentsatz an neuem Code, der innerhalb von zwei Wochen nach seiner Erstellung geändert oder gelöscht wird. Diese Kennzahl ist ein direktes Maß für verschwendete Arbeit und verfrühte Commits und stieg von 3,1 % im Jahr 2020 auf 5,7 % im Jahr 2024. Dies deutet darauf hin, dass Entwickler mehr Zeit damit verbringen, den mit KI-Unterstützung geschriebenen Code zu korrigieren. Dadurch werden die anfänglichen Geschwindigkeitsvorteile zunichte gemacht. Die Zeit, die durch die Generierung von Code in Sekundenschnelle „eingespart“ wird, muss durch sofortige Überarbeitungen, Debugging und zukünftige Wartungszyklen zurückgezahlt werden.9

3. Systemische Einschränkungen

Die Beschleunigung der Codegenerierung auf Ebene der einzelnen Entwickler kollidiert mit der begrenzten Kapazität des übergeordneten Software-Bereitstellungssystems. Diese Kollision führt zu Engpässen, die Produktivitätssteigerungen absorbieren und zunichte machen. Daher ist es für Führungskräfte unerlässlich, ihren Fokus von der Messung individueller Aktivitäten auf die Messung der End-to-End-Systemleistung zu verlagern. Die Daten zeigen deutlich, dass Unternehmen ohne eine ganzheitliche Sichtweise Gefahr laufen, einen einzelnen Teil des Prozesses auf Kosten des Ganzen zu optimieren.

Die folgende Tabelle bietet einen konsolidierten Überblick über die widersprüchlichen Signale, die das AI-Produktivitätsparadoxon definieren, und stellt die positiven Indikatoren auf individueller Ebene den besorgniserregenden Trends auf Code- und Systemebene gegenüber.10

Metric Category
Metric
Observed Impact of AI Adoption
Individual Perception & ActivityTime in Flow State


Perceived Speed


Job Satisfaction
▲ Increases Significantly

▲ Increases Significantly

▲ Increases
Code Volume & ChurnLines of „Added“ Code


Duplicated Code


Early Rework (Churn)
▲ Increases Significantly

▲ Increases Sharply (4x-8x)

▲ Increases Significantly
Code Quality & Maintainability„Moved“ Code (Refactoring)▼ Decreases Sharply
System Throughput & StabilityPR Review Time


Delivery Stability (CFR)

Overall Org. Throughput

Task Completion Time
▲ Increases Sharply (+91%)

▼ Decreases (-7.2%)

▬ No Measurable Improvement

▼ Decreases (19% Slower)

Bottleneck: Code Review

Der Hauptkonfliktpunkt ist der Code-Review-Prozess. Untersuchungen von Faros AI2, die auf Telemetriedaten von über 10.000 Entwicklern basieren, liefern einen wichtigen Datenpunkt: In Teams mit hoher KI-Akzeptanz führen Entwickler zwar 98 % mehr Pull-Anfragen (PRs) zusammen, die Zeit, die diese PRs jedoch auf ihre Überprüfung warten, erhöht sich dabei aber um 91 %. Dies offenbart einen klassischen Systemengpass. Die neu gewonnene Geschwindigkeit bei der Codegenerierung wird nicht durch eine Erhöhung der Kapazität des Systems zur Überprüfung, zum Testen und zur Integration dieses Codes ausgeglichen. Die Gewinne, die in einem Teil des Systems erzielt werden, werden vollständig durch die Warteschlange im nächsten, langsamsten Schritt aufgezehrt.

Small batch sizes

Dieser Engpass wird durch die Tendenz von KI-gestützten Arbeitsabläufen, größere Arbeitspakete zu produzieren, noch verschärft. KI macht es einfach, Hunderte von Codezeilen auf einmal zu generieren, was zu größeren und komplexeren Pull-Anfragen führt. Dies steht jedoch im Widerspruch zu einem der Grundprinzipien leistungsstarker DevOps und schlanker Produktentwicklung: dem Prinzip kleiner Batchgrößen. Kleine, häufige Änderungen sind einfacher zu überprüfen, weniger risikoreich bei der Bereitstellung und ermöglichen schnellere Feedback-Schleifen. Im DORA Report wird vermutet, dass die Versuchung, mit KI große Batches zu erstellen, ein Hauptgrund für den beobachteten Rückgang der Lieferstabilität ist.13

The Primacy of System-Level Metrics

Dies unterstreicht die Gefahr, sich auf irreführende oder unvollständige Kennzahlen zu konzentrieren. Toolspezifische Telemetriedaten wie die tägliche KI-Nutzung, die Akzeptanzrate von Vorschlägen oder die Anzahl der Chat-Interaktionen sind lediglich Frühindikatoren für die Akzeptanz, nicht jedoch für die geschäftlichen Auswirkungen. Sie messen die Aktivität, nicht den Erfolg. Eine hohe Akzeptanzrate für KI-Vorschläge ist beispielsweise bedeutungslos, wenn dieser Code Fehler enthält oder tagelang in einer Überprüfungswarteschlange steht.

Die einzige zuverlässige Methode zur Messung der tatsächlichen Auswirkungen einer technologischen oder prozessbezogenen Veränderung sind ganzheitliche, ergebnisorientierte Systemkennzahlen. Die vier wichtigsten DORA-Kennzahlen – Vorlaufzeit für Änderungen, Bereitstellungshäufigkeit, Änderungsfehlerquote (CFR) und Zeit bis zur Wiederherstellung des Dienstes (MTTR) – sind nach wie vor der Goldstandard für diesen Zweck. Sie messen die Leistung des gesamten Bereitstellungssystems vom Commit bis zum Produktionswert.13

Die Beweislage deutet darauf hin, dass die Auswirkungen von KI aus dieser Perspektive noch nicht positiv sind. So ergab die eigene Untersuchung von DORA einen Zusammenhang zwischen einer verstärkten Einführung von KI und einer Verringerung der Lieferstabilität um 7,2 %, gemessen an einer steigenden Änderungsfehlerquote. In ähnlicher Weise stellte der Faros-KI-Bericht2 trotz einer weitreichenden Einführung von KI keine messbare Verbesserung des gesamten organisatorischen Durchsatzes oder der DORA-Kennzahlen fest. Die Botschaft: Der entscheidende Faktor für den Erfolg ist nicht, wie schnell sich ein einzelner Entwickler fühlt, sondern ob das gesamte System den Nutzern schneller, häufiger und zuverlässiger einen Mehrwert bietet.

4. Die organisatorische Dynamik der Einführung von KI

Die wirksamsten Hebel zur Erschließung des Potenzials von KI liegen nicht immer in der Wahl eines bestimmten Modells oder Tools, sondern in der Einrichtung einer klaren Governance, dem proaktiven Risikomanagement und der Förderung von Vertrauen durch transparente Führung. Unternehmen, die diese menschlichen und systemischen Ebenen vernachlässigen, laufen Gefahr, dass ihre technischen Bemühungen immer wieder untergraben werden.

Governance, Compliance, and Risk Management

Studien zeigen: In manchen Unternehmen stammt bereits bis zu 60 Prozent des neuen Codes von KI-Tools. Gleichzeitig verfügen nur 18 % dieser Unternehmen über verbindliche Richtlinien für deren Einsatz.17 Das Ergebnis ist ein Governance-Vakuum. Die Teams stecken in einer „Compliance-Tretmühle“ fest: Jeder neue Anwendungsfall oder jedes neue Tool führt zu Unsicherheit und improvisierten Prüfungen.

Das ist riskant, weil KI die bestehenden Gefahren erheblich verstärkt. Eine Veracode-Studie aus dem Jahr 2025 ergab, dass bei 45 % der untersuchten Codierungsaufgaben durch KI-Tools Sicherheitslücken entstanden. Besonders kritisch war Java: Über 70 % der KI-generierten Ergebnisse wiesen dort Schwachstellen auf.18 Die Probleme reichen dabei von unsicheren Programmiermustern und dem Einsatz veralteter Bibliotheken bis hin zu fest einprogrammierten Geheimnissen oder Lizenzverstößen durch die unklare Herkunft von Code-Schnipseln. Da zudem 81 % der Unternehmen zugeben, aus Zeitdruck anfälligen Code auszuliefern, werden ungeprüfte KI-Ergebnisse schnell zur idealen Grundlage für Sicherheitsvorfälle.

Die Antwort darauf liegt jedoch nicht in einem Verbot von KI-Tools, sondern in einem stabilen, proaktiven Governance-Rahmenwerk. Unternehmen müssen von Ad-hoc-Prüfungen weg und hin zu klaren, wiederverwendbaren Regeln für Datenschutz, Sicherheitsstandards, geistiges Eigentum und verantwortungsvolle Nutzung. Das Ziel besteht darin, eine Struktur zu schaffen, die Sicherheit beim Experimentieren bietet und gleichzeitig den Aufwand für die Einführung neuer Tools reduziert. So können sich Teams auf Wertschöpfung konzentrieren, anstatt sich durch ein Labyrinth aus Compliance-Unsicherheiten zu kämpfen.

Die kritische Rolle klarer Rahmenbedingungen

Die Untersuchungen von DORA haben vier konkrete, datengestützte Maßnahmen identifiziert, mit denen Führungskräfte Vertrauen fördern, psychologische Sicherheit schaffen und eine effektive Einführung vorantreiben können. Die Auswirkungen dieser nichttechnischen Maßnahmen sind enorm.

  1. Die Festlegung einer einfachen und verständlichen Richtlinie zur akzeptablen Nutzung ist der wirksamste Hebel, um die Einführung voranzutreiben. Unternehmen mit klaren Richtlinien verzeichnen einen Anstieg der KI-Einführung in ihren Teams um geschätzte 451 % im Vergleich zu Unternehmen ohne solche Richtlinien. Ohne klare Regeln ist vielmehr jeder Entwickler gezwungen, die kognitive Last eines Risikobewerters zu tragen und sich ständig zu fragen, ob die Nutzung eines Tools sicher oder zulässig ist. Eine klare Richtlinie entlastet den Einzelnen von dieser Bürde und gibt ihm mentale Energie zurück. Außerdem schafft sie die psychologische Sicherheit, um die Tools selbstbewusst und effektiv zu nutzen.
  2. Wenn Zeit zum Lernen offiziell genehmigt und eingeplant wird, anstatt sie auf Abende und Wochenenden zu verlegen, steigt die Akzeptanz im Team. Dies signalisiert, dass das Unternehmen die Entwicklung neuer Fähigkeiten schätzt und akzeptiert, dass eine Lernkurve erforderlich ist, um diese neuen Tools zu beherrschen.
  3. Gehen Sie auf Bedenken hinsichtlich der Arbeitsplatzsicherheit ein. Die Angst, durch KI ersetzt zu werden, ist eine erhebliche und verständliche Quelle der Besorgnis. Führungskräfte, die direkt und transparent auf diese Bedenken eingehen, können die Akzeptanz im Team steigern. Durch eine offene Kommunikation darüber, dass KI die Entwickler ergänzen und nicht ersetzen soll, wird Vertrauen aufgebaut, sodass sich die Teams mit der Technologie als Partner und nicht als Bedrohung auseinandersetzen können.
  4. Teilen Sie einen transparenten Fahrplan. Allein durch die Veröffentlichung eines klaren Plans, wie das Unternehmen KI einsetzen will, kann die Akzeptanz im Team gesteigert werden. Transparenz verringert Unsicherheiten und hilft dabei, die individuellen Bemühungen mit der übergeordneten Unternehmensstrategie in Einklang zu bringen.

Diese Maßnahmen wirken der in einer Studie von Atlassian [Quellenverweis] festgestellten „Empathielücke” direkt entgegen. Demnach haben 63 % der Entwickler das Gefühl, dass ihre Führungskräfte ihre Probleme nicht verstehen, ein deutlicher Anstieg gegenüber 44 % im Vorjahr.7 Diese Kluft entsteht oft, wenn Führungskräfte KI als einfaches „zeitsparendes” Werkzeug betrachten und versuchen, diese Einsparungen zu „horten”, ohne die zugrunde liegenden systemischen Reibungen und neuen Ängste anzugehen. Durch die Konzentration auf diese vier menschenzentrierten Strategien können Führungskräfte die Grundlage für Vertrauen und Klarheit schaffen, die für jede erfolgreiche technologische Transformation erforderlich sind.

Ausblick

Die in diesem Bericht beschriebenen Beobachtungen, das Paradoxon der Entwicklererfahrung, die versteckten Kosten der Code-Inflation, die Realität systemischer Engpässe sowie der dringende Bedarf an organisatorischer Führung, sind die ersten Anzeichen einer viel größeren Veränderung in der Softwareentwicklung. Die Branche bewegt sich rasch von einer Ära der KI-Erweiterung, in der Tools menschliche Entwickler unterstützen, hin zu einer Ära der KI-Automatisierung, in der autonome Agenten komplexe, mehrstufige Entwicklungsaufgaben selbstständig ausführen können.

Agentic Coding ist auf dem Vormarsch. Schon heute erzeugen KI-Systeme große Mengen an Code und mit autonomen Agenten wird sich dieser Trend noch verstärken. Was ein KI-Assistent heute als zu großen Pull Request vorschlägt, kann ein KI-Agent morgen in Sekundenbruchteilen im Zehnfachen umsetzen. Die Folge ist eine massive Code-Inflation, die manuell nicht mehr zu beherrschen ist. Dadurch werden Probleme wie überdimensionierte Batch-Größen, Engpässe bei der Systemintegration und wachsende Sicherheitsrisiken exponentiell verschärft.

Dies macht die Bewältigung der Herausforderungen aktueller KI-Assistenten zu einer entscheidenden Voraussetzung für die Zukunft. Die technischen Disziplinen, automatisierten Sicherheitsvorkehrungen und Messungen auf Systemebene, die für eine effektive Verwaltung KI-gestützter Arbeitsabläufe erforderlich sind, bilden die unverzichtbare Grundlage für den sicheren Einsatz agentenbasierter KI.

Kontakt

Sie suchen einen erfahrenen und zuverlässigen IT-Partner?

Wir bieten Ihnen individuelle Lösungen für Ihre Anliegen – von Beratung, über Entwicklung, Integration, bis hin zum Betrieb.

Jetzt kontaktieren

Referenzen

  1. Adopt generative AI – DORA, Zugriff am September 2, 2025,
    https://dora.dev/research/ai/adopt-gen-ai/
  2. The AI Productivity Paradox Research Report | Faros AI, Zugriff am September 2, 2025,
    https://www.faros.ai/blog/ai-software-engineering
  3. How gen AI affects the value of development work – DORA, Zugriff am September 2, 2025,
    https://dora.dev/research/ai/value-of-development-work/
  4. How does generative AI impact Developer Experience?, Zugriff am September 2, 2025,
    https://devblogs.microsoft.com/premier-developer/how-does-generative-ai-impact-developer-experience/
  5. Measuring the Impact of Early-2025 AI on Experienced Open …, Zugriff am September 2, 2025,
    https://metr.org/blog/2025-07-10-early-2025-ai-experienced-os-dev-study/
  6. Study finds that AI tools make experienced programmers 19% slower. But that is not the most interesting find… : r/programming – Reddit, Zugriff am September 2, 2025,
    https://www.reddit.com/r/programming/comments/1lxh8ip/study_finds_that_ai_tools_make_experienced/
  7. Atlassian research: AI adoption is rising, but friction persists – Work …, Zugriff am September 2, 2025,
    https://www.atlassian.com/blog/developer/developer-experience-report-2025
  8. Leveraging AI for Software Engineering Productivity: Best Practices for Cost Reduction and Revenue Growth – DB Services, Zugriff am September 2, 2025,
    https://dbservices.pt/leveraging-ai-for-software-engineering-productivity-best-practices-for-cost-reduction-and-revenue-growth/
  9. Report Summary: GitClear AI Code Quality Research 2025 – jonas.rs, Zugriff am September 2, 2025,
    https://www.jonas.rs/2025/02/09/report-summary-gitclear-ai-code-quality-research-2025.html
  10. AI Copilot Code Quality 2025 | PDF | Software Engineering – Scribd, Zugriff am September 2, 2025,
    https://www.scribd.com/document/834297356/AI-Copilot-Code-Quality-2025
  11. AI-Generated Code Statistics 2025: Can AI Replace Your …, Netcorp, Zugriff am September 2, 2025,
    https://www.netcorpsoftwaredevelopment.com/blog/ai-generated-code-statistics
  12. February | 2025 – Rob Bowley, Zugriff am September 2, 2025,
    https://blog.robbowley.net/2025/02/
  13. DORA Metrics: Complete guide to DevOps performance measurement (2025) – DX, Zugriff am September 2, 2025,
    https://getdx.com/blog/dora-metrics/
  14. Measuring the productivity impact of AI coding tools: A practical guide for engineering leaders | Swarmia, Zugriff am September 2, 2025,
    https://www.swarmia.com/blog/productivity-impact-of-ai-coding-tools/
  15. Measuring AI code assistants and agents – GetDX, Zugriff am September 2, 2025,
    https://getdx.com/research/measuring-ai-code-assistants-and-agents/
  16. DORA Metrics: How to measure Open DevOps Success – Atlassian, Zugriff am September 2, 2025,
    https://www.atlassian.com/devops/frameworks/dora-metrics
  17. AI-generated code surges as governance lags – AI, Data & Analytics Network, Zugriff am September 2, 2025,
    https://www.aidataanalytics.network/data-science-ai/news-trends/ai-generated-code-surges-as-governance-lags
  18. AI-Generated Code Poses Major Security Risks in Nearly Half of All …, Zugriff am September 2, 2025,
    https://securitytoday.com/articles/2025/08/05/ai-generated-code-poses-major-security-risks-in-nearly-half-of-all-development-tasks.aspx
  19. AI-generated Code: How to Protect Your Software From AI-generated Vulnerabilities, Zugriff am September 2, 2025,
    https://www.ox.security/blog/ai-generated-code-how-to-protect-your-software-from-ai-generated-vulnerabilities/
  20. Secure AI Framework (SAIF): A Conceptual Framework for Secure AI Systems | Machine Learning | Google for Developers, Zugriff am September 2, 2025,
    https://developers.google.com/machine-learning/resources/saif
  21. Google’s Secure AI Framework – Google Safety Center, Zugriff am September 2, 2025,
    https://safety.google/cybersecurity-advancements/saif/
  22. Emerging agentic AI trends reshaping software development – GitLab, Zugriff am September 2, 2025,
    https://about.gitlab.com/the-source/ai/emerging-agentic-ai-trends-reshaping-software-development/
  23. How agentic AI is transforming software development – AWS, Zugriff am September 2, 2025,
    https://aws.amazon.com/isv/resources/how-agentic-ai-is-transforming-software-development/
  24. Agentic code generation: The future of software development – AI Accelerator Institute, Zugriff am September 2, 2025,
    https://www.aiacceleratorinstitute.com/agentic-code-generation-the-future-of-software-development/
  25. PromptPilot: Exploring User Experience of Prompting with AI-Enhanced Initiative in LLMs | Request PDF – ResearchGate, Zugriff am September 2, 2025,
    https://www.researchgate.net/publication/391984354_PromptPilot_Exploring_User_Experience_of_Prompting_with_AI-Enhanced_Initiative_in_LLMs
  26. Vibe Coding: Why Microservices Are Cool Again | by Zak Mandhro | PullFlow -Medium, Zugriff am September 2, 2025,
    https://medium.com/pullflow/vibe-coding-why-microservices-are-cool-again-bbee690cdf50
  27. Expanding the Generative AI Design Space through Structured Prompting and Multimodal Interfaces – arXiv, Zugriff am September 2, 2025,
    https://arxiv.org/html/2504.14320v1
  28. Designing systems for AI agents: What makes a good AX? | Standard Beagle Studio, Zugriff am September 2, 2025,
    https://standardbeagle.com/designing-systems-for-ai-agents/
  29. The Agentic AI Revolution: Transforming Software as a Service | by Rahul Krishnan, Zugriff am September 2, 2025,
    https://solutionsarchitecture.medium.com/the-agentic-ai-revolution-transforming-software-as-a-service-a7c915172b33