Analyse zu Einsatzmöglichkeiten von KI im Code Refactoring
In diesem Bericht wird die Leistungsfähigkeit von vier modernen KI-basierten Coding Agenten bei der Modernisierung von bestehenden Anwendungen untersucht. Ziel ist es, die Verwendung von veralteten Abhängigkeiten sowie Java 8 und Tomcat auf aktuelle Versionen zu heben. Als Evaluierungsbasis diente die Testabdeckung der Anwendung, um Regressionsfehler sichtbar zu machen. Zum Einsatz kamen Junie von JetBrains (Claude Sonnet 3.7) und Sweep AI (automatisches Modell) in IntelliJ IDEA, GitHub Copilot (GPT-4.1) im Agentenmodus in Visual Studio Code sowie Kiro (Claude Sonnet 4) als eigenständige auf KI ausgelegte Entwicklungsumgebung.
Die Assistenten wurden beauftragt, konkrete Modernisierungsaufgaben autonom auszuführen. Dabei zeigten sich deutliche Unterschiede in Planungstiefe, Erfolgsquote, Fehleranfälligkeit und Zuverlässigkeit. Kiro erwies sich als besonders strukturierter Assistent, der Aufgaben systematisch plante und umfangreiche Dokumentationen der geplanten Änderungen erstellt, jedoch an Umsetzungslücken litt. GitHub Copilot zeigte im Agentenmodus autonome Fähigkeiten, litt jedoch noch an Kinderkrankheiten. Junie und Sweep konnten Aufgaben direkt in der IDE durchführen, unterlagen aber Limitierungen bei der Umsetzung komplexerer Aktualisierungen. Alle getesteten Agenten litten unter Halluzinationen, insbesondere bei Versionsnummern. Ebenso konnte eine Regression in einem Abhängigkeitsupdate trotz fehlschlagendem Test nicht als solche erkannt werden. Der Bericht dokumentiert Unterschiede in Architektur, LLM-Nutzung und IDE-Integration der Tools. Die Ergebnisse zeigen, dass moderne Coding Agenten wertvolle Helfer bei Refactoring und Modernisierung sein können, aber klare menschliche Kontrolle und testgestützte Validierung benötigen.