KI-gestützte Modernisierung von Software-Altsystemen

Legacy-Modernisierung
LLM & RAG
Wissensgraph (Neo4j)
Code-Migration
Neuro-symbolische KI
KI & SoftwareEin weiteres Projekt

Kurzbeschreibung

Viele Unternehmen betreiben noch immer umfangreiche Software-Altsysteme, die in veralteten Sprachen wie Natural und Adabas entwickelt wurden. Diese Systeme sind schwer zu warten, kaum dokumentiert und lassen sich nur mit großem Aufwand in moderne Cloud-Architekturen überführen. Gleichzeitig schwindet das Expertenwissen durch den demografischen Wandel zunehmend.

Am TTZ Günzburg wurde eine KI-gestützte Migrationspipeline entwickelt, die Legacy-Anwendungen automatisiert analysiert und in modernes Java- und React-Code überführt. Der Ansatz kombiniert:

  • Symbolische KI (regelbasierter ANTLR-Parser) zur präzisen Extraktion von Codestrukturen
  • Generative KI (LLM + Retrieval Augmented Generation) zur Codegenerierung
  • Wissensgraphen (Neo4j) zur Erfassung von Programmflüssen, Aufrufhierarchien und UI-Strukturen
  • Vektordatenbanken (ChromaDB) für semantische Kontextsuche

Das Ergebnis: automatisch generierter Backend-Code (Spring Boot), React-Frontends sowie vollständige technische Dokumentation und Testfallgrundlagen — direkt aus dem Altsystem-Code.

Ihr Mehrwert

Details

Die entwickelte Pipeline basiert auf einer hybriden neuro-symbolischen Architektur und wurde im Rahmen einer wissenschaftlichen Arbeit am TTZ Günzburg (HNU) entwickelt. Sie erweitert einen bestehenden Ansatz zur COBOL-Migration (Kuck et al.) wesentlich für die Natural/Adabas-Domäne.

Technischer Ablauf:

  1. Eingabe: Natural-Programme, Datenbankmodule, JCL-Dateien, Screen-Definitionen und bestehende Dokumentation
  2. Symbolische Extraktion: Ein ANTLR-basierter Parser analysiert den Quellcode und erzeugt einen partiellen abstrakten Syntaxbaum (AST) mit Instruktionsdetails, Typinformationen und Bezeichnern
  3. Wissensgraph: Die extrahierten Strukturen werden in einem Neo4j-Graphen gespeichert und erfassen Aufrufhierarchien, Variablenbindungen, Programmflüsse und UI-Koordinaten
  4. Vektordatenbank: Code- und Dokumentationsfragmente werden in 2.500-Token-Chunks zerlegt, vektorisiert und in ChromaDB gespeichert
  5. KI-Generierung: LangChain kombiniert beide Wissensquellen in einem Chain-of-Thought-Prompt, der an ein LLM (OpenAI) übergeben wird
  6. Ausgabe: Generierter Java-Backend-Code (Spring Boot), React-Frontend, Requirement Descriptions und Testfallgrundlagen

Wissenschaftlicher Beitrag: Im Gegensatz zu rein textbasierter Vektorisierung ermöglicht die symbolische Vorstrukturierung eine deutlich präzisere Kontextbereitstellung für das LLM. Die duale Wissensquelle (Wissensgraph + Vektordatenbank) reduziert nachweislich die Halluzinationsrate und gewährleistet semantische Konsistenz zwischen Modell, Code und Dokumentation.

Zielgruppe für Kooperationen: Unternehmen mit umfangreichen Natural/Adabas-, COBOL- oder ähnlichen Legacy-Systemen, die eine KI-gestützte Modernisierungsstrategie entwickeln möchten — insbesondere aus den Bereichen Versicherung, Banken, öffentliche Verwaltung und Industrie.

Teilen:

Ansprechperson

Nächste Schritte Ihrerseits

Sie müssen eingeloggt sein, um ihr Interesse zu bekunden, weitere Details einsehen zu können oder eine Absichtserklärung abzugeben.