FVI-Expertenfrühstück

06. FVI-Expertenfrühstück

Einsatz von LLMs (Large Language Models) in der Instandhaltung

Freitag, 23. August 2024
mit Marcel Hahn, Jens Reißenweber

Key Takeaways

Thema: Der neue Kollege ist eine KI – Large Language Models (LLM) und RAG in der Instandhaltung. In dieser Session haben Marcel Hahn und Jens Reisenweber den theoretischen Elfenbeinturm verlassen und live gezeigt, wie Generative KI (GenAI) den Arbeitsalltag des Instandhalters revolutioniert.

  • Das Ende der Suche (RAG-Technologie): Das größte Problem ist nicht das fehlende Wissen, sondern das Wiederfinden. Mit „Retrieval Augmented Generation“ (RAG) wurde demonstriert, wie man mit einer KI chattet, die nur auf die eigenen Dokumente (PDFs, Handbücher, Notizen) zugreift.
  • Live-Beweis 1: Ein defektes Netzteil. Statt Handbücher zu wälzen, fragt man die KI: „Welches Netzteil brauche ich laut Spezifikation?“ – Die KI liefert sofort den Typ und schreibt sogar die Bestellemail an den Lieferanten (Weidmüller).
  • Barrieren sprengen (Sprache & Format): Jens Reisenweber zeigte eindrucksvoll, wie KI Sprachbarrieren im Fachkräftemangel löst. Ein ungarischer Schichtbericht (Text) wurde automatisch übersetzt, analysiert und in eine saubere deutsche Excel-Tabelle für das Controlling verwandelt.
  • Verstecktes Wissen finden (Sägespalter-Case): Anhand eines „Sägespalters“ wurde gezeigt, wie die KI verstreute Infos verknüpft. Die 20-Jahre-Gebrauchsdauer eines Sicherheitsbauteils stand nirgends explizit als Satz, sondern war über drei Dokumente verteilt. Die KI hat es trotzdem deduziert und gewarnt. Das ist eine Leistung, die ein Mensch unter Zeitdruck oft übersehen würde.
  • Angst vor Jobverlust vs. Superkraft: Die Diskussion (u.a. mit Heinz-Achim Schulte) drehte sich um die Sorge „Macht mich das arbeitslos?“. Der Konsens: Nein, aber es macht effizient. Wer früher 4 Leute für Doku und Recherche brauchte, macht das jetzt allein und kann sich auf die echte Problemlösung fokussieren. KI ist kein Ersatz, sondern ein Effizienz-Booster.
  • Grenzen kennen (Mathe & Halluzinationen): Transparenz ist wichtig. LLMs sind Sprachmodelle, keine Taschenrechner. Bei komplexer Mathematik oder fehlenden Daten können sie „halluzinieren“. Daher braucht es immer den Menschen als letzte Instanz („Human in the Loop“).

Einordnung: Von der Theorie zur „Asset Intelligence“ Dieses Frühstück war die technologische Beweisführung für alles, was wir in den Episoden 1–5 besprochen haben.

  • ADAM ist keine Zukunftsmusik: Was hier als „Asset Intelligent“ Prototyp gezeigt wurde, ist der Kern von ADAM. Wir verkaufen keine vage Vision, sondern eine Technologie, die heute schon ungarische Sprachnachrichten in deutsche Wartungspläne verwandelt.
  • Die Antwort auf den Fachkräftemangel: Wenn wir keine deutschsprachigen Ingenieure mehr finden, brauchen wir Tools, die jede Sprache verstehen und das Wissen so einfach servieren, dass auch angelernte Kräfte komplexe Anlagen warten können („Servolenkung für Mitarbeiter“).
  • Daten-Souveränität in der Praxis: Die Demo zeigte, dass man die KI in einen „geschlossenen Raum“ (z.B. Azure) sperren kann. Das Firmenwissen landet nicht im öffentlichen ChatGPT-Trainingstopf, sondern bleibt im Digitalen Tresor des Kunden. Das ist das stärkste Argument gegen die Angst vor Datenabfluss.

Fazit: Die Instandhaltung der Zukunft tippt nicht in SAP-Masken, sie spricht mit ihren Anlagen. Wir haben gezeigt: Die Technologie ist reif. Jetzt geht es nur noch um den Mut, sie einzusetzen.

Unsere Experten

Marcel Hahn

Hahn Projects GmbH

Jens Reißenweber

Reissenweber GmbH