Erklärbare KI für Windparks: Leistungsabweichungen transparent machen
Windenergieanlagen liefern große Mengen an Betriebsdaten – doch wenn die tatsächliche Leistung von der Prognose abweicht, bleibt die Ursache oft im Verborgenen. Hier setzt eine von KI.SH begleitete Machbarkeitsstudie an, die gemeinsam mit der Wind Service Offshore GmbH durchgeführt wurde. Das Ziel des Projekts bestand darin, Verfahren der erklärbaren Künstlichen Intelligenz (XAI) so einzusetzen, dass Abweichungen in der Leistungsprognose transparent erklärt und praktisch nutzbar gemacht werden können.
Die Wind Service Offshore GmbH brachte ihre Spezialisierung auf risikobasiertes Betriebsmanagement von On‑ und Offshore‑Windparks ein. Mit dem KI‑gestützten Tool PREDIXXION setzt das Unternehmen bereits auf datengetriebene, vorausschauende Instandhaltungsstrategien und unterstützt Betreiber und Dienstleister in allen Betriebsphasen. Die Herausforderung bestand darin, die bisher verwendete Blackbox-KI und ihre erkannten Abweichungen so erklären zu können, dass daraus klare Handlungsempfehlungen für Betrieb und Wartung abgeleitet werden können.
Explainable AI (XAI)
Erklärbare Künstliche Intelligenz (XAI) umfasst Verfahren, die nachvollziehbar machen, wie ein KI‑Modell zu seiner Entscheidung oder Prognose gelangt. Anstatt als “Black Box” zu agieren, zeigt das Modell, welche Eingangsgrößen – zum Beispiel bestimmte Sensorwerte – besonders stark zur Vorhersage beigetragen haben.
Blackbox-KI
Als Blackbox wird ein KI-Modell bezeichnet, dessen Entscheidungsprozess nicht nachvollziehbar ist. Das System liefert zwar Ergebnisse, aber es ist unklar, welche internen Schritte dazu führten. Eine Herausforderung v.a. für kritische Anwendungen bei denen Transparenz und Vertrauen vorausgesetzt werden.
Ziele und methodischer Ansatz
Das KI.SH‑Projektteam, bestehend aus Max Brede, Gilbert Dryzga, Josef Küstner und Lasse Päplow, knüpft dabei an das unternehmenseigene Power-Prediction-Modell PREDIXXION an. Mithilfe eines neuronalen Netzes berechnet dieses Modell die erwartete Leistung von Windenergieanlagen aus Betriebsdaten. Abweichungen zwischen Modellprognose und gemessener Leistung werden im PREDIXXION‑Dashboard angezeigt und können auf potenzielle Anomalien im Anlagenverhalten hinweisen.
In der Machbarkeitsstudie untersuchte das Team mehrere XAI-Verfahren, um die Blackbox zu öffnen, die Abweichungen besser zu verstehen und den Ergebnissen eine nachvollziehbare Ursache zuzuordnen, etwa bestimmte Sensorwerte oder Betriebszustände.
Die Datengrundlage bildeten reale Zeitreihen verschiedener Windenergieanlagen, die um synthetische Referenzanlagen ergänzt wurden, um das Normalverhalten abzubilden. Ein Datensatz umfasste Anlagen mit dokumentierten Anomalien und bekannten Reparaturzeitpunkten, darunter eine Anlage mit eindeutig identifizierter Sensorstörung. Ein zweiter, größerer Datensatz enthielt sowohl unauffällige als auch auffällige Anlagen unter unterschiedlichen Betriebsbedingungen.
Verschiedene Ansätze im Vergleich
In der Machbarkeitsstudie wurden mehrere Ansätze kombiniert, um Leistungsabweichungen aus unterschiedlichen Blickwinkeln zu analysieren. Neben direkten XAI‑Erklärungen des bestehenden PREDIXXION‑Modells kamen Residualmodelle zum Einsatz, die gezielt die Differenz zwischen Prognose und Messwert vorhersagen. Ergänzend wurden Clusteranalysen von Betriebszuständen sowie ein sogenannter Autoencoder‑Ansatz untersucht. Letzterer bildet ideale Sensormuster nach und interpretiert Abweichungen als Indikator für Anomalien.
Alle Ergebnisse flossen in ein Dashboard ein, das dem PREDIXXION‑Expertenteam die Bewertung der Modelle erleichtert.
Autoencoder
Ein Autoencoder ist ein neuronales Netzwerk, das Eingangsdaten komprimiert und anschließend wieder rekonstruiert. Große Abweichungen zwischen Original- und rekonstruierten Werten deuten auf Anomalien hin, da das Modell nur „normales" Verhalten gelernt hat.
Die zentralen Erkenntnisse
Die Analyse zeigt, dass klassische XAI‑Verfahren die wichtigsten Einflussgrößen eines Modells erklären können, bei komplexen Fehlerbildern jedoch an ihre Grenzen stoßen und keine hinreichend trennscharfe Zuordnung einzelner Ursachen erlauben. Rekonstruktive Verfahren auf Basis von Autoencodern erweisen sich im Vergleich als vielversprechender, da sie charakteristische Abweichungen in Sensormustern erkennen und bekannte Fehlerzustände korrekt markieren konnten.
Ein zusätzlicher Ansatz war dabei besonders hilfreich: Die Abweichungen, die der Autoencoder bei der Rekonstruktion erkennt, wurden mit Erklärmodellen (XAI) verknüpft. So ließ sich direkt nachvollziehen, welche Eingabedaten zu bestimmten Fehlern führten.
Gleichzeitig wurde deutlich, wie zentral Datenqualität und Repräsentativität für die Verlässlichkeit solcher Verfahren sind. Nur mit sorgfältig bereinigten Daten und ausreichend vielen Beispielen lassen sich robuste und praxisnahe Erklärungen ableiten.
Potenzial für Umwelt und weitere Branchen
Erklärbare KI‑Verfahren leisten einen Beitrag zur effizienteren Nutzung bestehender Energieinfrastruktur. Sie unterstützen die gezielte Planung von Wartungseinsätzen, reduzieren Ausfallzeiten und verlängern die Lebensdauer von Anlagenkomponenten. So trägt die Technologie direkt zur Stabilisierung der Stromerzeugung aus erneuerbaren Quellen und der Ressourceneffizienz bei.
Darüber hinaus sind die Ergebnisse auch für andere datengetriebene Branchen interessant, etwa im Maschinenbau, der Energieerzeugung im Allgemeinen oder der industriellen Fertigung. Überall dort, wo KI‑Modelle Zustände überwachen oder Prognosen treffen, fördert erklärbare KI das Vertrauen sowie die Akzeptanz der Technologie und hilft, Zusammenhänge besser zu verstehen.
Die Ergebnisse bilden somit eine methodische Grundlage, die künftig mit größeren Datensätzen, zusätzlichen Sensormessungen und verbesserten Modellarchitekturen weiter ausgebaut werden kann.
