zum Hauptinhalt springen
Menü

Erklärbare KI für Windparks: Leistungsabweichungen transparent machen

Windenergieanlagen liefern große Mengen an Betriebsdaten – doch wenn die tatsächliche Leistung von der Prognose abweicht, bleibt die Ursache oft im Verborgenen. Hier setzt eine von KI.SH begleitete Machbarkeitsstudie an, die gemeinsam mit der Wind Service Offshore GmbH durchgeführt wurde. Das Ziel des Projekts bestand darin, Verfahren der erklärbaren Künstlichen Intelligenz (XAI) so einzusetzen, dass Abweichungen in der Leistungsprognose transparent erklärt und praktisch nutzbar gemacht werden können.

Die Wind Service Offshore GmbH brachte ihre Spezialisierung auf risikobasiertes Betriebsmanagement von On‑ und Offshore‑Windparks ein. Mit dem KI‑gestützten Tool PREDIXXION setzt das Unternehmen bereits auf datengetriebene, vorausschauende Instandhaltungsstrategien und unterstützt Betreiber und Dienstleister in allen Betriebsphasen. Die Herausforderung bestand darin, die bisher verwendete Blackbox-KI und ihre erkannten Abweichungen so erklären zu können, dass daraus klare Handlungsempfehlungen für Betrieb und Wartung abgeleitet werden können.

Explainable AI (XAI)

Erklärbare Künstliche Intelligenz (XAI) umfasst Verfahren, die nachvollziehbar machen, wie ein KI‑Modell zu seiner Entscheidung oder Prognose gelangt. Anstatt als “Black Box” zu agieren, zeigt das Modell, welche Eingangsgrößen – zum Beispiel bestimmte Sensorwerte – besonders stark zur Vorhersage beigetragen haben.

Blackbox-KI

Als Blackbox wird ein KI-Modell bezeichnet, dessen Entscheidungsprozess nicht nachvollziehbar ist. Das System liefert zwar Ergebnisse, aber es ist unklar, welche internen Schritte dazu führten. Eine Herausforderung v.a. für kritische Anwendungen bei denen Transparenz und Vertrauen vorausgesetzt werden.

Das Projektteam nach erfolgreichem Abschluss der Machbarkeitsstudie (v.l.): Lasse Päplow, Prof. Dr. Daniel Böhnke, Josef Küstner (jeweils KI.SH) sowie Christian Müller und Dirk Reinhold (beide Predixxion - WSO GmbH).

Ziele und methodischer Ansatz

Das KI.SH‑Projektteam, bestehend aus Max Brede, Gilbert Dryzga, Josef Küstner und Lasse Päplow, knüpft dabei an das unternehmenseigene Power-Prediction-Modell PREDIXXION an. Mithilfe eines neuronalen Netzes berechnet dieses Modell die erwartete Leistung von Windenergieanlagen aus Betriebsdaten. Abweichungen zwischen Modellprognose und gemessener Leistung werden im PREDIXXION‑Dashboard angezeigt und können auf potenzielle Anomalien im Anlagenverhalten hinweisen.
In der Machbarkeitsstudie untersuchte das Team mehrere XAI-Verfahren, um die Blackbox zu öffnen, die Abweichungen besser zu verstehen und den Ergebnissen eine nachvollziehbare Ursache zuzuordnen, etwa bestimmte Sensorwerte oder Betriebszustände.

Die Datengrundlage bildeten reale Zeitreihen verschiedener Windenergieanlagen, die um synthetische Referenzanlagen ergänzt wurden, um das Normalverhalten abzubilden. Ein Datensatz umfasste Anlagen mit dokumentierten Anomalien und bekannten Reparaturzeitpunkten, darunter eine Anlage mit eindeutig identifizierter Sensorstörung. Ein zweiter, größerer Datensatz enthielt sowohl unauffällige als auch auffällige Anlagen unter unterschiedlichen Betriebsbedingungen.

Verschiedene Ansätze im Vergleich

In der Machbarkeitsstudie wurden mehrere Ansätze kombiniert, um Leistungsabweichungen aus unterschiedlichen Blickwinkeln zu analysieren. Neben direkten XAI‑Erklärungen des bestehenden PREDIXXION‑Modells kamen Residualmodelle zum Einsatz, die gezielt die Differenz zwischen Prognose und Messwert vorhersagen. Ergänzend wurden Clusteranalysen von Betriebszuständen sowie ein sogenannter Autoencoder‑Ansatz untersucht. Letzterer bildet ideale Sensormuster nach und interpretiert Abweichungen als Indikator für Anomalien.

Alle Ergebnisse flossen in ein Dashboard ein, das dem PREDIXXION‑Expertenteam die Bewertung der Modelle erleichtert.

Autoencoder

Ein Autoencoder ist ein neuronales Netzwerk, das Eingangsdaten komprimiert und anschließend wieder rekonstruiert. Große Abweichungen zwischen Original- und rekonstruierten Werten deuten auf Anomalien hin, da das Modell nur „normales" Verhalten gelernt hat.

 

Nach oben scrollen