2. Symposium on AI and Human Factors in Flensburg
Am 27. Februar 2026 drehte sich an der Hochschule Flensburg alles um die Frage, wie Menschen und Künstliche Intelligenz sinnvoll zusammenwirken können. Beim zweiten „Symposium on AI and Human Factors” kamen Fachleute und Interessierte aus Forschung und Praxis zusammen, um den Dialog zwischen KI-Entwicklung und Human-Factors-Forschung zu vertiefen.
Organisiert wurde das Symposium von Prof. Dr. Marc Aubreville, der die Veranstaltung gemeinsam mit der Vizepräsidentin der Hochschule Flensburg, Prof. Dr. Beatrice Podtschaske, eröffnete. In ihrem Grußwort hob Podtschaske die Bedeutung des Faktors Mensch im Kontext der Künstlichen Intelligenz hervor und betonte, wie wichtig es ist, unterschiedliche fachliche und gesellschaftliche Blickwinkel zusammenzuführen. „Das Symposium bringt die richtigen Menschen zusammen“, hob sie mit Blick auf die Vielfalt der vertretenen Perspektiven hervor.
„Pas de deux" von Mensch und Maschine
Der erste Teil des Symposiums widmete sich dem Bereich der Human Factors. Den Auftakt machte Prof. Dr. Jan Gerken, der darlegte, wie Künstliche Intelligenz und menschliche Faktoren zunehmend zusammenwachsen. Er zeigte auf, dass sich beide Bereiche gegenseitig positiv beeinflussen können. So tragen Deep-Learning-Verfahren dazu bei, Aspekte der Human Factors zu verbessern, während Human-Factors-Expertise unerlässlich ist, um KI-Systeme verantwortungsvoll und leistungsfähig zu gestalten. In dieser Entwicklung wird ein Aufeinander-Zubewegen der Disziplinen sichtbar. Gerken sprach in diesem Zusammenhang von einem „Pas de deux“ von Mensch und Maschine, aus dem sich vielfältige Synergien ergeben.
Anschließend stellte Emely Rosbach ein Forschungsprojekt zum Anchoring-Effekt in der computergestützten Pathologie vor. Die Erkenntnisse zeigen, dass die Integration von KI die Leistung von Medizinern grundsätzlich verbessert und die negativen Effekte von Zeitdruck mildert. Gleichzeitig führt sie jedoch zu einer Verankerungsvoreingenommenheit. Diese bewirkt eine moderate Verschiebung hin zu KI-Vorhersagen, die unabhängig von der Qualität der Empfehlungen ist. Unter Zeitdruck verstärkt sich diese Verschiebung durch die gesteigerte Abhängigkeit von KI-Vorschlägen.
Eileen Heydenreich präsentierte das Interreg-Projekt Care AI. Im Zentrum steht Claire, ein KI-Assistent, der Pflegekräfte entlastet, Biografiedaten der Bewohner:innen erfassen und eine personenzentrierte Betreuung unterstützen kann. Ziel ist es, sowohl den Bedürfnissen der Pflegekräfte als auch denen der Bewohner:innen gerecht zu werden. Heydenreich betonte, dass es nicht mehr die Frage sei, ob KI die Pflege unterstützen könne, sondern unter welchen Bedingungen dies geschehen solle. In diesem Zusammenhang seien insbesondere ethische Anforderungen und Datenschutz zu beachten.
Dann wurde es immersiv: Lukas Mayer präsentierte das im Rahmen eines Forschungsprojekts entwickelte „Sono Game“, das angehenden Mediziner:innen einen leichten Einstieg in die Ultraschalldiagnostik ermöglicht. In einer Mixed-Reality-Umgebung können sie mithilfe einer VR-Brille an virtuellen Objekten trainieren und so den Bewegungsablauf und das räumliche Verständnis für Ultraschall-Untersuchungen einüben, noch bevor sie am echten Patienten arbeiten.
Oona Colliander gab einen Einblick in das Projekt CAPTN X-Ferry, in dem eine autonome Fähre entwickelt wird, die Situationen auf der Förde eigenständig erkennt und bewertet. Die dabei entstehenden Sensordaten werden so visualisiert, dass Route, Manöver und besondere Situationen an Bord von Personal und Passagieren auf Monitoren nachvollzogen werden können. So wird das Verhalten des autonomen Schiffs erklärbar, was Verständnis und Akzeptanz fördert. Colliander betonte, wie wichtig es ist, dass eine solche Fähre ihre „Entscheidungen“ unterschiedlich adressatengerecht erklärt.
Rechtsanwalt Dr. Oliver Daum beleuchtete anhand eines Use Cases aus der Praxis den rechtlichen Rahmen rund um den Einsatz von Künstlicher Intelligenz im Recruiting. Vor dem Hintergrund des Arbeitsrechts, der KI-Verordnung und des Datenschutzes hob er KI-Richtlinien als hilfreiches Tool hervor.
Vor der Mittagspause kamen die Teilnehmenden noch einmal ins Gespräch. Prof. Dr. Sarah Oeste-Reiß gab zuerst einen Impuls zum Thema „User-Archetypen bei der Nutzung generativer KI“. Anschließend leitete Colin Kavanagh einen Workshop, in dem die Teilnehmenden das Thema aus verschiedenen Perspektiven und anhand konkreter Fallbeispiele diskutierten.
Poster- und Demo-Session
Nach dem Mittag bot sich Gelegenheit zum intensiven Austausch: Die Teilnehmenden besichtigten Poster zu verschiedenen Forschungsprojekten. Ein Highlight war der Demonstrator des „Sono Game“, mit dem die Teilnehmenden selbst aktiv werden und in Mixed Reality ihre Ultraschall-Fähigkeiten üben konnten.
Deep Learning & KI
Den Nachmittagsblock, der sich den Schwerpunkten Deep Learning und AI Topics widmete, eröffnete Prof. Dr. Florian Schatz mit der Vorstellung des Projekts „LLMProf”. Die lokal betriebene Open-Source-Plattform soll Studierenden dabei helfen, schneller und gezielter auf für ihr Studium relevante Informationen zuzugreifen.
Masterstudent Fiete Scheel stellte ein Projekt vor, das er über mehrere Semester in Kursen von Marc Aubreville entwickelte. Um wichtige Informationen allen Menschen zugänglich zu machen, schuf er eine Metrik zur Messung von „leichter Sprache“, die Teilhabe für alle gewährleisten soll. Die Metrik wurde auf Basis synthetischer Daten getestet.
Dass Swipe-Funktionen nicht nur bei Datingapps hilfreich sein können, bewies Sweta Banerjee. Das Projekt SWAN (Swipeable Annotations) ermöglicht es, medizinische Bilder per Swipe den richtigen Ordnern zuzuweisen. Neben der Zuweisungsfunktion gibt es in der App auch einen Trainingsmodus. Eine Pilotstudie zeigte, dass SWAN auch in der Praxis gut ankommt. Die Anwender:innen sortierten die Daten mithilfe der Plattform deutlich schneller, ohne dass die Qualität litt.
Mit einem Augenzwinkern zeigte Marvin Carstensen, wie Deep Learning auch im privaten Bereich nützlich sein kann: In seinem Projekt „How to Beat Your Wife at Scrabble“ werden Transformer-Modelle trainiert, echte Scrabble-Bretter per Kamera zu erkennen und den optimalen nächsten Zug vorzuschlagen. In einer Web-Demo demonstrierte er live, wie Fotos digitalisiert und analysiert werden. Die Auswertung zeigte jedoch, dass abweichende Maße und Schriftarten in realen Aufnahmen die Erkennung erschweren.
Jonas Ammeling stellte eine Studie zu Foundation Models in der Pathologie vor, in der es um die Klassifikation mitotischer Figuren in Tumorgeweben geht. Die Ergebnisse zeigen, dass LoRA-angepasste Foundation Models im Vergleich zu anderen Ansätzen am besten abschneiden und die Leistungslücke zu vollständig trainierten Modellen weitgehend verringern. Damit bieten sie einen pragmatischen Ansatz, um mit begrenzt annotierten Bilddaten in der medizinischen Bildanalyse umzugehen.
Abschließend berichtete Nils Porsche über ein Forschungsprojekt, das sich mit dem Einsatz von selbstüberwachtem Lernen in der konfokalen Laser-Endomikroskopie zur Diagnose von Mundhöhlen- und Rachenkrebs befasst. Das Ziel besteht darin, eine eindeutigere Diagnostik zu ermöglichen und somit die Anzahl der erforderlichen Biopsien zu reduzieren. Die bisherigen Modelle erreichen jedoch noch kein zufriedenstellendes Ergebnis.
Die Teilnehmenden waren sich einig: Für das Zusammenspiel von KI und Human Factors sind verschiedene Perspektiven und interdisziplinäre Ansätze entscheidend. Beide Bereiche profitieren voneinander und können ihr volles Potenzial nur gemeinsam entfalten.
Das Symposium wurde gemeinsam von der Hochschule Flensburg, CIVU – Center for Interaction, Visualization and Usability, FLAIR - Flensburg Artificial Intelligence Research, deepmicroscopy und KI.SH ausgerichtet.
