Ein kontrollierter Weg zu besserem Lehren und Lernen mit KI

Ein kontrollierter Weg zu besserem Lehren und Lernen mit KI
@rido – stock.adobe.com
19.12.2023 Interview
Künstliche Intelligenz (KI) hat das Potenzial, das Lehren und Lernen in vielerlei Hinsicht automatisiert zu unterstützen. Allerdings entsprechen die Beiträge der neuen Technologie nicht immer den Erwartungen und Werten der menschlichen Nutzer*innen. Das Forschungs- und Entwicklungsprojekt „HyTea – Model for Hybrid Teaching“ untersucht, wie dieses Problem angegangen werden kann. Im Interview erläutert der Projektleiter Dr. Daniele Di Mitri das Projekt und die Vorgehensweise seines Teams

dipf.de: Das sogenannte Alignment-Problem spielt in Entwicklungs- und Forschungsarbeiten zur Ethik der Künstlichen Intelligenz eine wichtige Rolle. Frei übersetzt geht es dabei um die richtige Ausrichtung der Technik. Können Sie uns das Ganze noch etwas näher erläutern?

Daniele Di Mitri: Das Alignment-Problem ist eine große Herausforderung in der KI-Entwicklung und -Forschung; es knüpft an das noch viel häufiger diskutierte Problem der „menschlichen Kontrolle“ von Künstlicher Intelligenz an. Im Allgemeinen müssen KI-Systeme eine vordefinierte Funktion erfüllen, wie zum Beispiel von Punkt A nach Punkt B zu navigieren. Dabei agieren sie in der Regel autonom. Die entscheidende Frage ist aber, inwieweit und zu welchen Bedingungen die KI den vordefinierten Plan ausführt. Und wie wird dabei sichergestellt, dass sie innerhalb ethischer und moralischer Grenzen bleibt? Wir wissen bereits, dass KI-Anwendungen keinen moralischen Kompass oder eine vordefinierte Definition von richtig und falsch haben. Daher sind klare Leitlinien, eine sehr genaue Ausrichtung der Systeme erforderlich, um sicherzustellen, dass sie den Menschen nicht schaden.

Diese Diskussion ist jetzt kein Neuland und hat auch schon vielfach die Phantasie angeregt. Beispiele sind die berühmte Kurzgeschichte „I, Robot“ von Isaac Asimov oder Hollywood-Filme wie „Space Odyssey“. Aber erst in jüngster Zeit ist das Alignment-Problem zu einem zentralen Thema in der KI-Community geworden. Mit den neuen Möglichkeiten generativer Modelle wie GPT diskutiert man dort nun darüber, bis zu welchem Grad KI-Systeme autonom handeln können und wie weit der Mensch die Kontrolle behalten muss. Mehrere einflussreiche Stimmen im KI-Kontext, von denen sich die meisten im Silicon Valley finden, äußern sich eher spekulativ über dieses Thema. Das geht dann in die Richtung, dass KI eine ernsthafte und existenzielle Bedrohung für die Menschheit darstellt und dass wir es bald mit tödlichen Maschinen mit übermenschlichen Fähigkeiten zu tun haben werden. Ich ziehe hier eine Grenze. Denn angesichts der realen Fähigkeiten der aktuellen KI-Modelle halte ich solche Untergangsszenarien für reine Science-Fiction.

Meines Erachtens ist es wichtiger, die derzeitigen Auswirkungen der Künstlichen Intelligenz auf die Gesellschaft und die durchaus schon heute von ihr ausgehenden Bedrohungen zu erörtern und zu erforschen – weniger die von morgen. Denn KI-Systeme sind bereits eng in verschiedene soziale Zusammenhänge eingebunden, was tiefgreifende Folgen mit sich bringen kann. Ich beziehe mich zum Beispiel auf die systematische Diskriminierung von Frauen oder People of Color, das Unterstützen, Erzeugen und Verbreiten von Propaganda und Fake News, die Verletzung von Urheber*innenrechten, den Stromverbrauch großer KI-Modelle und deren CO2-Fußabdruck sowie viele andere Dinge.

In welchem spezifischen Kontext befassen Sie sich in Ihrem Projekt mit diesem Thema?

Im HyTea-Projekt befassen wir uns mit dem Alignment-Problem in der Bildung. Wir untersuchen insbesondere, wie Lehrende und Lernende die Kontrolle über die KI-Systeme behalten können und wie sie mögliche Fehler korrigieren können. In der Bildung arbeiten KI-Systeme häufig als „Expert*innen-Software“, das heißt als Systeme, die den Lernenden Feedback, Anleitung und individuelle Unterstützung bieten, wenn die menschliche Lehrkraft abwesend oder nicht verfügbar ist. Die KI befindet sich also in der Position des sachkundigeren Gegenübers, weswegen es für die Lernenden schwierig sein kann, zu erkennen, ob sie fehlerhafte oder sogar gänzlich falsche Empfehlungen und Rückmeldungen erhalten.

In unserem Projekt konzentrieren wir uns darauf, Menschen dabei zu unterstützen, Präsentationen besser vorzubereiten – und zwar mit Hilfe eines KI-Systems, dem „Presentation Trainer“. Dieses System kann die Studierenden beim Erstellen aussagekräftiger Präsentationen anleiten und ermöglicht es ihnen, sich optimal auf die tatsächliche Live-Präsentation vorzubereiten. Es handelt sich um ein kamerabasiertes Tool, das auf diesem Weg automatisch häufige Fehler erkennen kann. Dazu gehören beispielsweise das Verschränken der Arme, das Schauen und Zeigen auf die Folien, zu wenige Pausen und vieles mehr. Zusammen mit meinem Kollegen Dr. Jan Schneider habe ich bereits einige Studien zu diesem Thema durchgeführt, und wir sind zu dem Schluss gekommen, dass solche Systeme für Studierende von großem Nutzen sein können, insbesondere in der Hochschulbildung. Denn Student*innen müssen zwar in ihren Kursen Präsentationen vorbereiten und halten, haben aber in der Regel nicht die Möglichkeit, ihre mündlichen Präsentationsfähigkeiten zu trainieren. Hier könnte intelligente Software wie der „Presentation Trainer“ zum Einsatz kommen. Wenn die Studierenden auf diesem Weg mehr Möglichkeiten erhalten, zu üben, sollte das zwangsläufig auch ihre Präsentationsleistungen verbessern.

Im Rahmen des HyTea-Projekts untersuchen wir, wie solche Tools in bestehende Hochschulkurse integriert werden können. Um das Alignment-Problem anzugehen, wollen wir ein Teacher-Dashboard erstellen, das die Interaktion der Studierenden mit dem „Presentation Trainer“ zusammenfasst und es den Lehrenden ermöglicht, das von der KI generierte Feedback zu korrigieren und passgenau einzusetzen. Darüber hinaus wollen wir untersuchen, inwieweit die Studierenden ihre Präsentationsfähigkeiten verbessern, wenn sie bei der Vorbereitung der Inhalte angeleitet werden. Und nicht zuletzt arbeiten wir auch daran, die Akzeptanz von Lehrkräften und Studierenden für Software wie den „Presentation Trainer“ zu erhöhen und herauszufinden, mit welchen Praktiken sich diese Tools optimal in eine Lehrveranstaltung integrieren lassen.

Wie gehen Sie in dem Projekt genau vor?

Als ersten Schritt haben wir einen Pool von Expert*innen für Präsentationstrainings befragt, von denen wir wertvolle Informationen zur Verbesserung der Software erhalten haben. Solche Befragungen und das Erheben von Anforderungen sind Teil unserer partizipativen Designmethode. Auf diesem Weg wollen wir ein menschenzentriertes und verantwortungsvolles KI-Design erreichen. Grundlage hierfür ist, die Meinungen aller Beteiligten im Design- und Entwicklungsprozess zu hören und zu berücksichtigen.

In der nächsten Projektphase planen wir dann, den „Presentation Trainer“ schrittweise in bestehenden Seminaren für Bachelor- und Masterstudent*innen der Informatik an der Goethe-Universität Frankfurt weiterzuentwickeln. In drei aufeinanderfolgenden Semestern werden wir eine sich wiederholende Studie durchführen, in der wir die Studierenden bitten, ihre Erst-, Zwischen- und Abschlusspräsentationen mit dem Präsentationstrainer zu erstellen und Vorschläge für weitere Funktionen zu machen. Wir werden die so erstellten Präsentationen aufzeichnen und bewerten. Und mit Hilfe eines Fragebogens für die Teilnehmenden wollen wir deren Meinungen über die Nutzungsfreundlichkeit und den Bedienungskomfort des Systems erfassen. Auf diese Weise wollen wir genauer untersuchen, welche Eigenschaften des „Presentation Trainer“ positiv mit der Präsentationsleistung korrelieren.

Die Doktorandin Nina Mouhammad wird in dieser gemeinsamen Untersuchung vor allem die Relevanz der Ratschläge für die Studierenden und der Präsentationsinhalte in den Blick nehmen. Doktorand Stefan Hummel wird auswerten, welche Features zu einer besseren Nutzbarkeit und Akzeptanz des „Presentation Trainer“ führen.

Was wollen Sie damit erreichen und wie kann die Allgemeinheit davon profitieren?

Wir wollen das neue Tool innerhalb des digitalen Lernökosystems, das vom DIPF und „StudiumDigitale“, der E-Learning-Einrichtung der Goethe-Universität, genutzt wird, einsetzen und weiterentwickeln. Dieses Ökosystem stützt sich in hohem Maße auf digitale Lernplattformen wie Moodle, die das Lernen in Präsenz mit dem digitalen Lernen verbinden. Wir wollen den neuen Präsentationstrainer nahtlos integrieren. Er soll das bestehende hybride und flexible Lehr- und Lernmodell sinnvoll ergänzen.

Wir werden den „Presentation Trainer“ außerdem als Open-Source-Software für jede Einrichtung, die ihn hosten und ihren Studierenden und Mitarbeiter*innen anbieten möchte, zur Verfügung stellen. Dabei nehmen wir den Datenschutz der Nutzer*innen sehr ernst. Wir werden das System so gestalten, dass die Organisationen sicherstellen können, dass die Daten geschützt bleiben und nicht ohne ausdrückliche Zustimmung an andere Parteien weitergegeben werden. Im Idealfall integrieren interessierte Einrichtungen oder einzelne Lehrkräfte unsere Software in ihre Kurse. Am Ende könnte ein KI-System stehen, das explizit für den Bildungsbereich entwickelt wurde und von Studierenden, Lehrkräften und Bildungseinrichtungen auf breiter Basis angenommen wird.

Vielen Dank für den Überblick!

 

Portraitfoto Dr. Daniele Di MitriDr. Daniele Di Mitri ist Forschungsgruppenleiter am DIPF. Seine wissenschaftliche Arbeit konzentriert sich auf das Erfassen und die Auswertung multimodaler Daten im Rahmen physischer Interaktionen. Ziel ist es, menschliches Verhalten zu analysieren und automatisiertes Feedback zu ermöglichen. In seiner aktuellen Forschung konzentriert er sich darauf, verantwortungsvolle KI-Anwendungen für den Bildungsbereich zu entwickeln.

HyTea ist ein Projekt des DIPF in Zusammenarbeit mit dem Cologne Game Lab der Fachhochschule Köln. Das dreijährige Vorhaben wird vom Bundesministerium für Bildung und Forschung (BMBF) im Rahmen des nationalen KI-Nachwuchsgruppen-Programms gefördert.