turn23_2farbig_mod
Betiel Woldai, Prof. Dr. Sigurd Schacht, Sudarshan Kamath Barkur, (Projekt DIAS, HS Ansbach)
Der Einsatz von KI-basierten Sprachmodellen in der Lehre: Question-Generation Modelle als Instrument zur Messung des Lernfortschrittes von Studierenden
idea
Künstliche Intelligenz, Lernfortschritt, Question Generation Model, Self-Assesment, Sprachmodelle
Einführung

Vor knapp einem Jahr veröffentlichte das Forschungsinstitut OpenAI ChatGPT, ein auf künstlicher Intelligenz basierendes Sprachmodell, dass u.a. dazu fähig ist Texte in einer außergewöhnlichen Qualität zu generieren. Somit entstand im Forschungsprojekt DIAS an der HS Ansbach die Frage, ob Sprachmodelle dieser Art in der Lehre eingesetzt werden können. Der jüngste Schwerpunkt des Forschungsprojekts ist die Entwicklung einer Analyse-Komponente, mit deren Hilfe Studierende ihren Lernfortschritt in einzelnen Fächern überprüfen können. Mit sog. Self-Assessments können Studierende ihren Lernfortschritt in einem Kurs beurteilen. Eine Form der Selbstbeurteilung sind Online-Quizze. Diese bieten eine dynamische Umgebung aufgrund von Anpassungsmöglichkeiten wie Umfang, Fragetypen, Bewertungsoptionen usw. Die Evaluierung der Antworten gibt den Lernenden eine sofortige Rückmeldung und unterstützt sie bei der Kontrolle, ob ein gewünschtes Leistungsniveau in einem Kurs erreicht wurde.

 

Idee – Question Generation Model

Derzeit werden Quizze noch manuell von den Dozierenden entwickelt. Da große Sprachmodelle u.a. Fragen generieren können, entstand die Idee der Verwendung dieser Modelle zur Entwicklung von Self-Assessment Quizzen und folglich der Entwicklung der Analyse-Komponente dem Question Generation Modell (QGM) im Forschungsprojekt DIAS. Auf Basis von Vorlesungsmaterialien wie Skripten sollen Studierende die Möglichkeit erhalten mit Hilfe des QGM automatisiert Quizze zu erstellen. Dabei werden Fragen auf Basis der eigens hochgeladenen Lerninhalte generiert. Zudem wird eine automatische Überprüfung der gegebenen Antworten bereitgestellt. Dies erfolgt durch eine Punkte-Bewertung der eingetragenen Antwort basierend auf den drei Klassen “Entailment”, “Contradiction” und “Neutral”, die aufsummiert 100 Prozent ergeben. Daraufhin folgt eine Erklärung der Punktvergabe, um eine transparente Bewertung zu gewährleisten. Schließlich können Inhalte durch dieses Modell sowohl vertieft als auch wiederholt werden, da ein tieferes Verständnis erforderlich ist, um die generierten Fragen richtig zu beantworten.

 

Zukunft

Das Modell sowie Potenzial und neue Ansätze wurden diskutiert. Daraus erschlossen sich weitere Eindrücke und Perspektiven. Betont wurde dabei das Interesse Lehrende mit einzubinden. Sie sollen im Prozess des Self-Assessments aufgenommen werden indem Lernziele auf Basis der Lerninhalte vordefiniert und mit dem Modell verknüpft werden. Damit werden nicht randomisierte sondern auf den Lernzielen basierte Fragestellungen generiert. Um die Richtigkeit und Verbesserung der Fragen und Bewertungen mit Erklärung sicherzustellen, können Dozenten diese nach Eingabe der vordefinierten Lernziele korrigieren und beurteilen. Um den Zugang zum Modell und die Anbindung zu Lerninhalten zu beschleunigen, soll eine Verknüpfung zu genutzten Lernsystemen wie Moodle bestehen. Weiterhin muss hierbei ein datenschutzkonformes Vorgehen beachtet  werden, sodass keine zurückzuführenden Daten der Studierenden bestehen. Durch den anonymisierten Rückfluss an die Lehrenden könnte bei der Nutzung des Modells, neben der Selbsteinschätzung des Lernenden, eine Reflektion zum Wissensstand der Kohorte erfolgen. Schließlich könnten Dozenten ihre Lehreinheiten somit besser und gezielter anpassen.

 

Zugang

Pitch Präsentation

Question Generation App

 

Kontakt

Forschungsprojekt DIAS