Universitäre Lehre
KI an der Uni: Es braucht neue Prüfungsformen
Wie führt man in Zeiten von künstlicher Intelligenz eine Prüfung durch? Am 13. Tag der Lehre befasste sich die Universität Bern mit den Chancen und Risiken von KI und den damit verbundenen Herausforderungen für die Hochschulen.

KI schneidet heute in Bezug auf wissenschaftliche Kompetenzen wie Schreiben, Textanalyse und Argumentation oft besser ab als durchschnittliche Studierende. Wie können Leistungsnachweise an Hochschulen in einer sich veränderten Uni-Welt aussehen?
Mit dieser Frage beschäftigten sich die rund 240 Dozierenden der Universität Bern und weiterer Hochschulen, die am 14. Februar zum diesjährigen «Tag der Lehre» nach Bern gereist waren. «Das Thema brennt offensichtlich unter den Nägeln», stellte Fritz Sager, Vizerektor Lehre, mit Blick auf den voll besetzten Saal fest.
Lernprozess gemeinsam mit Studierenden gestalten
Die Abteilung «Learning and Development» des Vizerektorats Lehre führte die Veranstaltung bereits zum 13. Mal durch. Leiter Thomas Tribelhorn warnte die Zuhörerinnen und Zuhörer gleich zu Beginn der Veranstaltung: «Pfannenfertige Lösungen wird es hier nicht geben. Wir stehen noch am Anfang eines Lernprozesses.» Im Laufe der Veranstaltung kristallisierten sich aber einige gemeinsame Nenner heraus: Den erwähnten Lernprozess müssen die Dozierenden gemeinsam mit den Studierenden durchlaufen, umso mehr, als die Entwicklung von KI noch in ihren Anfängen steht und niemand weiss, welche Möglichkeiten sich daraus noch ergeben werden.

Ein Verbot von KI ist keine Lösung
Einig waren sich die Referierenden darin, dass ein Verbot von generativen KI-Tools in der Lehre keine Option sei, zumal es keine zuverlässige Methode gebe, um maschinell erzeugte Texte zu erkennen. Darum müsse künftig, statt nur die Klausur oder die Hausarbeit, auch der vorgelagerte Lernprozess stärker in eine Beurteilung einfliessen.
Den Weg und nicht nur das Produkt bewerten
Ulrike Hanke, Dozentin an der Pädagogischen Hochschule Zürich, identifizierte zwei mögliche künftige Prüfungsmodelle: einerseits überwachte, «KI-freie» Prüfungen für Kompetenzen, die auch weiterhin ohne KI beherrscht werden müssen, und andererseits Prüfungen für Leistungen, bei denen KI hilfreich sein kann und deshalb genutzt werden darf.

Das Prüfungssystem fokussiere heute auf das Produkt, etwa eine Hausarbeit, die am Ende benotet wird. «Aber in Zeiten von KI sagt das Produkt nichts mehr über den Lernprozess aus, sondern nur darüber, wie gut jemand mit dem KI-Tool umgehen kann.» Wenn allein die Note wichtig ist, leidet die intrinsische Motivation, zu lernen: Warum sollten Studierende auf den Einsatz von ChatGPT verzichten, wenn sie sich damit die Arbeit erleichtern und wahrscheinlich eine bessere Note erzielen?
Selbstverantwortung der Studierenden fördern
Dozierende sollten an die Selbstverantwortung der Studierenden appellieren und ihnen klarmachen, dass die Nutzung von KI ihren persönlichen Lernprozess einschränken könne. Sie sollten von den Studierenden Zwischenschritte einfordern und sie durch regelmässige Feedbacks zur Reflexion anregen. Hanke: «Es braucht nach wie vor klar formulierte Lernziele und Mindestkompetenzen. Beurteilt wird vermehrt der Weg und nicht mehr ausschliesslich das Produkt.».
Auf Hankes Referat folgten Kurzpräsentationen von fünf Dozierenden der Universität Bern, wie KI in die praktische Lehre einfliessen kann. Der Fokus lag dabei auf textgenerierender KI.
«Es braucht nach wie vor klar formulierte Lernziele und Mindestkompetenzen. Beurteilt wird vermehrt der Weg und nicht mehr ausschliesslich das Produkt.»
Ulrike Hanke
Gut funktioniert hat das beim Beispiel von Nicole Nyffenegger, Dozentin am Departement of English: Sie nutzte Shakespeares «A Midsummers Night’s Dream» als Übungsfeld. ChatGPT habe dabei eine valable Basis geliefert, auf der die Studierenden ihre Lösungen aufbauen konnten. Weniger gut ist das Fazit in Nischenfächern, wie Corinne Mühlemann, Professorin am Institut für Kunstgeschichte, aufzeigte. Sie testete den Einsatz von generativer KI in einem Masterseminar über Textilkunst: das KI-Tool war nur begrenzt hilfreich.

KI als Lernhilfe, nicht als Abkürzung
«Die Studierenden müssen einen verantwortungsvollen Umgang mit der KI lernen und erkennen, dass das Tool nicht einfach dazu dient, die Dozierenden auszutricksen, sondern sie selbst weiterbringt», sagt Nicole Nyfenegger. Die Nutzung von KI erfordere neue Lernziele wie präzises Fragestellen (Prompting), kritische Beurteilung des Outputs und ethische Grundregeln im Umgang mit dessen.

Können neue Prüfungsformen die Kompetenzen der Studierenden fördern? Adrian Ritz vom Kompetenzzentrum für Public Management präsentierte seine Erfahrungen anhand einer modular aufgebauten Lehrveranstaltung zum Thema Personalführung, bei welcher er den Einsatz von textgenerierender KI verlangte. Die Studierenden schätzten dabei den Lerneffekt als hoch ein, allerdings bedeutete dieser Prozess mit regelmässigen Feedbackrunden einen grossen Aufwand für Studierende und Dozierende.

Tobias Hodel von der Abteilung Digital Humanities am Walter Benjamin Kolleg gab einen Einblick ins maschinelle Forschen und Schreiben in den Geisteswissenschaften. Da Large Language Models und Chatbots zu unspezifischen und teilweise erfundenen Aussagen neigen, müssen maschinell erzeugte Texte unbedingt kritisch geprüft und laufend weiterentwickelt werden.
Madhav P. Thakur vom Institute of Ecology and Evolution erinnerte daran, das KI gar nicht so neu sei – die neuen KI-Modelle aber nicht mehr nur Fragen beantworteten, sondern quasi autonom Ideen entwickelten und Probleme lösten: «Das zwingt uns dazu, die Art, wie wir lehren und prüfen neu zu denken.»
Höhere kognitive Kompetenz gefragt
Doris Wessels, Professorin an der Fachhochschule Kiel, demonstrierte in Bern live, zu welchen Leistungen die heutige Technologie fähig ist: Digitale Forschungsassistenten durchsuchen zahlreiche relevante Webseiten, erstellen einen Rechercheplan und liefern ein mehrseitiges Dokument inklusive Quellenangaben – und das innert Minuten.
«
«Wir sind an dem Punkt, an dem wir uns fragen müssen: Was zeichnet den Menschen im Vergleich zur KI aus?»
»
Doris Wessels
Solche sogenannten Reasoning-KI-Modelle, die Gedankengänge aufzeigen und Schlussfolgerungen ziehen können, werden bald Standard sein. Dasselbe gelte für KI-Agentensysteme, die bestimmte Aufgaben ohne menschliches Zutun ausführen können, sagte die Expertin: «Wir sind an dem Punkt, an dem wir uns fragen müssen: Was zeichnet den Menschen im Vergleich zur KI aus?» Für die Referentin liegt die Stärke des Menschen in seiner Intuition, Kreativität und der Fähigkeit, moralische Entscheidungen zu treffen.

In der finalen Diskussion wurden auch Sorgen geäussert, welche die Dozierenden in Bezug auf die KI in der Lehre umtreibt: Geht damit Grundlagenwissen verloren? Leidet die soziale Komponente des Lernens, wenn Studierende vermehrt die KI statt Mitstudierende als Sparringpartner nutzen? Steigen die Anforderungen so, dass durchschnittlich Begabte abgehängt werden? Klare Antworten hatten auch die Fachleute nicht. Der Lernprozess hat eben erst begonnen.
Initiative KILOF
KI an der Uni Bern
Die Abteilung Learning and Development hat die Initiative KILOF gestartet, um den Austausch rund um Künstliche Intelligenz (KI) an der Universität Bern zu fördern. KILOF steht für «KI in Lehre, Organisation und Forschung» und bringt verschiedene Arbeits- und Forschungsgruppen zusammen, mit dem Ziel, den internen Dialog zu fördern, eine einheitliche Kommunikation nach aussen zu pflegen und als Dach und Single Point of Contact für alle, die sich an der UniBE mit der KI-Thematik befassen oder an der Universität Bern nach entsprechenden Informationen suchen, zu dienen.