Die Unis müssen abwägen: Welche Aufgaben sollen Studiere üben und welche an KIs delegieren?

Die KI schreibt, die Lehre zögert

Dozierende und Studierende sollten sich mit KI-Tools auseinandersetzen, finden die ETH und die Uni Zürich. Der kritische Umgang sei wichtig. Doch eine ausgeklügelte Strategie fehlt, besonders an der Uni.

Kai Vogt (Text) und Mara Schneider (Illustration)
25. Februar 2024

«Wer hat die Seminararbeit geschrieben? ChatGPT. Und wer hat sie korrigiert? ChatGPT.» Das klingt absurd, unvorstellbar ist diese Situation aber nicht. Wer an einer Hochschule studiert, hat sich höchstwahrscheinlich schon von KI-Tools helfen lassen. Gleichzeitig spielt künstliche Intelligenz bei der Bewertung von Leistungsnachweisen eine immer wichtigere Rolle. Man könnte fast meinen, Studierende und Dozierende machen sich selbst obsolet. Natürlich nicht, oder?

Apokalyptische oder kulturpessimistische Stimmen schreiben der neuen Technologie oft übermässige Macht zu, was den Hype nur verstärkt und letztendlich den Chefs der Big-Tech-Firmen in die Karten spielt. Solche Übertreibungen sind also heikel, doch eines lässt sich nicht bestreiten: KI-Technologien werden Bildung und Forschung fundamental verändern.

Uni weiss nicht, wie Studierende KI nutzen

Gemäss einer Umfrage an der Zürcher Hochschule für Angewandte Wissenschaften liessen sich bereits rund zwei Drittel der befragten Studierenden bei der Bachelorarbeit von künstlicher Intelligenz unterstützen. Auch an der ETH gibt es keine Berührungsängste. Ein Grossteil der Studierenden würde die «potenziellen Vorteile zur Verbesserung ihrer akademischen und beruflichen Bemühungen erkennen», wie eine Umfrage mit 4800 Teilnehmenden ergab. Die Uni Zürich hat es bisher versäumt, ihre Studierenden zur Nutzung von KI-Tools zu befragen, das wird im kommenden Frühlingssemester nachgeholt. Dabei gehe es auch darum zu erheben, ob die Studierenden ein spezifisches Kursangebot zum Thema wünschen, so Alexandra Jansky, Teamleiterin «Innovation and Digital Education» an der Uni Zürich.

Es ist ein verregneter Tag in den Semesterferien, das Büro der Abteilung Lehrentwicklung der Uni Zürich am Hirschengraben wirkt ruhig, gar verschlafen. Neben Jansky sitzt Thomas Hidber, der Abteilungsleiter. Er rutscht auf seinem Stuhl nach vorne und wählt mahnende Worte: «Ich glaube, es ist vielen noch nicht klar, wie disruptiv künstliche Intelligenz ist.» Wenn man sich an der Uni der Auseinandersetzung verweigere, käme in fünf Jahren das böse Erwachen. Hidber versucht, mit seiner Abteilung gegenzusteuern, indem sie Dozierende der Uni in der Anwendung von KI-Tools beraten. Er wiederholt an diesem Morgen einen Punkt wie ein Mantra: Sowohl die Studierenden als auch die Dozierenden müssten sich mit künstlicher Intelligenz befassen, lernen, damit umzugehen und sich einen kritischen Blick antrainieren. Geschieht das denn schon? Den Überblick zu wahren, sei schwierig, so Hidber, es komme auf die Fakultäten und die Studienprogramme an.

Schummeln leicht gemacht

Richtlinien für den Umgang mit generativer KI hat die Unileitung letzten Sommer verabschiedet und am Tag vor Vorlesungsbeginn an die Dozierenden verschickt. Viel Zeit, diese umzusetzen, gab es also nicht. Darin wird hervorgehoben, dass für die Erstellung konkreter Richtlinien die Fakultäten und die einzelnen Studienprogrammdirektor*innen zuständig sind. Ebenso sei von ihnen das Thema generative KI auf «ganzheitlicher curricularer Ebene zu reflektieren und nötige Massnahmen abzuleiten». Dazu wurden sechs Leitfragen formuliert und die Eigenständigkeitserklärung zur Absicherung einer korrekten Quellenangabe empfohlen. Dieser allgemeine Rahmen soll den Fachrichtungen Experimentierfreiheit und das Aufsetzen eigener Richtlinien erlauben: «Bei gewissen Fächern geht es mehr um das Coden, bei gewissen um Bildproduktion und bei gewissen mehr um den Text», so Hidber.

Auf Nachfrage bei den Fakultäten zeigt sich, dass grosse Unterschiede in der Auseinandersetzung mit KI bestehen. Hinterher hinkt etwa die Theologische und Religionswissenschaftliche Fakultät, die noch keine eigenen Richtlinien veröffentlicht hat, mit der Begründung, «es sorgfältig und rechtssicher» machen zu wollen. Und auch die Rechtswissenschaftliche Fakultät liess sich bis anhin Zeit. Zudem sind Dozierende unterschiedlich motiviert, KI in der Lehre einzusetzen oder zu thematisieren, wie ein Dozent der Philosophischen Fakultät der ZS erzählt. Es ist somit anzunehmen, dass die AI-Literacy, also die Kompetenzen im Verwenden der KI-Technologien, bisher je nach Fakultät oder Studiengang sehr unterschiedlich gefördert wird.

Ein kritischer Umgang ist besonders beim wissenschaftlichen Schreiben relevant: Programme wie ChatGPT haben zwar nur sehr beschränkten Zugang zu wissenschaftlichen Quellen, können aber den Schreibprozess enorm vereinfachen, indem sie einen Textaufbau vorschlagen oder Einleitungen und Fazits verfassen. Die Mathematisch-naturwissenschaftliche Fakultät hat deswegen entschieden, die Sprachqualität einer Arbeit bei der Bewertung künftig weniger zu gewichten. Fakultäten, die stärker auf Sprache fokussieren, setzen auf die Deklarationspflicht und Eigenverantwortung. Eine Plagiatssoftware, welche KI-geschriebene Texte verlässlich erkennt, gibt es bisher weder an der Uni noch an der ETH. Wer also schummelt, kann nicht so leicht auffliegen. Wird bald gar nicht mehr geschrieben?

Sprachlich stark, wissenschaftlich schwach

Noah Bubenhofer, Sprachwissenschaftler der Uni Zürich, sieht keine Gefahr für die Sprachkompetenzen der Studierenden. «Die Textarbeit ist zum Beispiel in der Philologie sehr wichtig. Dafür kann man KI-Tools gut nutzen, etwa indem Routineaufgaben abgegeben werden können oder die KI genutzt wird, um sich über den Text auszutauschen. Aber ich brauche dennoch die Kompetenz, einen Text zu einem guten Text zu machen.» Bubenhofer vergleicht den KI-Hype gerne mit der Einführung des Computers am Arbeitsplatz, als auch die Angst vor Kompetenzverlust aufkam, etwa wegen der automatischen Orthographie- und Grammatikkontrolle. Vielleicht hätte sich unsere Rechtschreibung sogar verschlechtert, sagt Bubenhofer, doch das Schreiben wandle sich. Die Angst, dass die Sprache verkümmert, sei berechtigt, wenn man davon ausgehe, dass der Maschine Schreibaufgaben blind überlassen werden. «In Tat und Wahrheit ist es aber so, dass man in Interaktion mit der Maschine einen Text verfasst.»

Damit Studierende die Grenzen von Chatbots wie ChatGPT erkennen und einen kritischen Umgang erlernen, integrieren schon einige Dozierende die Technologie ins Curriculum. Thomas Kurer, Politikwissenschaftler an der Uni Zürich, erlaubte seinen Seminarteilnehmer*innen, den abschliessenden Essay mit ChatGPT zu schreiben. Ihre Aufgabe war es, durch Prompten einen guten Rohtext zu erhalten und diesen manuell zu verbessern und mit Quellenangaben anzureichern. Zudem sollten die Studierenden den Arbeitsprozess reflektieren.

Bei neuen Technologien sei es wichtig, herauszufinden, was sie können und was nicht, sagt Kurer. «Grundsätzlich glaube ich, dass ChatGPT grosses Potential hat und unsere Arbeitsweise stark beeinflussen wird. Bei den eingereichten Texten merkt man aber, dass das Programm noch sehr begrenzte Möglichkeiten beim Schreiben eines wissenschaftlichen Essays hat. Sprachlich klingt es zwar oft sehr gut, doch die wissenschaftliche Fundierung ist schwach und es bleibt eher oberflächlich.»

Bisher zählt der Politikwissenschaftler noch zu den Vorreitern, die KI-Tools aktiv in ihre Kurse integrieren. Und das, obwohl die Lehrentwicklung die Website «Teaching Tools» betreibt, wo Tipps zu finden sind, wie AI-­Literacy im Unterricht gefördert werden kann. «Vielleicht liegt es auch an der Kommunikation», sagt Jansky. Umso pointierter äussern sich Jansky und Hidber im Gespräch am Hirschengraben. Sie sind sich sicher, dass schriftliche Arbeiten allein nicht mehr zeitgemäss sind. Wer zum Beispiel eine Masterarbeit schreibt, solle diese in Zukunft auch mündlich verteidigen müssen. Generell brauche es mehr mündliche Prüfungen und eine engere Begleitung durch die Dozierenden bei Arbeiten, um die Lernkurve besser beurteilen zu können. Bei solchen Prozessen unterstütze die Abteilung Lehrentwicklung gerne, jedoch mache sie keine Vorgaben.

ETH bastelt eigenen Chatbot für Studis

Die ETH ist in puncto künstliche Intelligenz und Lehre schon einen Schritt weiter als die Uni Zürich. Das Rektorat hat bereits mehrere Studien durchgeführt, die unter anderem zeigen, dass ChatGPT viele der Konzepte eines Einführungskurses in Physik meistert und handgeschriebene Physikprüfungsaufgaben ähnlich wie ein Mensch benoten könnte. Von ChatGPT gelöst und von ChatGPT korrigiert also? Nicht ganz, denn der Mensch ist immer die letzte Instanz bei der Benotung, und auch in der Zukunft werden viele Prüfungen mit höchstens einem Taschenrechner als Hilfsmittel durchgeführt.

Zurzeit finden erste Arbeiten an einer ETH-eigenen KI statt, welche die Studierenden beim Lernen unterstützen soll. Dafür werden Dozierende eingeladen, Kursinformationen, etwa Skripte, Übungszettel und Vorlesungsaufzeichnungen, dem Projekt zur Verfügung zu stellen. Ziel ist es, den Studierenden einen Chatbot zu bieten, der weniger problematische Bias rezipiert und nichts erfindet, sondern auf Kurse zugeschnittene Antworten liefert. Zur Sicherheit werden alle Daten in der Schweiz gespeichert.

Das Experiment sei auf Wunsch der Studierenden entstanden, sagt der Physiker Gerd Kortemeyer, der die Initiative leitet. Kortemeyer ist seit diesem Januar direkt dem ETH-Rektor unterstellt und kümmert sich um KI-Projekte mit Fokus auf die Lehre. Bei «Ethel» gehe es auch um Gleichstellung. Das Projekt solle die Barrierefreiheit fördern, die Benutzung werde kostenfrei sein. «Nicht alle können sich monatlich für 20 Franken GPT-4 leisten.» Der neue Chatbot wurde anfangs Semester mit den Daten von zwei Fächern veröffentlicht und soll laufend ausgebaut werden. Grundsätzlich plädiert Kortemeyer stark dafür, neue KI-Tools während des Studiums zu benutzen. «Wenn man ins Berufsleben einsteigt, wird erwartet, dass man mit diesen Tools umgehen kann. Und wenn wir jetzt hier im Elfenbeintürmchen sagen: ‘Ne, so was machen wir nicht', tun wir unseren Studierenden keinen guten Dienst.»

«Klassische Bildungsziele werden wichtiger»

Manchmal wird generative KI mit einem Taschenrechner verglichen. Diese werden in Schulen erst erlaubt, wenn bereits mathematische Grundkenntnisse erworben wurden. Erst danach werden «höhere» Aufgaben gestellt, wo zum Beispiel nicht mehr von Hand eine Wurzel gezogen werden muss. Im besten Fall bleibt dieses Wissen erhalten, langfristig ist es aber nicht zentral – viel wichtiger ist, wie man den Taschenrechner richtig bedient und komplexere Aufgaben löst. Auch ChatGPT kann leichte Aufgaben übernehmen und mehr Zeit für Interessantes schaffen, beispielsweise muss die Syntax einer Programmiersprache nicht mehr perfekt ausgeschrieben werden, dafür kann man sich dem Kreieren von Algorithmen zuwenden. Die Frage, die sich hier stellt, ist: Welche Aufgaben wollen wir an die KI delegieren, mit der Gefahr, dass wir damit Fähigkeiten verlernen oder gar nicht lernen? Es klingt, also könne hier eine bewusste Entscheidung getroffen werden.

«Die Bildung muss das Ziel haben, dass wir souverän bleiben und uns nicht zum Objekt künstlicher Intelligenz machen»
Thomas Hidber, Abteilungsleiter Lehrentwicklung Uni Zürich

Gespräche der ZS mit mehreren Studierenden verraten, dass viele KI-Tools mittlerweile aus Angst nutzen, ohne sie schlechter zu sein. Wer in einer Fremdsprache unsicher ist, greift schnell auf DeepL zurück, wer seiner Wortgewandheit misstraut, lässt sich von einer KI-Schreibassistenz helfen, und wer beim Programmieren nicht vorwärts kommt, holt sich Hilfe bei den Chatbots. Hier tut sich ein Dilemma auf: Die Universität möchte, dass die Studierenden Programme benutzen, um keinen Nachteil auf dem Arbeitsmarkt zu haben. Gleichzeitig könnten wertvolle Fähigkeiten verloren gehen. «Ab einem gewissen Punkt ist es eben auch die Verantwortung der Studierenden und nicht nur der Universität», findet Alexandra Jansky.

Draussen regnet es immer noch, der Kaffee ist ausgetrunken, Herr Hidber nimmt noch einen letzten Schluck aus der Plastikflasche und setzt an: «In Zukunft werden die klassischen Bildungsziele der Universität noch wichtiger, als sie es sowieso schon sind, kritisches Denken und überblicken können, ob etwas sinnvoll, stimmig, und plausibel ist.» Und er rückt nochmals vor auf seinem Stuhl: «Die Bildung muss das Ziel haben, dass wir souverän bleiben und uns nicht zum Objekt der künstlichen Intelligenz machen.» Die Worte hallen nach. Und trotzdem bleibt die Frage, wer nun garantiert, dass dieses Ziel erreicht wird. Die Verantwortlichkeiten scheinen ungeklärt, und die technologische Entwicklung rennt davon.