Die Arbeitsgruppe Generative KI erforscht die Folgen von KI für die Goethe-Universität. Die beiden studiumdigitale-Mitarbeiter*innen der AG Julia Schmitt und Dr. David Weiß, der zugleich auch der Leiter der AG ist, geben Auskunft darüber, warum Technologie-Ausrollen allein nicht reicht und es wichtig ist, im KI-Hype nicht die Ruhe zu verlieren.
UniReport: »Nicht verbieten, sondern experimentieren!«, hat Nora Hoffmann, Leiterin der GU-Schreibwerkstatt, zum Umgang mit ChatGTP kurz nach dessen Veröffentlichung empfohlen. Ist das auch die Haltung, mit der die AG Generative KI gegründet worden ist?
Dr. David Weiß: Ja, diese Kernaussage war das Wichtigste am Anfang unserer AG. Sie hat für alle Lehrenden Klarheit geschaffen, wie die Goethe-Uni zu dem Thema steht. Bei anderen hessischen Universitäten gab es nämlich durchaus erst mal Zurückhaltung oder auch Einwände.
Julia Schmitt: Wir gingen davon aus: Die KI, die da ist, wird so oder so genutzt werden. Deswegen wurde auf Initiative von Frau Professorin Thompson, der Vizepräsidentin für Studium und Lehre, die AG KI ins Leben gerufen – und zwar aus unterschiedlichen Fachdisziplinen und Statusgruppen.
Weiß: Im ersten Schritt haben wir eine Handreichung für Lehrende und für Studierende verfasst. Dabei haben wir versucht, die Ängste und Vorbehalte bei den Lehrenden oder Studierenden aufzugreifen. Kann ich KI in meiner Abschlussarbeit verwenden? Wenn ja, unter welchen Bedingungen? Das sind Fragen unter den Studierenden. Und die Lehrenden fragen etwa: Kann ich KI auch verbieten, wenn es etwa sinnvoll ist, dass Studierende Dinge von sich aus heraus entwickeln?
Schmitt: Die Handreichung, die dann im September 2023 online gegangen ist, wurde vom Hochschulforum für Digitalisierung (der bundesweite Think-&-Do-Tank ist eine gemeinsame Initiative des Stifterverbandes, des CHE Centrums für Hochschulentwicklung und der Hochschulrektorenkonferenz (HRK), Red.) übrigens als eines von vier Best-Practice-Beispielen von deutschen Universitäten genannt. Unter anderem auch, weil wir die Empfehlungen explizit auch an die Studierenden adressiert haben.
Wie geht denn die Goethe-Uni bislang mit KI um?
Weiß: Die Zukunft ist eben schon da, aber sie ist halt nicht gleich verteilt. Es gibt ein paar wenige Fachbereiche, die, was KI betrifft, voranschreiten.
Schmitt: Andererseits gibt es Lehrende, die bis jetzt mit dem Thema noch gar nicht viel gemacht haben, dann eine Klausur oder eine Abschlussarbeit lesen und ihnen etwas komisch vorkommt. Der Hauptknackpunkt für die Lehrenden ist also diese Unsicherheit, ob und wie Studierende KI verwenden und ob sie es zulassen sollen. Da sind Lehrende – solange dieses Thema noch europaweit diskutiert wird – im Moment noch ziemlich auf sich gestellt.
Was bedeutet es für die AG, dass Fächer unterschiedlich mit KI umgehen?
Weiß: Auch wenn KI so ein Hype-Thema ist, darf man sich nicht so sehr unter Druck setzen lassen. Alleine mit ChatGPT könnten wir uns Jahre, ja Jahrzehnte austoben, um allen Fragestellungen nachzugehen. Wir gehen bei studiumdigitale nach dem SMS-Prozess vor, also nach dem Verfahren Scouting, Maturing und Service. Wir sind gerade in der Scouting-Phase. Wir versuchen also zunächst, in einer Community mit einem Tool-Lab Best-Practice-Beispiele aufzubauen. In meiner Lehrveranstaltung in der Informatik lasse ich zum Beispiel KI Teil der Lehre werden. Es darf alles genutzt werden, aber es muss eben kommuniziert werden. Wir lassen die Aufgabe einmal mit KI lösen, einmal lösen wir sie alleine und sprechen dann darüber.
Wie waren die ersten Erfahrungen mit der KI – enttäuschend oder inspirierend?
Weiß: In meinem Seminar ist die Erfahrung überwiegend inspirierend, aber manchmal eben auch enttäuschend. Für die Recherche scheint KI ein super Hilfsmittel zu sein: Sie hat nämlich da, wo man noch nicht den Überblick hat, den Kontext eines sehr breiten Themenfelds im Fokus. Gerade in der Forschung gibt es sehr viele Möglichkeiten, neue Zusammenhänge zwischen Arbeiten zu sehen, die vielleicht so vorher nicht da waren.
Funktioniert KI als Sparringspartner im Schreibprozess?
Schmitt: Bei Studierenden ist es ja oft ein Problem, mit einem leeren Blatt zu starten. Mit der KI kann ich im Prinzip erstmal jemanden losschicken, der für mich das Eis bricht. Und im Grunde spielt es auch keine Rolle mehr, in welcher Sprache ich ein Paper bekomme, ich kann es mir direkt übersetzen lassen.
Wie war das in Ihrem Seminar: Wurde auf KI auch mal kritisch draufgeguckt?
Weiß: In meinem Seminar in der Informatik habe ich wahrgenommen, dass mit dem Thema KI tatsächlich insgesamt mehr Austausch stattfindet. Diese Gespräche sind unabhängig davon, was die KI antwortet, Reflexionsprozesse. Da kommt einiges auf den Prüfstand.
Schmitt: Warum wir aber diese Community of Practise aufbauen wollen: Die Verwendung von KI sieht in jedem Fachbereich komplett anders aus. Wir müssen also die Frage, wie sinnvoll der Einsatz von KI ist, mindestens 16 Mal, also in allen Fachbereichen stellen. Viele denken nämlich, KI wirke überall gleich.
Wenn jedes Fach prüfen muss, wo KI sinnvoll ist und wo nicht, dann braucht es Zeit, bis differenzierte Antworten vorliegen.
Weiß: Ja. Denn es geht ja so weit, dass man nicht nur nach der Bedeutung von KI für ein Fach gucken muss, sondern es gibt mittlerweile auch KIs, die ich lokal auf meinem Rechner haben kann. Denen gebe ich nur meine Literatursammlung oder meine Seminaraufzeichnungen ein, um Zusammenfassungen zu bekommen.
Kann ich dann sicher sein, dass meine privaten Dokumente und die Veröffentlichungen von Kollegen, die rechtlich geschützt sind, von der KI nicht weiterverwendet werden?
Weiß: Eben nicht. Da geht es um das Thema Urheberrecht, aber auch um Datenschutz. Aber noch einmal zur Frage, was KI in einzelnen Bereichen bringt … Es kann sein, dass KI tatsächlich auf Ideen kommt, die wir so gar nicht im Überblick haben, weil die KI viel mehr gelesen hat als wir. Es kann aber auch sein, dass es sich tatsächlich nur um einen warmen Aufguss handelt von vielen Dingen, also Antworten, die schon einmal gegeben worden sind.
Hat KI schon lang- und mittelfristig Konsequenzen für Studiengänge?
Weiß: Zum einen entstehen gerade an der Goethe-Universität interdisziplinäre Studiengänge zum Thema KI, etwa aus dem Projekt ALI. Zudem werden sich andere Studiengänge mit ihren Anforderungen anpassen müssen. Da wird sich einiges bewegen. Definitiv.
In Ihren Handreichungen sprechen Sie auch ethische Aspekte an …
Weiß: Darunter fällt natürlich, dass man offenlegt, mit einer KI gearbeitet zu haben.
Schmitt: Es geht aber auch vor allen Dingen um Zugänge zu den Tools. Wer kann denn jetzt auf dieses Tool zugreifen? Wer hat die beste Version? Es geht um Ressourcenverteilung und Zugänglichkeit – mit Folgen für unser Bildungssystem. Unter ethische Aspekte fällt aber auch, dass ältere Literatur, die noch nicht digitalisiert worden ist, nicht abgebildet wird. Was macht also die KI mit unserem Weltverstehen und mit unserem Weltwissen? Eine ethische Frage ist außerdem, inwieweit Frauen oder kleine Gruppen in der Gesellschaft weniger oder gar nicht repräsentiert werden. Ein einfaches Beispiel: Eine Prompting-Strategie ist es, dass man ChatGTP sagt, stell dir vor, du bist ein Informatiker mit 20 Jahren Berufserfahrung. Du hast in JavaScript programmiert. Schreib mir jetzt einen Code zum Thema XY. Dann kriege ich einen Programmcode geliefert. Wenn ich aber eingebe, du bist eine Informatikerin mit 20 Jahren Berufserfahrung, und erfrage dann denselben Programmcode, gibt es schlechtere Ergebnisse, also auf einem einfacheren Niveau.
Egal wie die Fächerkultur ist: Der professionelle und kritische Umgang mit KI gehört dann wohl in jeden Studiengang …
Weiß: Kein Studierender kann sagen, ich will nichts damit zu tun haben. Und für uns gibt es geradezu die Verpflichtung, darin auszubilden – sowohl die Studierenden als auch die Lehrenden. Im Grunde ist das nochmal eine neue Medienkompetenzwelle.
Während Sie ausbilden wollen, entwickelt sich die KI aber immer schon weiter …
Weiß: Das ist ja die Schwierigkeit: Studierenden Prompt-Engineering beizubringen, das sich während dieser Zeit verändert. Außerdem betreiben wir Mitglieder der AG diese Aufgabe ja auch neben unserem Alltagsgeschäft. Der Erfolg der AG wird sich also daran messen, ob wir uns auf ein paar wenige Baustellen konzentrieren, diese technisch, rechtlich und ethisch mal sauber durchexerzieren und einen „Use Case“, also einen repräsentativen Anwendungsfall, hinbekommen. Andere Hochschulen gehen da anders vor, haben zum Teil viel schneller Tools rausgebracht. Und die wurden dann aber nicht angenommen. Man kann also nicht nur die Technologie ausrollen, man muss auf Akzeptanz achten.
Schmitt: Unsere Community of Practice haben wir neuerdings in Form einer Webseite gestaltet. Diese GKI-Webseite ist dafür da, dass man sich als Lehrender und Studierender registrieren kann. In einem etwas fortgeschritteneren Forum werden sich dann Lehrende und ein paar ausgewählte Studierende zu konkreten Tools und konkreten Lernszenarien austauschen können.
Was ist mit den Kosten?
Weiß: Das ist auch noch so eine offene Baustelle. Wir können überhaupt nicht abschätzen, wie sich die Kosten entwickeln. Aber theoretisch kann eine einzige Person, die ihre auf ihrem Rechner abgelegten Texte in eine KI eingibt, dafür sorgen, dass das gesamte Kontingent aufgebraucht wird. Das müssen wir jetzt gut austesten. Am Ende steht dann vielleicht, dass wir Lizenzen für 16 kleine KIs einkaufen, die wir jeweils einem Fachbereich zur Verfügung stellen. Gleichzeitig müssen wir darüber nachdenken, wo wir KI in bestehende Infrastrukturen, in Lernmanagementsysteme integrieren. Und dann müssen wir auch fragen, an welcher Stelle wir vielleicht eigene Modelle auf eigener Hardware anbieten müssen, weil es um hochsensible Daten der Verwaltung geht. Da sind wir mit Herrn Schielein (Chief Information Officer (CIO) der Universität, Red.) im Gespräch.
Zum Thema Nachhaltigkeit: Wie sieht es mit der Ressource Energie aus?
Weiß: Das ist vor allen Dingen ein Thema beim Trainieren dieser Modelle. Diese generischen Modelle, wie es eben ChatGPT auch ist, brauchen tatsächlich enorme Ressourcen. Andererseits ist es erstaunlich, wie schnell es beim Energieverbrauch Fortschritte gibt. Da arbeitet die Zeit ein Stück für uns. Aber auch das ist ein Thema, das wir mit Herrn Schielein besprechen und uns einig sind, auf Cloud-Infrastruktur zuzugreifen. Diese kann große Daten oder große Modelle viel effizienter handhaben. Es geht auch um Rechenzentren, die viel effizienter getrimmt sind als kleine, wie etwa unser Großrechenzentrum „Green Cube“. Auch das CSC (Center for Scientific Computing der Goethe-Universität, Red.) hat Möglichkeiten. Außerdem gibt jetzt auch Bestrebungen des Landes Hessen, Infrastruktur etwa über hessian.AI (The Hessian Center for Artificial Intelligence, Red.) zur Verfügung zu stellen. Mittelfristig werden sich also Knotenpunkte bilden, wo man kurzzeitig viel Rechenpower anmieten kann.
Dann gibt es an der Goethe-Universität noch das C3S, das Center for critical computional studies, das diese digitale Zukunft mit kritischem Bewusstsein begleiten soll …
Weiß: Das C3S ist auch Mitglied in unserer AG, und nach der Anfangsphase stelle ich mir vor, dass wir bestimmte Themen an das C3S übergeben. Und das ist auch gut so. Als Universität müssen wir doch über die Dinge hinausdenken und sagen, wie nächste Schritt aussehen können. Zum Beispiel die Frage, welche Gedanken provoziert KI allein dadurch, dass sie in der Welt ist?
Ist geplant, das die AG für die Forschung des C3S empirische Daten liefert?
Weiß: Ja, die Community of Practice und die Tools könnten qualitativ beforscht und in Richtung Learning Analytics weitergedacht werden. Aber in Gänze ist KI ein Thema, das uns alle betrifft und nur gestemmt werden kann, wenn es von der Universitätsleitung bis hinunter zum letzten Mitarbeiter und zur letzten Mitarbeiterin mitgetragen und mitentwickelt wird.
Fragen: Pia Barth
Die Website der AG Generative KI:
https://gki.studiumdigitale.uni-frankfurt.de/