Schreibt die Künstliche Intelligenz künftig meine Texte?

Auch im Schreibzentrum an der Goethe-Universität wappnet man sich bereits für den Einsatz von ChatGPT: Experimentieren, nicht verbieten, lautet die Devise von Leiterin Dr. Nora Hoffmann und ihrem Wissenschaftlichen Mitarbeiter Alexander Kaib.

UniReport: ChatGPT ist spätestens seit Anfang des Jahres ein großes Thema für den Wissenschafts- und Bildungsbereich; wie schauen Sie als Schreibzentrum darauf?

Nora Hoffmann: Uns stört ein wenig die Panikmache, nach der Studierende künftig selbst keine Hausarbeiten mehr schreiben, nur noch betrügen. Das wäre aber eine unpassende Unterstellung – Studierende sehen vielfach durchaus den Nutzen des eigenen Schreibens zur Entwicklung eigener Gedanken und Argumentation. Die Idee, ChatGPT verbieten zu wollen, wäre zudem überhaupt nicht umsetzbar. Man könnte ja noch nicht mal nachweisen, ob der Bot bei der Erstellung eines Textes verwendet wurde. Natürlich besteht dieses Betrugsrisiko, aber auf der anderen Seite sollte es viel stärker darum gehen, dass dieses Programm uns auch neue Chancen eröffnet. Es wäre also sinnvoll, Studierende sowohl über die Grenzen bzw. Gefahren als auch über die Chancen zu informieren, sie ausprobieren und experimentieren zu lassen. Sie werden nämlich sicherlich im beruflichen Kontext künftig mit verschiedenen Formen von KI umgehen können müssen. KI-Literacy ist darüber hinaus eine Kompetenz, die sie für den wissenschaftlichen Bereich erlernen müssen, so, wie wir auch erwarten, dass sie beispielsweise mit Textverarbeitungsoder Literaturverwaltungsprogrammen umgehen können. Sie damit allein zu lassen, wäre daher falsch.

Alexander Kaib: Für uns ist auch interessant, ChatGPT schreibwissenschaftlich und -didaktisch zu erforschen. Darüber weiß man bislang noch zu wenig. Die Frage, die ich mir stelle: Vermindert der Einsatz des Bots die Kreativität beim Schreiben oder verstärkt er sie sogar? Hilft er einem dabei, schnell auf neue Ideen zu kommen, wenn man sich z.B. Texte vorschlagen lässt, die ändert und überarbeitet? Oder werden umgekehrt die eigenen Ideen in bestimmte Bahnen gelenkt und man ist dadurch weniger kreativ? Ich kann mir beides vorstellen. Aus dieser Unentschiedenheit leitet sich unser wichtigster Ratschlag ab: Man sollte es mit Studierenden ausprobieren, schauen, wo es einem weiterhilft, mit Neugierde rangehen…

Haben Sie bereits Erfahrungswerte, wer überhaupt damit arbeitet?

Kaib: Bisher liegen uns nur Anekdoten von Tutor*innen und Workshop-Teilnehmenden vor. Da ist alles vertreten: Manche haben noch gar keine Erfahrungen damit gemacht, einige schauen kritisch drauf. Viele nutzen ChatGPT beim Schreiben auf Englisch. Eine Teilnehmerin berichtete davon, dass sie sich mit Erfolg die Gliederung ihrer Arbeit erstellen ließ. In technisch-naturwissenschaftlichen Fächern soll der Einsatz weiter verbreitet sein.

Betrifft es Geistes- und Naturwissenschaftler gleichermaßen, oder muss das eher fächerspezifisch beantwortet werden?

Kaib: Ich denke, dass in naturwissenschaftlichen Fächern Texte insgesamt oft stärker musterhaft sind: Protokolle und Forschungsartikel haben meist eine klar vorgegebene Struktur. Da KIs besonders gut darin sind, musterhafte Texte zu erzeugen, könnte ich mir verstärkten Einsatz in den NaWis vorstellen. Außerdem wird in Fächern, wo man bis in die höheren Semester eher Klausuren schreibt, das Schreiben ohnehin teilweise als weniger wichtig angesehen. In den Geisteswissenschaften werden hingegen viele Hausarbeiten geschrieben, an die je nach Dozent*in andere Anforderungen gestellt werden, somit gibt es auch weniger konventionelle Muster, die leicht von der KI reproduziert werden können. Der allgemeine Tipp lautet aber: Man sollte ChatGPT in allen Fächern ausprobieren, die Studierende aber immer mit einbeziehen.

Hoffmann: Natur- und Sozialwissenschaften arbeiten sehr viel mit Daten, während Geisteswissenschaften im Prinzip basierend auf Texten Texte schreiben; somit könnte die Gefahr in den Geisteswissenschaften größer erscheinen, die gesamte Textproduktion über einen Bot abzuwickeln. Das ist vielleicht auch ein Grund dafür, dass die geisteswissenschaftlichen Fächer insgesamt kritischer auf das Tool schauen.

Der Ökonom Prof. Walz sagte im Interview mit dem UniReport, dass es keinen Sinn mache, Studierende reproduzierende Texte schreiben zu lassen; stattdessen sollten sie lieber lernen, kreative Texte zu schreiben. Wussten Universitäten vor dem Auftauchen der Künstlichen Intelligenz eigentlich, warum Schreiben und das Erlernen der Schreibkompetenz so wichtig ist?

Hoffmann: Eine ähnliche Entwicklung hatten wir mit E-Learning in der Pandemie: Plötzlich mussten die Dozierenden sich viel stärker als früher überlegen, was sie mit ihrer Lehre erreichen und wie sie sie entsprechend didaktisch gestalten möchten. Mit ChatGPT wird man wieder auf die Grundlagen geworfen: Studierende sollen in einer Hausarbeit ein Thema selbstständig durchdenken und reflektieren, eigene Ideen entwickeln. Das wurde aber vielleicht früher nicht von allen Dozierenden so explizit als Ziel vermittelt und methodisch angeleitet, von den Studis nicht so angenommen, denn der Fokus lag stärker auf dem (zu benotenden) Textprodukt als auf dem Entstehungs- und Schreibprozess. Nun gewinnt der Blick auf diesen Prozess wieder an Bedeutung, da wir uns fragen müssen: Was sollte der Mensch schreiben können, was könnte vielleicht auch die Maschine übernehmen?

Kaib: Dazu kommt: Auch reproduzierende Texte, die von ChatGPT geschrieben werden könnten, sind oftmals für studentische Lernprozesse wichtig. Eine Vorlesung in eigenen Worten zusammenzufassen ist z.B. etwas ganz anderes, als sich eine KI-generierte Zusammenfassung durchzulesen.

In den Videos des Schreibzentrums wird unter anderem über die verschiedenen Stufen des wissenschaftlichen Schreibprozesses gesprochen; eine Stufe besteht darin, dass man mehrfach über den geschriebenen Text geht und sich redaktionell und selbstkritisch damit auseinandersetzt. Wenn ich einen Text künstlich erstellen lasse, würde es sich dann um eine ähnliche Auseinandersetzung mit dem Geschriebenen handeln?

Kaib: Ja, durchaus vorstellbar. Aber ich bin mir nicht sicher, ob diese Erstellung einer Rohfassung durch den Bot nicht das Denken einschränkt. Denn auch schon beim ersten Entwurf fließen Ideen ein und entwickeln sich während der Niederschrift weiter. Wenn ich hingegen einen halbwegs fertigen Text vor mir habe, ist das vielleicht schon zu spät.

Hoffmann: Grundsätzlich kann man schon sagen, dass ChatGPT keine wirklich originellen und kreativen Texte ausspucken wird, ganz zu schweigen von neuen wissenschaftlichen Erkenntnissen, sondern eher Dinge, die breiter Konsens sind. Und dann besteht bislang ja auch noch die Gefahr inhaltlicher Fehler oder Bias. Eine Rohfassung von ChatGPT erstellen zu lassen, bietet damit auch einige Fallstricke, da möglicherweise gedankliche Tiefe genommen wird oder man auf problematische Wege geleitet wird.

Kaib: Man könnte vielleicht formelhaft sagen: Eine Rohfassung von ChatGPT drückt unoriginelle Ideen klar aus, während menschliche Rohfassungen originelle Ideen unklar ausdrücken – das ist vielleicht der basale Unterschied.

Hoffmann: Umgekehrt könnte es schon Sinn ergeben, meinen eigenen, vielleicht noch nicht gut ausformulierten Text durch ChatGPT sprachlich weiterentwickeln zu lassen oder mir eine Rückmeldung dazu durch ChatGPT einzuholen. Immerhin wäre diese Art von Feedback besser als gar kein Feedback, wenn man nicht auf menschliche Feedbackgebende zurückgreifen kann. Wichtig ist aber, von ChatGPT erhaltene Texte – sei es ein Textfeedback oder eine sprachlich-stilistische Änderung meiner Textvorlage – anschließend unbedingt noch einmal kritisch zu überprüfen, ob man selbst hinter diesem Text stehen kann.

Kaib: Ich lese oft in studentischen Hausarbeiten Textteile, die zu lang sind, die könnte man sich z. B. von ChatGPT zusammenfassen lassen und auf der Grundlage über Kürzungen nachdenken.

Hoffmann: Es gibt auch eine didaktische Position, die ganz radikal Studierenden ohne Einschränkungen alle Hilfsmittel geben möchte, ohne dass diese das noch angeben müssen. Sie sollen, so die Idee, am Ende die Verantwortung für den Text übernehmen, für die Übereinstimmung des Geschriebenen mit der Aussageabsicht der Studierenden. Aber damit ließe man die Studis allein, ich wäre nicht dafür. Wir haben als Schreibzentrum eine Handreichung für Lehrende zum Thema ChatGPT entwickelt; im Sommersemester bieten wir dazu auch seminarintegrierte Trainings an: Wir besprechen vorab mit Dozierenden die Schreibaufgaben, die sie im Seminar unter Einbindung von ChatGPT stellen wollen, und unterstützen dann im Gespräch mit Studis durch Hintergrundinformationen zur Funktionsweise und Reflexionsanregungen.

Was wäre denn ein praktisches Beispiel für den Einsatz von ChatGPT im Seminar?

Kaib: Ich würde das Seminar in mehrere Gruppen aufteilen: Jede erstellt mit ChatGPT eine andere Textsorte, z.B. eine Zusammenfassung, Stellungnahme, Reflexion. Dann analysiert man die entstandenen Texte etwa auf Inhalt, Aufbau und Sprache. Zusätzlich hat man eine Art von Kontrollgruppe, die die genannten Textsorten ohne KI-Hilfe erstellt. Darüber lässt sich gut ins Gespräch kommen.

Auch der rechtliche Rahmen im Umgang mit ChatGPT beschäftigt sowohl die Dozierenden als auch die Studierenden – und natürlich auch die Institutionen.

Hoffmann: Man merkt gerade eine große Unsicherheit. Auch wir im Schreibzentrum warten noch darauf, welche rechtlichen Regelungen die GU dazu ergreifen wird. Im Rahmen des Projekts KI:edu.nrw wurde nun gerade ein Rechtsgutachten für NRW erstellt, wie man mit Schreib-KIs im Studium umgehen kann. Das wird sicherlich auch für Hessen sehr nützlich sein. Was wir ziemlich schnell brauchen werden, sind hochschulspezifische Vorgaben für Eigenständigkeitserklärungen und Prüfungsordnungen. Auf deren Basis könnten Lehrende dann fach- und aufgabenspezifisch entscheiden, in welcher Form ihre Studierenden KI-Tools einbeziehen sollen. Zu bedenken ist zudem, dass die in ChatGPT eingespeisten Texte und Daten in den USA landen. Man kann die Studierenden zwar anregen, mit dem Programm zu arbeiten, sie aber nicht dazu verpflichten.

Kaib: Besonders die Eingabe von studentischen Texten ohne explizite Erlaubnis, z.B. um Feedback zu generieren, verletzt dem Gutachten zufolge das Urheberrecht der Studierenden. Generell ist nach wie vor nicht geklärt, wie es mit den Textkorpora aussieht, die verwendet wurden, um die Bots zu füttern.

Wir benutzen heute ganz selbstverständlich Textkorrekturprogramme bis hin zu Übersetzungsprogrammen wie DeepL. Wie hat man sich angesichts solcher rasanter Entwicklungen das Schreiben in 100 Jahren vorzustellen?

Kaib: Eine solche Prognose anzustellen, wäre etwas schwierig (lacht). Man kann grundsätzlich sagen: Was all‘ diese Tools gemeinsam haben, ist, dass sie unseren Umgang mit Informationen verändern. Sie wurden trainiert mit riesigen Textkorpora, die Menschen in ihrer gesamten Lebenszeit nicht lesen könnten. Sie bauen daraus Anwendungen für uns zu bestimmten Zwecken und agieren damit in gewisser Weise als Redakteure, Vermittler und auch Zensoren zwischen den Originalquellen und dem, was wir daraus machen. Wollen wir aber das? Eine maschinelle Instanz, die etwas verändert, was wir nicht nachvollziehen können?

Fragen: Dirk Frank

Mehr zu den Aktivitäten des Schreibzentrums bezüglich ChatGPT im Schreibzentrum der Goethe-Universität.

Relevante Artikel

Ganzheitliche Lösungen für die Nutzenden

Im Gespräch: Dr. Yves Vincent Grossmann, seit März 2024 Leiter Forschungsdatenmanagement (FDM) und Bibliothek Naturwissenschaften (BNat) an der Universitätsbibliothek UniReport:

Öffentliche Veranstaltungen

You cannot copy content of this page