Fragen an den Rechtswissenschaftler Christoph Burchard zur Konferenz »Wie können wir Algorithmen vertrauen?«
Vom 19. bis 21. September fand im Forschungskolleg Humanwissenschaften die bereits dritte Bad Homburg Conference statt. Die Konferenz zum Thema Künstliche Intelligenz brachte Perspektiven aus verschiedenen wissenschaftlichen Disziplinen und der Praxis zusammen. Referentinnen und Referenten u. a. aus Informatik, Rechtswissenschaft, Medizin, Philosophie und Hirnforschung diskutierten mit Vertretern der gesellschaftlichen Praxis:
Unternehmern, Industrievertretern, einem Kriminalhauptkommissar des Landeskriminalamts Hessen und einer Bürgerrechtsaktivistin und Politikberaterin aus den USA. Begrüßt wurden die Teilnehmer von Forschungskolleg- Direktor Prof. Dr. Matthias Lutz-Bachmann, der Vizepräsidentin der Goethe-Universität, Prof. Dr. Simone Fulda, dem Bürgermeister der Stadt Bad Homburg, Meinhard Matern, sowie der Hessischen Ministerin für Digitale Strategie und Entwicklung, Prof. Dr. Kristina Sinemus. Der Abschlusskommentar kam von Christoph Burchard, Professor für Straf- und Strafprozessrecht, Internationales und Europäisches Strafrecht, Rechtsvergleichung und Rechtstheorie an der Goethe-Universität. Der UniReport hatte Gelegenheit, mit Christoph Burchard nach der Konferenz zu sprechen.
UniReport: Herr Professor Burchard, wie lautet Ihr Fazit der Konferenz? Wurde das Thema sehr kontrovers verhandelt?
Burchard: Zuerst einmal muss man feststellen, dass sich aus Sicht der Goethe-Universität auf der Konferenz eine sehr fruchtbare inter- und transdisziplinäre Zusammenarbeit herauskristallisierte zwischen dem Forschungskolleg Humanwissenschaften, dem FIAS, dem Cluster „Die Herausbildung normativer Ordnungen“ sowie weiteren Forscherinnen und Forschern. Die Konferenz hat eine sehr große Resonanz erfahren sowohl seitens der Fachwelt als auch interessierter Bürgerinnen und Bürger. Im Auditorium hat wohl insgesamt die kritische Sicht auf Künstliche Intelligenz dominiert, auf dem Podium war es eher ausgeglichen. Ich denke, dass Künstliche Intelligenz grundsätzlich Chancen und Risiken birgt, man sollte versuchen, beides im Auge zu behalten.
An der Konferenz beteiligt waren auch Praktiker aus den Bereich Kreditwesen, Pharma und Polizeiarbeit. Steht Praxis für eine anwendungsorientierte, positive Sichtweise auf Künstliche Intelligenz?
Insgesamt trifft das tendenziell zu. Insbesondere diejenigen, die in Form eines Start-ups auf die neuen Technologien setzen, sehen eher die Chancen der KI im Hinblick auf eine Effizienzsteigerung in der Produktion und im Service. Es gab aber durchaus auch vonseiten der IT die Tendenz, etwas auf die Bremse treten zu wollen; man solle sich nicht zu sehr von Heilsversprechen leiten lassen.
Welche Gefahren oder auch Chancen wurden genannt, können Sie ein paar Beispiele aus der Diskussion nennen?
Wichtig scheint zunächst, zwischen verschiedenen Sektoren abzugrenzen. Im Bereich der industriellen Prozessoptimierung mag die Sachlage anders sein als bei der Polizeiarbeit. Durchaus kontrovers wurde der Bereich der Finanzbranche diskutiert: Können wir mit den Daten, die dort zur Verfügung stehen, Bankkunden helfen, ihr Kapital besser zu verwalten? Das wurde von einigen bejaht. Man könne Kundendaten systematisch auswerten, um dann z. B. Warnmails oder -SMS zu schicken, damit der Kunde nicht noch mehr Geld falsch investiert. Andere Teilnehmer fanden das wiederum erschreckend, wie weit in die Privatsphäre von Kunden eingegriffen werde. Generell gilt: Damit KI-Applikationen laufen, benötigt man Daten, die man sammeln, erheben oder weiterverwenden muss. Im Bereich der öffentlichen Sicherheit kann dies, wie uns Kolleginnen und Kollegen aus den USA berichtet haben, zu bedrohlichen Formen der Überwachung, gleichsam der Herausbildung einer Überwachungsgesellschaft, führen. Es braucht, so ein Tenor der Diskussion, ein europäisches, wertegeleitetes KI-Modell, das sich in den Systemwettbewerb mit dem chinesischen und dem kapitalistisch-neoliberalen US-KI-Modell begibt.
Das Thema lädt ja dazu ein, über grundsätzliche Konzepte des gesellschaftlichen Zusammenlebens zu diskutieren.
Ja, auf dem Abschlusspanel gab es dazu eine schöne Auseinandersetzung: Chris Boos, ein international hoch angesehener Gründer und CEO eines Frankfurter KI-Unternehmens, sieht etwa den Übergang in ein fundamental neues Wirtschaftssystem vor der Tür stehend, in dem bis dato von Menschen wahrgenommene Tätigkeiten von Maschinen übernommen werden. Dies, so Boos, gebe den Menschen die notwendigen Freiräume, ihre Fähigkeiten anders und besser einzusetzen. Darauf kam dann von dem renommierten Hirnforscher Prof. Wolf Singer die Entgegnung: Es sei doch wissenschaftlich noch gar nicht erforscht, was Menschen machen, wenn sie diese Freiräume haben. Daran zeigt sich, dass wir bei diesen grundlegenden Fragen ansetzen müssten: Was brauchen Menschen, um glücklich zu werden? Und was braucht die Gesellschaft, um gerechter zu werden? Brauchen wir etwa ein gesundes Maß an zwischenmenschlichem Vertrauen, um sozial interagieren zu können, oder sollen menschliche Interaktionen algorithmisch gesteuert werden? Ist der Andere also als Mitmensch oder Bürger zu denken – oder als Gefährder, den es algorithmisch zu überwachen gilt? Das klingt dystopisch, aber solche Entwicklungen kann man wohl in China beobachten. Insgesamt geht es damit um das richtige und gerechte Maß zwischen Freiheit und Sicherheit und wer dieses wie herzustellen hat.
Die Fragen stellte Dirk Frank
Fotos, Dokumente und Videomitschnitte zur Konferenz unter www.forschungskolleghumanwissenschaften. de
Dieser Artikel ist in der Ausgabe 5.19 des UniReport erschienen.