FRANKFURT Der Juraprofessor Christoph Burchard hat sich einen Fachartikel zum Teil von ChatGPT schreiben lassen. Heraus kam die Definition eines neuen Forschungsfeldes, für das die Goethe-Universität nun ein eigenes Zentrum einrichtet. Im Interview sagt Burchard auch, wie Chatbots die Rechtspflege verändern könnten.

Herr Burchard, Sie haben sich einen Aufsatz für das Fachmagazin „Computer und Recht“ zum Teil von der Künstlichen Intelligenz ChatGPT schreiben lassen. Worum geht es in dem Text?

Der Aufsatz beschäftigt sich mit der Frage, wie der Einsatz von Chatbots wie ChatGPT das Recht und die Rechtspflege verändern könnte. Ein Großteil wurde von ChatGPT erzeugt. Ich habe das Programm zwei Personen erfinden lassen, von denen die eine für den Einsatz von Chatbots argumentiert, die andere dagegen. So ist eine Art Streitgespräch entstanden. Es bildet den ersten Teil des Aufsatzes. Im zweiten Teil reflektiere ich dann selbst über das, was ChatGPT geschrieben hat.

Wie lange hat es gedauert, das virtuelle Streitgespräch zu erzeugen?

Etwa vier bis fünf Stunden.

Wenn Sie den automatisch generierten Block selbst verfasst hätten – wie lange hätten Sie dann gebraucht?

Wenn man tief im Thema eingearbeitet ist, hätte man das ungefähr in der gleichen Zeit hinbekommen. Wenn man sich erst einlesen müsste, würde es deutlich länger brauchen.

Wenn Sie das künstliche Streitgespräch gelesen hätten, ohne zu wissen, wie es entstanden ist – hätten Sie dann gemerkt, dass es aus dem Computer stammt?

Mittlerweile bin ich dafür sensibilisiert, Unterschiede zu erkennen. Wenn ich aber nicht genau hinschauen würde, könnte ich vermutlich auch darauf reinfallen.

Woran kann man erkennen, dass der Text von einer Maschine stammt?

An mancher hölzernen Formulierung. Im Text kommt zum Beispiel der Ausdruck „Rechtsbranche“ vor. Dieser Begriff ist sehr ungewöhnlich. ChatGPT hatte auch den Auftrag, eine Konferenz zu erfinden, auf der das Streitgespräch stattgefunden habe. Als Ort gab das Programm dann „Universität Heidelberg“ an. In einer wissenschaftlichen Publikation hätte man den vollen Namen „Ruprecht-Karls-Universität Heidelberg“ erwartet. Mittlerweile gibt es Bots, die solche minimalen Fehler finden, um eine Künstliche Intelligenz zu identifizieren.

Wie überzeugend finden Sie die Inhalte, die ChatGPT erzeugt hat? Sie schreiben, das Programm habe eine brauchbare Definition eines Forschungsfeldes gegeben, das gerade erst im Entstehen sei – der Critical Computational Studies.

Es ist einerseits faszinierend, andererseits beängstigend, dass etwas generiert werden kann, was durchaus brauchbar ist. Nämlich die Definition eines neuen Forschungsfeldes, die als Ausgangspunkt taugt, an der man weiterarbeiten kann.

Wie hat ChatGPT Critical Computational Studies definiert?

Als kritisch im Sinne eines reflektierten Blicks auf den Umgang mit Algorithmen und Datenverarbeitung sowie die sich ergebenden Konsequenzen für Politik, Recht und Gesellschaft, aber eben auch für die Wissenschaft selbst. Die Frage ist dann, wie diese Felder durch „das Computationale“ gestaltet werden, wie wir Letzteres aber zugleich gestalten können.

Und die Goethe-Uni richtet nun tatsächlich ein Center for Critical Computational Studies ein?

Ja. Ich werde als Gründungssprecher mit einem interdisziplinären Team von Kolleginnen und Kollegen den Aufbau dieses Zentrums in den nächsten Jahren verantworten.

Welche Folgen wird ChatGPT für Ihre Arbeit als Professor haben? Da das Programm ziemlich intelligent wirkende juristische Texte fabriziert, könnten Studenten und Forscher es nutzen, um beim Abfassen von Arbeiten zu betrügen.

Im juristischen Kerngeschäft, der Dogmatik, produziert das System derzeit noch viel Humbug. Vermutlich stammen die Daten, mit denen die Maschine trainiert wurde, überwiegend nicht aus Deutschland und auch nicht aus dem großen Fundus an rechtswissenschaftlichen Texten, Urteilen und Ähnlichem. Es werden oft unpräzise oder schlichtweg erfundene Antworten gegeben. Nichtsdestoweniger muss ein Lehrender sowohl bei Studien- als auch bei Qualifikationsarbeiten damit rechnen, dass solche Systeme zum Einsatz kommen. Die Maschine kann Forschungsstände zusammenfassen, und die Ergebnisse lesen sich auf den ersten Blick plausibel. In der Zukunft könnte man etwa darüber nachdenken, die komplette Rechtsprechung einer bestimmten Rechtsordnung vom ersten bis zum letzten Urteil zu analysieren. Und wenn man solche Texte erstellen kann, besteht natürlich auch der Anreiz, sie zu übernehmen – womöglich ohne Quellenangabe.

Wie sollen Lehrende mit diesem Risiko umgehen?

Auf der einen Seite benötigt das Wissenschaftssystem Regeln, wie der Einsatz von Chatbots in Studien- und Qualifikationsarbeiten zu bewerten ist. Ob es ein Plagiat ist, wenn man solche Texte übernimmt, darüber streiten sich die Gelehrten – es gibt ja keinen menschlichen Autor, von dem man abschreibt. Urheberrechtlich gesehen stellt sich die Frage, wer hinter den Inhalten steht, die ChatGPT generiert. Kann die Künstliche Intelligenz selbst ein Urheber sein? Das klingt nach Science Fiction, aber es sind konkrete Probleme. Auf der anderen Seite müssen wir Lehrende und Studierende befähigen, mit den „neuen Realitäten“ reflektiert, sicher und produktiv umzugehen. Daraus ergeben sich neue Studieninhalte und Prüfungsformate, und in letzter Konsequenz sogar ein neues Berufsbild, das „Prompt Engineering“: Wie stelle ich einer KI die richtigen Fragen?

Zurück zum Thema Ihres computergenerierten Aufsatzes: Wo könnten Programme wie ChatGPT in der Rechtspflege denn sinnvoll eingesetzt werden?

Eine Möglichkeit ist, dass juristische Texte in ein für Laien verständliches Deutsch übersetzt werden. Auch Antworten auf einfache und komplexere Rechtsfragen könnte ein Chatbot geben. Daran wird schon gearbeitet. Eine weitere Einsatzmöglichkeit ist die Hilfe beim Verfassen von Rechtstexten. Wir kennen ja schon die Vervollständigungsfunktion in Schreibprogrammen. Der nächste Schritt ist, dass nicht nur Wörter, sondern ganze Absätze vorgeschlagen werden.

Könnten Richter sich eines Tages ihre Urteile von ChatGPT schreiben lassen, sie nur noch auf Plausibilität prüfen und mit ihrer Unterschrift beglaubigen?

Es ist absehbar, dass es Programme geben wird, die Urteile vorschlagen können. Wichtig wäre Transparenz. Es muss zum Beispiel erkennbar sein, welche Teile des Urteils von einer Maschine verfasst wurden, welche Maschine zum Einsatz kam, mit welchen Daten sie trainiert wurde.

Wie könnte sich der Einsatz von Künstlicher Intelligenz auf die Akzeptanz von Rechtsprechung auswirken?

Viele Bürger könnten sagen: Gott sei Dank ist eine Maschine im Einsatz, die anders als ein Richter neutral, kohärent und effektiv entscheidet. Gerade Menschen aus nicht privilegierten Gruppen könnten so denken. Andererseits besteht die Gefahr, dass Künstliche Intelligenz Vorurteile aus den Daten reproduziert, mit denen sie angelernt wurde. Man muss einen Weg finden, Künstliche Intelligenz so zu nutzen, dass das Menschliche in Recht und Justiz nicht verloren geht: zum Beispiel Empathiefähigkeit und Reziprozität, also der Grundsatz, dass jener, der Recht spricht, auch diesem Recht unterworfen ist. Um hier das richtige Maß zu finden, brauchen wir mehr gesellschaftlichen Dialog, mehr Wissen, was diese Technologie kann und was nicht, und mehr demokratische Kontrolle dieser in erster Linie durch private Unternehmen vorangetriebenen Entwicklungen.

Die Fragen stellte Sascha Zoske.

Von Sascha Zoske. Aus der Frankfurter Allgemeinen Zeitung vom 04.04.2023, Hochschule und Forschung ( Rhein-Main-Zeitung), Seite 3.
© Alle Rechte vorbehalten. Frankfurter Allgemeine Zeitung GmbH, Frankfurt. Zur Verfügung gestellt vom Frankfurter Allgemeine Archiv