09.10.2023

ChatGPT, die Lehre und die Verwaltung

Wie verändert KI unsere Institutionen?

ChatGPT, die Lehre und die Verwaltung

Wie verändert KI unsere Institutionen?

Ein Beitrag aus »Niedersächsische Verwaltungsblätter« | © emmi - Fotolia / RBV
Ein Beitrag aus »Niedersächsische Verwaltungsblätter« | © emmi - Fotolia / RBV

Künstliche Intelligenz, ob sie nun ChatGPT, Holmes oder Watson, GPT4 oder you.com heißt, hat das Potenzial unsere Institutionen zu verändern. Universität, Hochschule und Behörden funktionieren heute nach den gleichen Regeln, wie vor Jahrhunderten, in 15 Jahren ist damit aber spätestens Schluss. Künstliche Intelligenz wird tradierte Denkmuster und Arbeitsweisen in der Verwaltung, der Lehre und in Teilen der Forschung auf den Anachronismusprüfstand stellen – und dabei viel verändern. Der Beitrag ist eine Tour d’Horizon zum Thema künstliche Intelligenz, Recht und Bildung.

I. Künstliche Intelligenz

Der Begriff künstliche Intelligenz kommt ursprünglich aus einem Förderantrag für ein Forschungsprojekt am US-amerikanischen Dartmouth College. 1955 hatten Wissenschaftler erstmals den Terminus „artificial intelligence“ benutzt.1http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html zuletzt abgerufen am 13.06.2023. Eine Begriffsdefinition aus heutiger Sicht ist schwierig und nicht nur mit rechtlichen Fragen, sondern gleichsam mit ethischen und philosophischen Fragestellungen verbunden.2Zur terminologischen Einordnung, Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch –, NJW 2018, 2825 (2826ff).

Künstliche Intelligenz ist ein weit gefasster Sammelbegriff für unterschiedliche Methoden der Informatik, deren gemeinsames Ziel es ist, ein Problem möglichst rational und optimal zu lösen.3Stuart Russel/Peter Norvig, Artificial Intelligence, Global Edition, A Modern Approach (2021), S. 21 f. Zu dem Sammelbegriff der künstlichen Intelligenz gehören insbesondere Methoden im Bereich des logischen Denkens, des Treffens von Entscheidungen unter Variablenunsicherheit, des Planens und Abschätzens, des maschinellen Lernens und der Kommunikation in natürlicher Sprache.4Ebenda, S. 670.


Entscheidende Merkmale von künstlicher Intelligenz sind eine gewisse Anpassungsfähigkeit und auch funktionale Autonomie des technischen Systems, die in unterschiedlichem Maße zur Unvorhersagbarkeit seiner Handlungen führen.5Thilo Kuntz, Künstliche Intelligenz, Wissenszurechnung und Wissensverantwortung, ZfPW 2022, 177, 178 f. Bei beiden Merkmalen stehen Mustererkennung und Modellbildung im Vordergrund der Funktionalität.6Christian Geminn, Die Regulierung Künstlicher Intelligenz, ZD 2021, 354, 355, Alesch Staehelin, Begriff und Wesen der Künstlichen Intelligenz – Möglichkeiten, Realitäten, Grenzen, GRUR 2022, 1569. Aufgrund seines Charakters als eher unbestimmter Sammelbegriff ist der Term „Künstliche Intelligenz“ für eine Verwendung durch den Gesetzgeber nur bedingt geeignet, geeignet ist er hingegen, um – wie in der Informatik – ein bestimmtes Themenfeld der rechtswissenschaftlichen Forschung und Lehre oder der Rechtspolitik zu umreißen.7Daniel Busche, Einführung in die Rechtsfragen der künstlichen Intelligenz, JA 2023, 441. 

1. ChatGPT

Seit ChatGPT im November 2022 veröffentlicht wurde, ist die Welt eine andere geworden. Die Angaben schwanken, aber nach Berichten sollen es bereits wenige Monate später weit über 100 Millionen Nutzer sein, welche die Software regelmäßig verwenden oder wenigstens ausprobiert haben. Dass man in natürlicher Sprache eine Frage stellen kann, egal wozu, und immer eine Antwort erhält, ebenfalls in natürlicher Sprache, übt eine hohe Faszination auf Nutzer aus, die Sprachmodellierung der Anwendung macht diese zugänglich und massentauglich. Die Software ist so besonders, weil sie ein Gespräch zwischen Mensch und künstlicher Intelligenz ermöglicht, dieser Dialog ist leicht verstehbar und dient der Anwendung selbst als Trainingsmöglichkeit hinsichtlich der Qualität der Antworten indem u. a. ausgewertet wird, ob Nachfragen gestellt werden oder der Nutzer mit der Antwort zufrieden ist.

Die Anwendung verfasst ihre Antworten auf alle möglichen, offenen und geschlossenen Fragen, kann lange Texte zusammenfassen, Gesprächsprotokolle verfassen, To-do-Listen erstellen, Texte redigieren, Webseiten programmieren und passt den Sprachduktus auf Wunsch von wissenschaftlich bis kindlich an. Die Antworten werden dabei ohne nennenswerte Zeitverzögerung gegeben und können auf Nachfrage dem Stil und der Länge nach modifiziert werden, auch eine Bezugnahme auf vorherige Antworten ist möglich, eine Antwort wie „das weiß ich nicht“ oder „dazu fehlen mir Kenntnisse oder ausreichend Daten“ gibt es beinahe nicht, lediglich bei der Nachfrage nach Gefühlen und rein subjektiven Bewertungen ist der Chatbot zurückhaltend.

Die Anwendung versteht von der Konversation materiell indes nichts, sie hat kein kognitives oder gar intelligentes Verständnis vom Inhalt der Texte, die sie generiert, hat weder eigene Bewertungskompetenz noch Ethos oder Moral. Die Anwendung funktioniert unter Zuhilfenahme eines Sprachmodells, sie analysiert die vorliegenden Trainingsdaten und wertet, etwas vereinfacht ausgedrückt, aus, welches Wort im Antwortsatz mit welcher Wahrscheinlichkeit als Nächstes kommt, setzt dieses in ein Verhältnis zu den potenziell folgenden Worten sowie zur Eingabe des Nutzers und generiert so Texte. Die analysierte und generierte Sprachstruktur ist nicht reine Zählstochastik, sondern nimmt syntaktische und semantische Einheiten, Grammatik, Zeichensetzung und Sprachduktus bei Ihrer Interpretation zur Hilfe.

Die Software lernt außerdem dazu und wird besser, logischerweise besteht eine enge Beziehung zwischen der Qualität der Trainingsdaten und dem Fortschritt der Fähigkeiten der Anwendung – stehen besonders viele Informationen in hoher Qualität zur Verfügung, funktioniert sie besonders gut.

2. Urheberrecht und ChatGPT

Eine fehlende Leistungsfähigkeit des Urheberrechts im Hinblick auf KI-Systeme erscheint nicht zuletzt auch deswegen plausibel, weil der urheberrechtliche Schutz nach neuerer europäischer Rechtserkenntnis bereits dort endet, wo die kopierten Fragmente in nicht wiedererkennbarer Form genutzt werden.8Bernhard Jakl, Das Recht der Künstlichen Intelligenz. Möglichkeiten und Grenzen zivilrechtlicher Regulierung, MMR 2019, 711, 715. Wurde eine künstliche Intelligenz erfolgreich mit Werken trainiert und ist dadurch in der Lage, eigene Inhalte zu generieren, können sich Fragen mit Blick auf das Urheberrecht ergeben, insbesondere danach, ob die Erstellung neuer „Werke“ durch eine künstliche Intelligenz einem urheberrechtlichen Schutz unterliegen. Unter § 2 Abs. 2 UrhG heißt es, dass Werke im Sinne des Urheberrechts persönliche geistige Schöpfungen sind. Urheberrechtlich geschützt sind demnach nur Werke, die von einem Menschen geschaffen wurden – eine künstliche Intelligenz kommt als Urheber mangels Vorliegens einer natürlichen Person im Sinne der Vorschrift nicht in Frage.9Timo Conraths, Künstliche Intelligenz in der Medienproduktion Datenschutz-, urheber- und vertragsrechtliche Fragen aus Sicht eines Medienunternehmens, MMR 2021, 457, 459 f.

Ebenso gilt aber auch der Nutzer, der die Anfrage, sogenannte Prompts, an die Anwendung stellt, nicht als Schöpfer der Inhalte im urheberrechtlichen Sinne. Das Urheberrecht ist seiner Konzeption nach nicht auf die Beantwortung von Fragen nach der Urheberschaft generierter „Schöpfungen“ ausgerichtet, es kam bei der Konzeption des Rechtsgebietes darauf an, ein Werk einem Autor als Urheber zuzuordnen, nicht darum, zu prüfen, ob überhaupt ein Werk im Sinne einer Schöpfung vorliegen kann.

Ein solches Werk erfordert eine persönlich-geistige Schöpfung, eine solche geistige Schöpfung wird bei Texten, die durch ChatGPT erstellt wurden, regelmäßig nicht vorliegen, da die Rückführbarkeit auf einen geistigen Schaffensprozess durch die bedienende Person durch die reine Anweisung, einen Text zu einem speziellen Thema zu schreiben, nicht mehr gegeben ist.10Hoeren, „Geistiges Eigentum“ ist tot – lang lebe ChatGPT, MMR 2023, 81, 82. Es kommt zwar theoretisch auf den Grad der Autonomie der künstlichen Intelligenz an und es ist damit eine Einzelfallentscheidung, ob ein Künstler sie gezielt für seine eigene persönliche, geistige Schöpfung einsetzt, oder ob ein Techniker nach der Softwareoptimierung erstaunt zur Kenntnis nimmt, was als Ergebnis herauskommt,11Stephan Ory/Christoph Sorge, Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710, 711. regelmäßig wird aber die sogenannte Schöpfungshöhe zum Problem werden.

Die Neuerzeugung derartiger „Werke“ durch einfache Befehle an die künstliche Intelligenz wie „verwende diesmal nur Pastellfarben“, „mach den Bildausschnitt kleiner“, „verwende einen anderen Pinselstrich“ oder „benutze diesmal für den Text einen Schüttelreim“ lassen letztlich berechtigte Zweifel an der schöpferischen Kraft des vermeintlichen Künstlers oder Schöpfers. Damit begegnet das Urheberrecht einer bis dahin nie da gewesenen Herausforderung, der es noch nicht gewachsen ist.

Die Täuschung über die Werkcharaktereigenschaft als solche, die erst dadurch entsteht, dass sich eine Person als Urheber ausgibt, die keiner ist, da es keinen gibt.12So wörtlich Hoeren, „Geistiges Eigentum“ ist tot – lang lebe ChatGPT, MMR 2023, 81, 82. Das Urheberrecht gelangt mit dem Einsatz künstlicher Intelligenz zu „Schöpfungszwecken“ an seine Grenzen.

3. Datenschutz und ChatGPT

Künstliche Intelligenz (KI) stellt eine große datenschutzrechtliche Herausforderung dar. Relevant wird sie in verschiedenen Bereichen, obwohl sich die DSGVO an keiner Stelle explizit auf künstliche Intelligenz bezieht, ist sie doch einschlägig.13Sydow, in: Sydow/Marsch, DS-GVO – BDSG, 3. Aufl. 2022, Einleitung Rn. 173. Die italienische Datenschutzaufsichtsbehörde hat im März 2023 nach Art. 58 Abs. 2 lit. f) DSGVO ein vorübergehendes Verbot der Verarbeitung von Daten durch ChatGPT angeordnet, woraufhin OpenAI den Dienst dort gesperrt hat.14Vgl. https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 vom 03.05.2023.  Der Bundesdatenschutzbeauftragte hielt ein ähnliches Vorgehen in Deutschland für möglich, in der Entscheidung der italienischen Aufsichtsbehörde wurde als Grund angegeben, dass keine Rechtsgrundlage für die Verarbeitung personenbezogener Daten ersichtlich sei.

Anwender würden nicht darüber informiert, dass ihre Eingaben zu Trainingszwecken verarbeitet werden. Eine Rechtsgrundlage hierfür existiere nicht. Dies ist ein gewichtiges Argument im Hinblick auf Art. 6 DSGVO, aufgrund der Verarbeitungs- und Auswahlintransparenz des Systems, erscheint es möglich, dass überhaupt keine wirksame Einwilligung eingeholt werden kann, da nicht spezifizierbar ist, welche Texte die Anwendung wie genau zum Lernen verwendet.15Jyn Schultze-Melling, Notwendigkeit einer intelligenten Regulation der KI, ZD 2021, 289, 290. Es könnte auch Art. 6 Abs. 1 S. 1 lit. f) DSGVO als Rechtsgrundlage einschlägig sein, dieser erfordert zwar immer eine Einzelfallabwägung. Beim berechtigten Interesse spielt bspw. der Jugendschutz eine besondere Rolle und die Abwägung fällt meist zu Gunsten der Jugendlichen und Kinder aus. In diesem Zusammenhang wird moniert, dass weder eine Altersabfrage (unter 13-Jährige) beim Einloggen, noch ein Jugendschutzfilter bei den Antworten verwendet werden. Die deutschen Behörden erwägen, sich einer Untersagung anzuschließen, ein möglicher, einfacher Grund ist bereits in Art. 5 Abs. 1 DSGVO zu finden. Hiernach müssen Daten „auf rechtmäßige Weise, nach Treu und Glauben und in einer für die betroffene Person nachvollziehbaren Weise verarbeitet“ werden.

Die mangelnde Nachvollziehbarkeit hinsichtlich des Trainings der Sprachmodellierungssoftware ist hierbei aller Voraussicht ein Problem und sollte gewahr sein, insbesondere wenn man als öffentliche Stelle damit liebäugelt, sich künstlicher Intelligenz zu bedienen, um Anwendungen in den Lehr- oder Behördenalltag einzubauen. Perspektivisch erscheint eine derartige Form der Regulierung durch ein Verbot, auch am Beispiel Italiens, indes unwahrscheinlich. Am 29.04.2023 gab der CEO von OpenAI, Sam Altman, bekannt, dass ChatGPT in Italien wieder verfügbar sei. Welche Schritte das Unternehmen genau unternommen hatte, um die Transparenzanforderungen der italienischen Regulierungsbehörde zu erfüllen, erwähnte er allerdings nicht. Die datenschutzrechtliche Zukunft der Sprachmodellierungs- und Lernalgorithmen, auf Englisch auch Large Language Models (LLM), ist in mehrfacher Hinsicht unsicher, selbst wenn aktuelle oder Vorgängerversionen als open source verfügbar sind, um auf (deutschen) behörden- oder hochschulinternen Servern zu laufen, ergeben sich noch Probleme. In solchen Fällen wären nicht nur Rechenkapazitäten und Trainingsdatenspeicher begrenzt, auch müsste trotzdem noch den Informationspflichten aus Art. 13 und 14 DSGVO nachgekommen werden.

Nach Art. 12 Abs. 1 DSGVO müssen betroffene Person verständlich, leicht zugänglich und verstehbar darüber informiert werden, welche Art von Datenverarbeitung in welchem Umfang wie stattfindet. Bei künstlicher Intelligenz selbst unter Einsatz von Open Source keine leichte Aufgabe. Es tritt auch hinsichtlich der Ausübung des datenschutzrechtlichen Rechts auf Löschung ein naheliegendes Problem auf, künstliche Intelligenz ist kaum in der Lage, auf Knopfdruck persönliche Informationen zu „vergessen“. Sobald ChatGPT oder andere LLM aus persönlichen (zu löschenden) Daten etwas gelernt hat, wird sich das neuronale Netz an das Gelernte in der ein oder anderen Hinsicht „erinnern“, selbst wenn die ursprünglichen Informationen gelöscht werden.

[…]

Den vollständigen Beitrag lesen Sie in den Niedersächsischen Verwaltungsblättern 9/2023, S. 287.

 

Prof. Dr. Tim Brockmann

Professur für Zivilrecht am Niedersächsischen Studieninstitut für Verwaltung und der Hochschule für Verwaltung in Niedersachsen.
----------
  • 1
    http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html zuletzt abgerufen am 13.06.2023.
  • 2
    Zur terminologischen Einordnung, Maximilian Herberger, „Künstliche Intelligenz“ und Recht – Ein Orientierungsversuch –, NJW 2018, 2825 (2826ff).
  • 3
    Stuart Russel/Peter Norvig, Artificial Intelligence, Global Edition, A Modern Approach (2021), S. 21 f.
  • 4
    Ebenda, S. 670.
  • 5
    Thilo Kuntz, Künstliche Intelligenz, Wissenszurechnung und Wissensverantwortung, ZfPW 2022, 177, 178 f.
  • 6
    Christian Geminn, Die Regulierung Künstlicher Intelligenz, ZD 2021, 354, 355, Alesch Staehelin, Begriff und Wesen der Künstlichen Intelligenz – Möglichkeiten, Realitäten, Grenzen, GRUR 2022, 1569.
  • 7
    Daniel Busche, Einführung in die Rechtsfragen der künstlichen Intelligenz, JA 2023, 441. 
  • 8
    Bernhard Jakl, Das Recht der Künstlichen Intelligenz. Möglichkeiten und Grenzen zivilrechtlicher Regulierung, MMR 2019, 711, 715.
  • 9
    Timo Conraths, Künstliche Intelligenz in der Medienproduktion Datenschutz-, urheber- und vertragsrechtliche Fragen aus Sicht eines Medienunternehmens, MMR 2021, 457, 459 f.
  • 10
    Hoeren, „Geistiges Eigentum“ ist tot – lang lebe ChatGPT, MMR 2023, 81, 82.
  • 11
    Stephan Ory/Christoph Sorge, Schöpfung durch Künstliche Intelligenz?, NJW 2019, 710, 711.
  • 12
    So wörtlich Hoeren, „Geistiges Eigentum“ ist tot – lang lebe ChatGPT, MMR 2023, 81, 82.
  • 13
    Sydow, in: Sydow/Marsch, DS-GVO – BDSG, 3. Aufl. 2022, Einleitung Rn. 173.
  • 14
    Vgl. https://gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9870832 vom 03.05.2023. 
  • 15
    Jyn Schultze-Melling, Notwendigkeit einer intelligenten Regulation der KI, ZD 2021, 289, 290.
n/a