ChatGPT
Symbolbild (Foto: ©natrot – stock.adobe.com)

Wenn KI auf Recht trifft: Die rechtlichen Herausforderungen der ChatGPT-Nutzung

15.06.2023 | Medien- und Wirtschaftsrecht

Künstliche Intelligenz (KI) hat in den letzten Jahren eine immense Entwicklung erfahren und gehört mittlerweile zu den fortschrittlichsten Technologien unserer Zeit, die unser tägliches Leben und unsere Arbeitswelt nachhaltig verändert und wohl verändern wird.

Ein Beispiel hierfür ist ChatGPT, ein beeindruckendes Sprachmodell, das in der Lage ist, menschenähnlichen Text zu generieren und auf Anfragen zu antworten.
Doch während ChatGPT zweifellos eine leistungsstarke und nützliche Technologie ist, werfen seine Nutzung und Anwendung auch eine Vielzahl von rechtlichen Herausforderungen auf.
Von Urheberrechtsverletzungen über Datenschutz- und Haftungsfragen bis hin zu ethischen Bedenken – die rechtlichen Aspekte im Zusammenhang mit ChatGPT sind vielfältig und von großer Bedeutung.

Was genau ist ChatGPT eigentlich?

ChatGPT ist ein Chatbot des amerikanischen Unternehmens OpenAI, der am 30. November 2022 der Öffentlichkeit zur Verfügung gestellt wurde.

Was ist Künstliche Intelligenz (KI)?

Um besser zu verstehen, was ChatGPT eigentlich ist, muss man zunächst einmal wissen, was Künstliche Intelligenz ist, da es sich bei ChatGPT um einen künstlichen Intelligenz-Chatbot handelt.

Künstliche Intelligenz bezieht sich im Wesentlichen auf Computer-Systeme, die in der Lage sind, Aufgaben auszuführen, die normalerweise menschliche Intelligenz erfordern.

Hierzu zählen unter anderem die Fähigkeiten, Bilder zu erkennen, Sprache zu verstehen oder Entscheidungen zu treffen.

KI-Systeme nutzen dafür menschenähnliche Denk-und Entscheidungsprozesse, um ihre Umgebung, also die ihnen gegebenen Eingabedaten, zu „verstehen“ und mit dieser zu interagieren.

 

Innerhalb des Bereichs der Künstlichen Intelligenz nimmt das maschinelle Lernen (Maschine Learning) eine entscheidende Rolle ein.

Während KI-Systeme in der Lage sind, menschenähnliche Intelligenz für Aufgaben wie Sprach- oder Bilderkennung zu nutzen, ermöglicht das maschinelle Lernen diesen Systemen, autonom aus Daten zu lernen und ihre Fähigkeiten im Laufe der Zeit zu verbessern.

Anstatt vordefinierten Regeln zu folgen, erkennen Maschinen durch maschinelles Lernen eigenständig Muster und Zusammenhänge in Daten, ohne dass sie jedes Mal von Menschen neu programmiert werden müssen.

Mit anderen Worten: Maschinelles Lernen ist ein zentraler Ansatz innerhalb der KI, der es Computermodellen ermöglicht aus Erfahrungen zu lernen und ihre Fähigkeiten zu erweitern.

 

ChatGPT ist ein konkretes Beispiel für die Anwendung des maschinellen Lernens, denn es handelt sich bei ChatGPT um ein fortschrittliches Sprach-KI-Modell, das auf der Grundlage von maschinellem Lernen trainiert wurde.

ChatGPT ist in der Lage, auf menschenähnliche Weise mit Benutzern zu interagieren, indem es natürliche Sprache versteht und entsprechend darauf antwortet.

Durch maschinelles Lernen hat ChatGPT aus umfangreichen Textdaten gelernt, Muster und Zusammenhänge in den eingegebenen Texten zu erkennen und sinnvolle, kontextbezogene Antworten zu generieren.

Als Nutzer haben Sie die Möglichkeit, ChatGPT Fragen zu stellen und mit ihm eine Konversation zu führen.

ChatGPT kann in vielen verschiedenen Bereichen eingesetzt werden.Zum einen kann der ChatBot als praktische Informationsquelle dienen, indem er Fragen zu verschiedenen Themen beantwortet. Wenn Sie sich zum Beispiel über die aktuellen Nachrichten erkundigen möchten, können Sie ChatGPT fragen: „Was sind die neuesten Nachrichten?“.

Darüber hinaus kann ChatGPT auch akademische und berufliche Unterstützung bieten. Sie können ChatGPT um Hilfe bei Rechercheaufgaben, mathematischen Problemen oder Projekten bitten.

 

Es ist jedoch wichtig zu beachten, dass ChatGPT, wie in den Nutzungsbedingungen ausdrücklich angegeben, keine Gewähr für die Richtigkeit seiner Antworten übernimmt.Es handelt sich um eine maschinelle Intelligenz, die auf statistischen Mustern basiert und nicht immer 100%ige Genauigkeit gewährleisten kann.Daher ist es ratsam, die von ChatGPT bereitgestellten Informationen kritisch zu prüfen und gegebenenfalls andere Quellen zu konsultieren, um zuverlässige Ergebnisse zu erhalten.

Die rechtlichen Herausforderungen im Zusammenhang mit ChatGPT

Mit der fortschreitenden Entwicklung von KI und Chatbots wie ChatGPT eröffnen sich zwar neue Möglichkeiten für interaktive und automatisierte Kommunikation.

Allerdings gehen damit auch rechtliche Herausforderungen einher, die es zu beachten gilt.

Von Haftungsfragen über Datenschutz und Urheberrecht bis hin zu ethischen Überlegungen und Einhaltung von Regulierungen – die Nutzung von ChatGPT wirft diverse rechtliche Aspekte auf.

Haftungsfrage – Wer haftet für falsche Inhalte von ChatGPT?

Da es sich bei ChatGPT um einen künstlichen Intelligenz-Chatbot handelt, der autonom Entscheidungen trifft und Antworten generiert, können Fragen der Haftung entstehen.

Wer ist verantwortlich, wenn ChatGPT fehlerhafte oder ungenaue Informationen bereitstellt oder falsche Ratschläge gibt? Ist der Entwickler, der Betreiber des Chatbots oder der Nutzer selbst haftbar?

Wer im konkreten Fall für falsche Informationen von ChatGPT haftet, ist eine Frage des Einzelfalles. Die folgenden Ausführungen können also nur typisierter, verallgemeinerter Natur sein.

 

Unterscheiden wir im folgenden einmal beispielhaft zwei verschiedene Konstellationen:

A: | Es werden durch ChatGPT Informationen an den Nutzer vermittelt. Aufgrund des Glaubens in die Richtigkeit verhält sich der Nutzer in entsprechender Weise und erleidet selbst einen Schaden.

Um zu ermitteln, wer und ob überhaupt jemand für die Verursachung bzw. das Entstehen eines Schadens verantwortlich gemacht werden kann, ist im Kern – stark vereinfacht ausgedrückt – zunächst zu ermitteln, wen welchen Vorwurf trifft.

OpenAI könnte durch das zur Verfügung stellen von ChatGPT der Vorwurf treffen, ein fehleranfälliges Programm entworfen zu haben bzw. zugänglich zu machen, bei dem zudem die Fehler zum Teil nur schwer erkennbar sind. Auch falsche Informationen klingen wohl regelmäßig plausibel, was zur Verführung führt, die Richtigkeit der Angaben nicht zu hinterfragen.

Dies birgt naturgemäß ein gewisses Risiko.

Allerdings ist zu beachten, dass es durchaus bekannt ist, dass es genau zu dieser Situation kommt. Dass falsche Informationen durch ChatGPT zur Verfügung gestellt werden und diese zum Teil auch nur schwer erkennbar sind. OpenAI gibt dahingehend sogar eine Warnmeldung raus, in welcher geschildert ist, dass ChatGPT gerade nicht dazu bestimmt ist, Ratschläge zu erteilen.

Da der Nutzer entsprechend ob der Risiken weiß, spricht viel dafür, die Verantwortung beim Nutzer zu sehen, wenn er sich ohne Prüfung auf die Richtigkeit der Angaben verlässt.

Werden die Angaben ungeprüft übernommen und sich zu eigen gemacht, so schädigt man sich im Grunde bewusst (jedenfalls fahrlässig) selbst.

In die Waagschale könnte noch geworfen werden, dass der Mangel an Quellenangaben die Nachprüfung zum Teil erschwert. Hier überzeugt es allerdings, dem Gedanken zu folgen, dass derjenige, der die Vorteile genießt auch die damit einhergehenden Nachteile in Kauf nehmen muss. Wer sich die durch ChatGPT generierten Produkte zu eigen macht und für sich nutzt (Vorteil), der muss auch den extra Schritt der Nachprüfung gehen (Nachteil).

Im Ergebnis wird also wohl regelmäßig die Verantwortlichkeit beim Nutzer liegen.

Dies gilt auch für ungenaue Informationen, deren Verwendung zu einem Schaden bzw. einer Beeinträchtigung führt.

 

B: | An den Nutzer werden durch ChatGPT falsche Informationen übermittelt. Der Nutzer gibt diese Informationen an eine weitere Person weiter. Dieser Dritte erleidet in der Folge einen Schaden.

Bei dieser Konstellation gibt es kaum Unterschiede zu dem eben Gesagten. Insbesondere kann hier – soweit der Dritte nicht weiß, woher der Inhalt stammt, wohl aber auch wenn er weiß, dass es sich um einen durch ChatGPT erstellten Text handelt, jedoch davon ausgehen darf, dass der Nutzer, der den Text im Anschluss verwendet, die Richtigkeit der enthaltenen Angaben überprüft hat.

Im Hinblick auf die Haftung von OpenAI, so ist dennoch eine Haftung unter Umständen möglich.

Welche Folgen kann die Nutzung von Texten mit falschen Inhalten durch ChatGPT haben?

Nun haben wir behandelt, wer im Falle von enthaltenen Falschinformationen in durch ChatGPT generierten Texten zur Verantwortung gezogen werden kann. Die Folgefrage ist nun, welche Folgen genau drohen.

Je nachdem welche tatsächlichen Folgen verursacht werden, drohen insbesondere Schadensersatzansprüche sowie Unterlassungsansprüche.

Haftet der Nutzer auch dann, wenn ChatGPT Texte Falschinformationen über Personen beinhalten?

Auch das Verbreiten von Falschinformationen über Personen kann Schadensersatzansprüche und oder Unterlassungsansprüche nach sich ziehen (z.B. aus § 823 Abs.1 BGB (Schadensersatz) oder § 1004 Abs.1 BGB (Beseitigung oder Unterlassung)). Auch hier gilt das bereits Gesagte. Geht der Nutzer bewusst das Risiko ein, falsche Informationen durch ChatGPT zu erhalten und später für sich zu nutzen, so nimmt er eine schädigende Handlung vor und handelt mindestens fahrlässig im Hinblick auf einen etwaigen Schaden, der hierdurch verursacht wird.

Enthält ChatGPT Falschinformationen über eine Person (also falsche personenbezogene Daten), so hat der Betroffene zudem ein Recht auf Berichtigung der Informationen gem. Art. 16 DSGVO.

Haftungsfrage – Wer haftet bei Urheberrechtsverletzungen durch ChatGPT?

Ebenso stellt sich die Frage, wer im Falle von Urheberrechtsverletzungen durch bzw. bei der Nutzung von ChatGPT haftet.

Diese Frage muss in mehreren Schritten beantwortet werden. Zunächst einmal stellt sich nämlich die Frage, ob durch ChatGPT generierte Werke überhaupt urheberrechtlichen Schutz genießen. Erst dann stellt sich die Frage, wer für Urheberrechtsverletzungen zur Verantwortung gezogen werden kann.

Sind von ChatGPT generierte Texte urheberrechtlich geschützt?

Der Haken am Bestehen etwaiger Urheberrechte ist, dass nur eine natürliche Person Urheberrechte haben kann, durch ChatGPT verfasste Texte allerdings durch eine Technologie verfasst wurden (ChatGPT). In diesem Fall besteht also im Grundsatz erst einmal kein Urheberrecht an den durch ChatGPT verfassten Texten. Weder seitens ChatGPT, noch seitens OpenAl. Auch eine juristischer Person kann kein Urheber in diesem Sinne sein. Allerdings ist es möglich, dass ihr Nutzungsrechte (z.B. durch Vertrag) eingeräumt werden. Einräumen kann dies dann aber auch nur der Urheber. Soweit es keinen Urheber gibt, scheitert also auch dieser Ansatz.

Der Nutzer als natürliche Person könnte zwar Urheber werden, allerdings erschafft der Nutzer nichts; dies übernimmt ja das Computer-System.

Im Hinblick auf Künstliche Intelligenz ist daher diskutabel (und wird wohl bereits in bestimmten Bereichen diskutiert), ob entsprechend die Rechtslage, gerade rund um das Erfordernis, dass nur natürliche Personen Urheber im Sinne des Urhebergesetzes sein können, geändert werden sollte.

 

Nun könnte man an eine Miturheberschaft an dem durch ChatGPT zusammengesetzten Werk der jeweiligen Autoren der jeweiligen „Textausschnitte“ denken. Für das Entstehen von Miturheberschaft ist allerdings erforderlich, dass die Urheber ihren jeweiligen „(schöpferischen) Beitrag in Unterordnung unter die gemeinsame Gesamtidee erbracht hat“ (BGH, Urteil v. 03.03.2005 – I ZR 111/02 m.w.N.). Es bedarf also wohl einer Art gezielten Zusammenwirkung zur Erstellung eines gemeinsamen Werkes. Werden allerdings – ggf. ohne Kenntnis der jeweiligen ursprünglichen Urheber – Textbausteine zu einem Gesamttext durch ChatGPT „zusammengewürfelt“, so fehlt es an einem solchen gezielten Zusammenwirken.

Auch eine Miturheberschaft scheidet damit wohl im Regelfall aus.

 

Anders könnte es sich verhalten, wenn ChatGPT Textbausteine des Nutzers einbaut. Diese müssten dann allerdings jedenfalls selbst – durch den jeweiligen Nutzer – eingegeben worden, nicht durch ChatGPT konstruiert sein. Dies wird wohl insbesondere für den Fall gelten, dass der durch ChatGPT generierte Text durch den Nutzer (in gewissem Umfang) nachbearbeitet wird.

Werden Textbausteine aus Quellen, auf die ChatGPT zugreift (Trainingsdaten insbesondere) einfach von ChatGPT übernommen, so bestehen aber grundsätzlich die bestehenden Urheberrechte des jeweiligen Autors fort.

Werden durch die Eingabe von Fragen an diesen Urheberrechte des Nutzers begründet?

An Werken, soweit diese „persönliche geistige Schöpfungen“ sind, können grundsätzlich Urheberrechte begründet werden (§ 2 UrhG). Dementsprechend kann der Gedanke aufkommen, dass der Nutzer selbst an seinen eigens formulierten Fragen Urheberrechte hat. Es muss aber eine gewisse Erheblichkeitsschwelle überschritten worden sein, damit Urheberrechte begründet werden. Diese ist im Urheberrecht zwar recht niedrig angesetzt, bei einer einfach formulierten Frage aber wohl im Ergebnis regelmäßig zu verneinen. Wird eine Frage sehr stark ausgestaltet, durch zahlreiche Adjektive ausgeschmückt beispielsweise, so kann im Einzelfall aber an das Entstehen eines Urheberrechts durchaus gedacht werden.

In der Folge stellt sich die Frage, ob durch die weitere Verwendung der Daten durch ChatGPT eine Urheberrechtsverletzung darstellt, ebenso wie die anschließende Verwendung von diesen Inhalten durch einen anderen Nutzer, gegenüber welchem dieser Inhalt wieder verwendet wird. Grundsätzlich könnte dies dann eine Urheberrechtsverletzung darstellen. Anders wäre es, wenn der Nutzer durch die Eingabe seiner Frage bzw. seines Inhalts die Nutzungsrechte an diesem Werk an OpenAI zur Nutzung innerhalb des Systems ChatGPT überträgt.

Durch die Kenntnisse der Funktionsweise von ChatGPT ist dies tatsächlich denkbar. Schließlich ist es dem Nutzer in der Regel bekannt, dass ChatGPT mit bestimmten eingegebenen Inhalten lernt und diese teilweise weiter nutzt.

Wer haftet für Urheberrechtsverletzungen durch ChatGPT?

Nachdem nun geklärt ist, dass an durch ChatGPT generierten Texten durchaus Urheberrechte bestehen können, ist zu klären, wer für Urheberrechtsverletzungen haften muss. Eine Urheberrechtsverletzung kann beispielsweise die unbefugte Veröffentlichung des Werks sein. Wir gehen im Folgenden von der Konstellation aus, dass der ursprüngliche Autor Urheberrechte an einem in dem generierten Text enthaltenen Textabschnitt hat und der Nutzer von ChatGPT den generierten Text ohne vorherigen Kontakt mit dem Autor und ohne entsprechende Kenntlichmachung veröffentlicht.

In Betracht kommen hier insbesondere OpenAI und der jeweilige Nutzer des Texts mit dem in Frage stehenden Textabschnitt.

Wer nun tatsächlich haftet, ist schlussendlich stets eine Frage des konkreten Einzelfalls. Die folgenden Gedanken können also wieder nur typisierten, verallgemeinerten Konstellationen entstammen.

Bei Urheberrechtsverletzungen können insbesondere Schadensersatzansprüche (z.B. aus § 823 Abs.1 BGB, § 97 UrhG oder §§ 687 Abs.2, 678 BGB) sowie Unterlassungsansprüche (z.B. aus § 1004 BGB oder § 97 UrhG) bestehen.

Im Falle von Schadensersatzansprüchen ist in jedem Fall das Verursachen eines Schadens Grundvoraussetzung für das Bestehen eines entsprechenden Anspruchs.

Verallgemeinert und stark vereinfacht ausgedrückt ist danach zu fragen, wem der Vorwurf der Urheberrechtsverletzung zu machen ist.

Dabei bezieht sich wohl heruntergebrochen der Vorwurf der OpenAI durch das zur Verfügung Stellen von ChatGPT gemacht werden kann darauf, dass ein Programm anderen Personen zugänglich gemacht wird, dass solche Werke hervorbringt bei bestimmungsgemäßer Nutzung, die anfällig für Urheberrechtsverletzungen sind. Das Problem ist nämlich wohl regelmäßig auch, dass durch ChatGPT nicht gekennzeichnet wird, woher eine bestimmte Textpassage stammt.

Möglicherweise könnte der Vorwurf in der Verletzung einer gegebenenfalls bestehenden Verkehrssicherungspflicht zur Vermeidung, Programme auf den Markt zu bringen, die nahezu prädestiniert für Urheberrechtsverletzungen sind.

 

Zu beachten ist allerdings – neben der Frage, ob eine solche Verkehrssicherungspflicht überhaupt besteht – dass der Nutzer ja im Grunde in den Vorgang zwischen dem durch ChatGPT generierten Text und der Urheberrechtsverletzung durch beispielsweise Veröffentlichung tritt und das in bewusster Weise. Bewusst vor allem deshalb, weil es wohl kein Geheimnis ist, dass bei durch ChatGPT generierten Texten eine (notwendige) Angabe zur Urheberschaft teilweise fehlt.

Der Nutzer müsste sich also darüber bewusst sein, durch eine ungeprüfte Veröffentlichung möglicherweise Urheberrechte zu verletzen. Hieraus entsteht dann also grundsätzlich die Notwendigkeit, möglicherweise sogar Pflicht, nachzuprüfen, ob durch eine Veröffentlichung oder sonstigen Umgang mit dem Werk Urheberrechte verletzt werden. Wird dies nicht getan, so kann unter Umständen sogar angenommen werden, dass eine Urheberrechtsverletzung durch eigenes Verhalten billigend in Kauf genommen wird. Jedenfalls befindet man sich wohl im Bereich der Fahrlässigkeit, wenn ohne Prüfung in urheberrechtsrelevanter Weise mit dem Werk umgegangen wird. Fahrlässigkeit trägt in der Regel im Zivilrecht bereits den Verschuldensvorwurf.

 

Dass OpenAI etwas geschaffen hat, was bei bestimmungsgemäßem Nutzen recht unproblematisch zu Urheberrechtsverletzungen führen kann bzw. ein recht hohes Risiko dahingehend geschaffen wurde, bleibt als Vorwurf wohl dennoch bestehen.

Es stellt sich wohl im Kern die Frage, ob der Vorwurf an den Nutzer den Vorwurf an OpenAI dahingehend komplett überlagert oder ob die Vorwürfe nebeneinander stehen bleiben.

Letzteres ist möglich. In Betracht käme dann eine Haftung als Gesamtschuldner.

 

In den terms and conditions zur Nutzung von ChatGPT zeichnet sich OpenAI in gewisser Weise scheinbar von Verantwortung frei. Es findet sich hier der Hinweis, dass eine Nutzung nur innerhalb des bestehenden Rechts zulässig ist.

Zwar „erleichtert“ die Nutzung von ChatGPT möglicherweise Urheberrechtsverletzungen, allerdings sind schließlich durchaus Nutzungen ohne Urheberrechtsverletzungen möglich (insbesondere durch Überprüfung des Werks auf das Bestehen von Urheberrechten). Dieser Hinweis müsste wirksam sein.

Bei den terms of use handelt es sich um Allgemeine Geschäftsbedingungen. Im Rahmen von Allgemeinen Geschäftsbedingungen (AGB) ist die Festlegung eines Haftungsausschlusses für bestimmte Bereiche oder in bestimmten Aspekten problematisch.

Allein die Hinweise in den AGB, dass der Nutzer für die Nutzung innerhalb geltenden Rechts verantwortlich ist, ist aber wohl grundsätzlich noch kein Haftungsausschluss, sondern vordergründig als Hinweis und gegebenenfalls dem Nachkommen einer möglicherweise bestehenden Verkehrssicherungspflicht zu verstehen.

Können die durch ChatGPT erstellten Texte überhaupt Urheberrechte verletzen?

Bestehen Urheberrechte an (Teilen von) Texten, die durch ChatGPT erstellt wurden und werden diese Texte ohne Genehmigung und oder Kennzeichnung beispielsweise veröffentlicht, so können durch den durch ChatGPT erstellten Text Urheberrechte verletzt werden.

Rund um urheberrechtliche Fragestellungen stehen Ihnen unsere Anwälte für Urheberrecht zur Seite.

Wer haftet für Diskriminierungen durch von ChatGPT erstellten Inhalten?

Nahezu im Alltag der Internetnutzung besteht die Problematik von Hassreden und Diskriminierungen. Die naheliegende Folgefrage: Wer haftet?

Auch hier stehen wieder insbesondere der Nutzer und OpenAI im Raum.

Erkennt der Nutzer, dass der von ihm verwendete – durch ChatGPT erstellte – Text (beispielsweise) diskriminierende Inhalte enthält und verbreitet diesen Text dennoch, so kann der Nutzer zur Verantwortung gezogen werden – wenn hierdurch ein Schaden entsteht, auf Schadensersatz, allenfalls jedenfalls auf Unterlassung.

Bezogen auf die Haftung von OpenAI ist auch hier an die Providerhaftung zu denken.

Werden also beim Stellen einer Frage von ChatGPT diskriminierende Inhalte präsentiert, so kann unter Umständen OpenAI in Anspruch genommen werden (z.B. auf Beseitigung bzw. Unterlassung). Eine Überwachungspflicht bzw. Eine Nachforschungspflicht im Hinblick auf Hinweise auf rechtswidrige Taten, trifft die Provider in diesem Sinne alerdings grundsätzlich nicht (was nicht zwingend auch die Verpflichtung zur Entfernung von bestimmten Informationen ausschließt).

In diesem Zusammenhang ist ein Ausschluss der Haftung gem. § 7 Abs.1 DDG iVm Art. 4 Verordnung (EU) 2022/2065 dann unter Umständen denkbar, wenn die diskriminierenden Inhalte allein aus Eingaben eines Nutzers bestehen und unverändert übernommen werden.

Datenschutz und ChatGPT – Sind personenbezogene Daten bei ChatGPT sicher?

Ein weiteres Problem im Zusammenhang mit der Nutzung von ChatGPT ist der Datenschutz.

In Italien wurde ChatGPT vor Kurzem sogar verboten und eine Frist zur Erfüllung bestimmter Auflagen auferlegt. In Deutschland wird geprüft, ob ChatGPT den Anforderungen deutschen Datenschutzrechts genügt.

Die datenschutzrechtlichen Zweifel sind wohl nicht ganz unbegründet. So kam es wohl auch zu einem „Datenleck“, welches auch die Freigabe von Zahlungsinformationen zur Folge hatte.

Der Datenschutz hat in Deutschland einen hohen Stellenwert. Das ergibt sich insbesondere daraus, dass der Datenschutz sogar grundrechtlich verankert ist. Der Datenschutz gehört zum Recht auf informationelle Selbstbestimmung. Das wiederum ist dem Allgemeinen Persönlichkeitsrecht zugeordnet (Art. 2 Abs.1 iVm Art.1 Abs.1 GG).

Weitergabe von vertraulichen Informationen an Unbekannte durch ChatGPT?

Das Problem besteht hier insbesondere darin, dass dadurch dass ChatGPT ein Programm ist, welches durch die Eingabe von Daten lernt, seinen „Kenntnisstand“ erweitert, ChatGPT Eingegebenes verarbeitet und für die weitere Verwendung nutzt. Dabei wird bis jetzt nicht zwischen sensiblen personenbezogenen Daten und im Hinblick auf die Weitergabe an unbekannte Personen „unproblematische“ Daten unterschieden. Die Folge: werden personenbezogene Daten bei ChatGPT eingegeben, so kann es vorkommen, dass diese an anderer Stelle zur Textproduktion beispielsweise durch ChatGPT genutzt werden und somit unbekannte Personen Zugriff auf die Daten haben.

OpenAI verweist in ihren Nutzungsbedingungen für ChatGPT darauf, dass mit empfangenen vertraulichen Informationen entsprechend vertraulich umzugehen und sie beispielsweise nicht an Dritte weiterzugeben.

Ob dieser Hinweis den Schutz vertraulicher Informationen sicherstellt, ist zweifelhaft und erfordert wohl Einiges an Vertrauen.

Datenverarbeitung durch ChatGPT rechtswidrig mangels Einwilligung?

Problematisch ist in diesem Zusammenhang auch, dass in die Erhebung und Verarbeitung personenbezogener Daten nach geltendem deutschen Datenschutzrecht einer Rechtsgrundlage bedarf. Hierzu zählt insbesondere auch eine wirksame Einwilligung in die Datenerhebung und Datenverarbeitung. So schreibt es unter anderem das Bundesdatenschutzgesetz vor. Eine wirksame Einwilligung im Sinne der DSGVO setzt allerdings voraus, dass der Einwilligende umfassend und transparent über die Verarbeitung seiner Daten informiert wurde.

Das ist bei einem Programm wie ChatGPT, das gerade auf eine eigenständige Weiterverarbeitung von Informationen angelegt und sehr komplex ist, schlicht kaum möglich. Insbesondere kann wohl nicht genau festgestellt werden, welche Daten ChatGPT weiter nutzt (um zu lernen).

Können bei ChatGPT Daten wieder gelöscht werden?

Problem Nummer drei (dieser kleinen Auswahl an Konfliktherden) ist, dass bei ChatGPT nur erschwert die Möglichkeit zur Löschung von Daten besteht. Die Löschung von Daten auf Anfrage ist allerdings ein Bestandteil deutschen Datenschutzrechts.

In den Datenschutzbestimmungen zu ChatGPT ist außerdem durch OpenAI aufgeführt, dass die Korrektur von Falschinformationen (bei persönlichen Informationen) aufgrund der Komplexität des Systems unter Umständen nicht möglich ist.

Strengere Datenschutzanforderungen bei Weiterleitung von Daten in bestimmte Staaten

Zudem werden Daten im Rahmen der Nutzung von ChatGPT zumindest teilweise in die USA weitergeleitet. Hier bestehen noch strengere Anforderungen an den Umgang mit Daten.

Worauf müssen Unternehmen datenschutzrechtlich bei der Nutzung von ChatGPT achten?

Gerade Unternehmen sollten also besonders vorsichtig im Umgang mit ChatGPT sein. Werden hier personenbezogene Daten verarbeitet oder Geschäftsgeheimnisse eingegeben, so sind diese ggf. im Anschluss nicht mehr so gut verschlüsselt wie es notwendig ist. Auch Unternehmen können hier unter Umständen zur Verantwortung gezogen werden, wenn sie ihren Pflichten in Bezug auf den Datenschutz nicht nachkommen.

Auch müssen Unternehmen ganz besonders darauf achten, dass sie ihrerseits zur Eingabe der in Frage stehenden Daten nach geltendem Datenschutzrecht befugt sind.

Problematisch in diesem Zusammenhang kann auch sein, dass aufgrund der Komplexität von ChatGPT Unternehmen wohl regelmäßig ihren Informationspflichten nach der DSGVO (vgl. Art. 13 ff. DSGVO) nicht genügen können.

Hinzukommt, dass denjenigen, der Daten verarbeitet gem. Art. 5 Abs.1 Buchstabe a) der DSGVO die Pflicht trifft, Daten in für den Betroffenen nachvollziehbarer Weise zu verarbeiten. Da die genauen Folgen einer Einarbeitung von Daten in ChatGPT regelmäßig unklar bleibt, ist auch das Nachkommen dieser Pflicht wohl kaum möglich.

Mitarbeitern, die durch die Nutzung von ChatGPT beispielsweise Geschäftsgeheimnisse preisgeben, drohen unter Umständen zudem arbeitsrechtliche Konsequenzen.

Unternehmen müssen also bei der Nutzung von ChatGPT auch auf ein korrektes Briefing ihrer Mitarbeitenden achten.

Werden die datenschutzrechtlichen Risiken bei der Nutzung von ChatGPT nicht hinreichend beachtet, so kann sich ein betroffenes Unternehmen unter Umständen auch Unterlassungsansprüchen, Schadensersatzansprüchen und Vertragsstrafen versehen.

In seinen Nutzungsbedingungen („terms of use“) überträgt OpenAI im Grunde faktisch die Verantwortlichkeit im Umgang mit vertraulichen Informationen an den Nutzer.

Ich möchte als Unternehmen ChatGPT nutzen – was sollte ich tun?

Was es hier konkret und genau in Ihrem Fall zu beachten gilt, sollten Sie bestenfalls mit einem spezialisierten Anwalt (z.B. für Datenschutzrecht) besprechen, der weiß auf welche Besonderheiten gerade in Ihrem Fall zu achten ist und wie Sie sich am Besten absichern.

Ein insbesondere auf Datenschutzrecht und Urheberrecht  sowie Medienrecht  spezialisierter Anwalt kennt die Feinheiten, auf die es bei rechtlichen Fragestellungen rund um dieses Themen ankommen kann und kann sie entsprechend umfassend und sicher beraten.

Fachanwaltstitel für Urheber- und Medienrecht sowie IT-Recht sind nicht nur Zeichen für eine Spezialisierung, Fachkenntnis und Berufserfahrung in diesen Bereichen, sondern auch für eine stetige Fortbildung, sodass auch neue Entwicklungen in der Gesetzeslage und Rechtsprechung Fachanwälten bekannt sind.

 

Unsere zuständigen Anwälte im
Medien- und Wirtschaftsrecht

RA Norman Buse

Norman Buse, LL.M.

Fachanwalt für Gewerblichen Rechtsschutz
Fachanwalt für Urheber- und Medienrecht
Master of Laws (Medienrecht & IP)
Lehrbeauftragter für Urheber- und Medienrecht

Email: [email protected]

RA David Herz

David Herz

Fachanwalt für IT-Recht
Fachanwalt für Urheber- und Medienrecht
Lehrbeauftragter für Urheber- und Medienrecht

Email: [email protected]

RA Marc Faßbender

Marc Faßbender

angestellter Rechtsanwalt der Kanzlei

Email: [email protected]

RA Keno Leffmann

Keno Leffmann, M.A.

Master of Arts (Mediation & Konfliktmanagement) und angestellter Rechtsanwalt der Kanzlei BUSE HERZ GRUNST

Email: [email protected]

RA Michael Voltz

Michael Voltz

angestellter Rechtsanwalt der Kanzlei und Leiter unseres Standortes in München

Email: [email protected]

Christopher Bünger

Christopher Bünger

angestellter Rechtsanwalt der Kanzlei

Email: [email protected]

Neueste Beiträge

Bauantrag bewilligt

Die Mandanten hatten ein nichterschlossenes Grundstück erworben. Es bestand zwischen Gemeinde und Baufirma ein Erschließungsvertrag mit Fertigstellung zum 31.12.2023.

Bewertungen auf ProvenExpert

Kontakt

BUSE HERZ GRUNST
Rechtsanwälte PartG mbB

Bahnhofstraße 17
12555 Berlin
Telefon: +49 30 513 026 82
Telefax: +49 30 51 30 48 59
Mail: [email protected]

Weitere Standorte:

Kurfürstendamm 11
10719 Berlin
Telefon: +49 30 513 026 82
Telefax: +49 30 51 30 48 59
Mail: [email protected]

Alter Wall 32
20457 Hamburg
Telefon: +49 40 809 031 9013
Fax: +49 40 809 031 9150
Mail: [email protected]

Antonienstraße 1
80802 München
Telefon: +49 89 74055200
Fax: +49 89 740552050
Mail: [email protected]