ChatGPT ist eine Künstliche Intelligenz, die von Open AI entwickelt wurde. Es handelt sich dabei um ein sogenanntes großes Sprachmodell, das auf der Grundlage von neuronalen Netzen trainiert wurde. ChatGPT kann natürliche Sprache verstehen und produzieren und aufgrund seines umfangreichen Wissens eine Vielzahl von Aufgaben bewältigen.
So kann ChatGPT beispielsweise in der Kundenbetreuung eingesetzt werden, um automatisierte Antworten auf häufig gestellte Fragen zu geben, oder in der Textgenerierung, um Texte auf der Grundlage von Eingaben zu verfassen. Darüber hinaus wird ChatGPT auch in der Forschung eingesetzt, um komplexe Fragen zu beantworten und neue Erkenntnisse zu gewinnen. Insgesamt ist ChatGPT ein leistungsfähiges Werkzeug, das in vielen verschiedenen Bereichen nützlich sein kann.
Haben Sie es gemerkt? Diese Einleitung stammt nicht von einem Menschen, sondern von ChatGPT, dem derzeit wohl meistdiskutierten und meistgehypten KI-Programm. Seit der öffentlichen Bereitstellung des Sprachmodells im November vergangenen Jahres haben sich Millionen Nutzer von den beeindruckenden Fähigkeiten des Chatbots selbst überzeugt und auf sozialen Medien ausführlich darüber berichtet – ein genialer Marketing-Streich des Herstellers Open AI. Der potenzielle Wert des von Elon Musk mitgegründeten Start-ups verdoppelte sich Presseberichten zufolge auf rund 29 Milliarden Dollar. Allein Microsoft investierte 10 Milliarden Dollar in das KI-Unternehmen und hat ChatGPT in seine Suchmaschine Bing integriert.
ChatGPT nutzt eine von Google Brain entwickelte Deep-Learning-Methode namens Transformer. Sie analysiert Informationen schneller und liefert bessere Ergebnisse als die bislang bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) hauptsächlich verwendeten rekurrenten neuronalen Netze wie Long-Short-Term Memory (LSTM) oder Gated Recurrent Units (GRUs). Neben ChatGPT und dessen Basis GPT-3.5 (Generative Pre-trained Transformer 3.5) basieren auch die Google-Sprachmodelle BERT (Bidirectional Encoder Representations from Transformers) und LaMDA (Language Model for Dialogue Applications) auf dieser Technologie.
Transformer-Netze sind in der Lage, Wortsequenzen oder Sätze zu erfassen und deren Bedeutung in Abhängigkeit vom Kontext zu extrahieren. Dazu wandeln sie die Eingaben in maschinenlesbare Tokens um, die in tiefen neuronalen Netzen verarbeitet werden. Sogenannte Attention-Module lernen dabei, auf welche Aspekte der Eingabe das System seine Aufmerksamkeit richten soll. Das versetzt Transformer in die Lage, den Kontext eines Satzes zu erkennen und angemessen darauf zu reagieren.
Pierre Daniel WittmannSenior Associate bei der Luther Rechtsanwaltsgesellschaft: „Unternehmen sollten ihre Mitarbeiter sensibilisieren, keine geschäftskritischen Informationen als Prompt gegenüber ChatGPT preiszugeben.“
Um das Sprachmodell wirklich einsetzen zu können, ist allerdings eine Feinabstimmung durch menschliche Trainer notwendig (Reinforcement Learning from Human Feedback, RLHF). Open AI erstellte dafür ein Belohnungsmodell aus mehreren alternativen Antworten auf eine Frage, die von den Trainern bewertet und in eine Rangfolge gebracht wurden. Dieses Belohnungsmodell wurde mehrfach angepasst und ChatGPT so iterativ optimiert.
Artikel, Handbücher, Business-Pläne, Seminararbeiten, Gedichte, Drehbücher, Newsletter, Angebote, E-Mails, Social-Media-Beiträge – ChatGPT kann in jedem dieser Bereiche in kürzester Zeit große Mengen an Text produzieren. Der Einsatz bietet sich also vor allem dort an, wo „Content“ kreiert wird. Tatsächlich experimentieren Verlage schon länger mit KI-generierten Texten. Vor allem stark formalisierte Formate wie Sport- und Finanzberichte lassen sich recht gut automatisiert erstellen, aber auch im Nachrichtensektor setzen sich KI-generierte Meldungen immer mehr durch.
Besonders großes Potenzial sehen Experten im Bereich der Kundenkommunikation. Die einfache Benutzerschnittstelle (Prompt) zu ChatGPT macht es möglich, das Sprachmodell als virtuellen Assistenten oder Chatbot in Unternehmens-Webseiten oder Dialogsystemen für Callcenter-Mitarbeiter einzubinden und so viele Fragen automatisiert beantworten zu lassen. Auch Newsletter, Blog-Beiträge und andere Marketing-Texte lassen sich schnell und vor allem sehr zielgruppengenau erstellen. Und schließlich könnte ChatGPT auch die Software-Entwicklung entlasten und beschleunigen, denn das Sprachmodell kann nicht nur Gebrauchstexte schreiben, sondern auch Code generieren.
Christian SolmeckeRechtsanwalt & Partner bei der Kanzlei WBS.LEGAL, „Ein Stück Software kann niemals Urheber sein.“
Auch wenn es manchmal so scheint, ist ChatGPT nicht wirklich kreativ, sondern reproduziert und rekombiniert die Milliarden von Datensätzen, mit denen das Sprachmodell gefüttert wurde.
Laut § 44b des Urheberrechtsgesetzes (UrhG) ist diese Nutzung öffentlich zugänglicher Werke für das Text- und Data-Mining in Deutschland ausdrücklich erlaubt. „Der Urheber kann zwar theoretisch einen ‚maschinenlesbaren Nutzungsvorbehalt‘ erklären und damit das eigene Werk im Vorfeld vom Data-Mining ausschließen, sofern das Data-Mining nicht der wissenschaftlichen Forschung dient“, sagt Christian Solmecke, Rechtsanwalt & Partner bei der Kanzlei WBS.LEGAL, „praktisch macht das aber niemand.“
Schwieriger zu beantworten ist die Frage, ob das Ergebnis, das ChatGPT liefert, das Urheberrecht verletzt, wenn darin ganze Passagen urheberrechtlich geschützter Werke verwendet werden. § 51a des UrhG erlaubt zwar die Nutzung von Kopien unter bestimmten Voraussetzungen (Karikatur, Parodie und Pastiche), laut Solmecke allerdings nur, wenn sich das neue Werk kreativ mit dem bestehenden auseinandersetzt. „Wenn eine KI etwas selbstständig aus Vorlagen kreiert, ist das keine ‚kreative Auseinandersetzung‘ mit dem vorbestehenden Werk – denn hier gibt es überhaupt keinen Menschen, der kreativ wird“, erklärt der Rechtsanwalt. „Daher dürften solche KI-,Werke‘ dann Urheberrechte verletzen.“
Schließlich bleibt die Frage, wem das von ChatGPT erstellte Werk gehört. „Ein Stück Software kann niemals Urheber sein, denn ohne das Zutun eines Menschen gibt es schon kein urheberrechtlich geschütztes Werk“, so Solmecke. Auch die Entwickler der KI könnten keine Urheberrechte am Output ihrer Software erwerben. „Ein Urheberrecht käme hingegen in Betracht, wenn der kreative Anteil des steuernden Menschen ausschlaggebend für das Werk war“, ergänzt der Experte für Medienrecht.
Beim Einsatz von ChatGPT sollten Unternehmen zumindest derzeit noch große Vorsicht walten lassen. Vor allem folgende drei Risiken können gefährlich werden, wenn die maschinell generierten Texte unkritisch und ohne Prüfung weiterverwendet werden:
1) Begrenzte Wissensbasis: ChatGPT greift im Wesentlichen auf Informationen zu, die bis 2021 verfügbar waren. Fragt man das System etwa nach dem Angriff Russlands auf die Ukraine, erhält man folgende Antwort: „Russland hat im Jahr 2014 die Krim annektiert, was international als Verletzung des Völkerrechts angesehen wird. Kurz darauf begannen von Russland unterstützte Separatisten im Osten der Ukraine mit einem Aufstand gegen die ukrainische Regierung. Diese Ereignisse führten zu einem bewaffneten Konflikt zwischen der Ukraine und von Russland unterstützten Rebellen, der bis heute andauert.“
Anwender sollten daher bei aktuellen Themen auf jeden Fall immer auch andere Quellen berücksichtigen.
Professor Ute SchmidLeiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg: „Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar.“
2) Der Wahrheitsgehalt der Antworten ist unklar: „Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren“, betont Thilo Hagendorff, Post-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“ an der Eberhard Karls Universität Tübingen. „Sie können auch unsinnige Informationen produzieren, weil sie einfach kein Konzept davon haben, was Wahrheit und Falschheit ist.“ Open AI weist sogar selbst ausdrücklich darauf hin, dass den Antworten von ChatGPT nicht zu trauen ist: „Das System kann gelegentlich falsche oder irreführende Informationen und beleidigende oder tendenziöse Inhalte liefern. Es ist nicht dazu gedacht, Ratschläge zu erteilen“, heißt es auf der Webseite.
Janosch Kühn, Mitgründer des Entwicklerstudios Kolibri Games, erwischte ChatGPT etwa dabei, wie es Unwahrheiten über seine Firma verbreitete. Das System erfand einen „Janosch Zick“ als Gründer, hübschte die Lebensläufe der Beteiligten auf und gab ihnen Job-Titel, die sie nie hatten. „Die Folgen eines lügenden ChatGPT-Modells sind gravierend. Sie untergraben das Vertrauen der Menschen in KI und können weitreichende Auswirkungen auf Unternehmen und Einzelpersonen haben“, schreibt Kühn auf Linkedin.
3) Quellen lassen sich meist nicht überprüfen: Auch wenn die Antworten sinnvoll und hilfreich erscheinen, besteht häufig das Problem, dass ChatGPT seine Quellen nicht preisgibt. Das musste beispielsweise Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik an der Otto-Friedrich-Universität Bamberg, erfahren, als sie den Chatbot nach Ideen fragte, wie man mehr Frauen für das Informatikstudium begeistern könnte: „Da kamen viele tolle Antworten, Vorschläge, die ich seit Jahren mache, aber auch durchaus neuere“, erklärt Schmid. Als sie allerdings nach den Quellen fragte, bekam sie keine befriedigende Antwort. „Solange ich mich nicht korrekt auf Quellen beziehen und damit auch nicht deren Vertrauenswürdigkeit prüfen kann, stellt ChatGPT keine Gefahr für den Qualitätsjournalismus dar“, unterstreicht Ute Schmid.
Thilo HagendorffPost-Doc am Exzellenzcluster „Machine Learning: New Perspectives for Science“, Eberhard Karls Universität Tübingen: „Es ist nicht sichergestellt, dass diese Modelle immer nur richtige Informationen produzieren.“
Wer ChatGPT in Marketing oder Kunden-Support einsetzt, hat noch ein weiteres Problem: Werden personenbezogene Informationen wie Name, Anschrift oder Telefonnummer eines Kunden, Geschäftspartners oder Mitarbeiters in die Dialogbox eingegeben, landen diese Daten auf den Servern von Open AI in den USA. Laut Pierre Daniel Wittmann, Senior Associate bei der Luther Rechtsanwaltsgesellschaft und Host des Rechts-Podcasts „Recht.Einfach.Erklärt“ (https://open.spotify.com/show/3OX9YEpmArvFKNNYKZo1LI), kann ein Prompt, der personenbezogene Daten eines Betroffenen ohne dessen Einwilligung und ohne gesetzliche Erlaubnis enthält, bei einer Eingabe in ChatGPT einen Verstoß gegen die EU-Datenschutz-Grundverordnung begründen. Daher sollten Unternehmen anhand des von ihnen bestimmten Einsatzzwecks von ChatGPT prüfen, wie sich ein datenschutzkonformer Einsatz von Chat-GPT umsetzen lässt. Hierzu kann je nach Anwendungsfall der Abschluss von datenschutzrechtlichen Vereinbarungen mit OpenAI zählen. Besonders unangenehm könnte es werden, wenn die sensiblen persönlichen Daten plötzlich in den Antworten anderer Nutzer auftauchen. In seinen AGB behält sich Open AI nämlich vor, die eingegebenen Inhalte zur Weiterentwicklung seines Sprachmodells zu nutzen. „Es kann damit nicht ausgeschlossen werden, dass von den Nutzern eingegebene personenbezogene Daten als Output bei einem anderen Nutzer von ChatGPT erscheinen“, erklärt Wittmann.
Oliver BrockProfessor am Robotics and Biology Laboratory der TU Berlin: „ChatGPT stellt in der KI- Forschung keinen Durchbruch dar.“
Ähnlich problematisch kann es werden, wenn Anwender ChatGPT nutzen, um beispielsweise Geschäftsberichte oder Business-Pläne zu erstellen. Werden dabei Betriebs- oder Geschäftsgeheimnisse als Input zur Verfügung gestellt, könnten diese bei der Konkurrenz landen. „Unternehmen sollten daher ihre Mitarbeiter sensibilisieren, keine geschäftskritischen Informationen als Prompt gegenüber ChatGPT preiszugeben“, rät Wittmann.
Der Hype um den Chatbot ChatGPT ist weniger seiner Leistungsfähigkeit und mehr seiner allgemeinen und kostenlosen Verfügbarkeit und einfachen Nutzung geschuldet. Das Vorgängermodell GPT-3 und auch Googles LaMDA liefern ähnliche Ergebnisse – aber eben nur gegen Bezahlung und für Eingeweihte. „ChatGPT stellt in der KI-Forschung keinen Durchbruch dar“, sagt Oliver Brock, Professor am Robotics and Biology Laboratory und Sprecher des Clusters „Science of Intelligence“ an der Technischen Universität Berlin. „Aus meiner Sicht gibt es noch wirklich kategorische Herausforderungen, für die wir noch keine Lösung haben und die auch nicht durch tiefes Lernen oder Sprachmodelle gelöst werden können.“
Dennoch sieht Brock in der Initiative von Open AI, seine Ressourcen einer breiten Öffentlichkeit zur Verfügung zu stellen, einen wichtigen Fortschritt: „ChatGPT macht diese riesigen Datenmengen, die im Internet verfügbar sind, auf eine intuitive und natürlichsprachliche Weise zugänglich.“
Mit der breiten Nutzung von ChatGPT werden viele Fragen öffentlich, die bisher meist nur in kleineren Kreisen diskutiert wurden: Wie wollen wir künftig mit maschinell generierten Texten umgehen und wem gehören die produzierten Werke? Wie lassen sich in den generierten Textmengen Fakten von Fake News unterscheiden? Was für einen Wert haben schriftliche Leistungsnachweise noch, wenn man sie per Knopfdruck erstellen lassen kann? Welchen Einfluss haben Sprachmodelle und ChatGPT auf den Arbeitsmarkt? Kommt nun der von McKinsey bereits 2018 prophezeite massenhafte Verlust von Arbeitsplätzen durch KI?
Der Erfolg von ChatGPT und die potenziellen Auswirkungen auf Wirtschaft und Gesellschaft machen die Dringlichkeit einer Regulierung von KI-Systemen immer deutlicher, allerdings kommt das von der Europäischen Kommission im April 2021 vorgeschlagene „Gesetz über Künstliche Intelligenz“ nicht so recht voran. Einmal mehr besteht die Gefahr, dass mächtige Konzerne wie Google, Meta und Microsoft vollendete Tatsachen schaffen, bevor die Gesellschaft einen Rahmen vorgeben kann.
Mit den folgenden Extensions lässt sich ChatGPT in andere Applikationen integrieren und funktionell erweitern: