Phänomen ChatGPT – Neuer Meilenstein der künstlichen Intelligenz?

Wie ein Chatbot bald unser Alltagsleben revolutionieren könnte

Der vom japanischen Unternehmen Honda entwickelte humanoide Roboter „ASIMO“ basiert auch auf künstlicher Intelligenz. | Foto: Maximalfocus/www.unsplash.com

Der Hauptsitz von OpenAI befindet sich im historischen Pioneer Building in San Francisco. | Foto: Wikimedia Commons

Der Name ChatGPT fegt seit Wochen durch die Medien. Dahinter verbirgt sich ein auf künstlicher Intelligenz (KI) basierender Chatbot, der nur fünf Tage nach seiner Veröffentlichung über eine Million Nutzer haben soll. Bei Lehrern und Professoren sorgt er für Sorgenfalten. Ganze Industrie- und Berufszweige befürchten eine Disruption ihrer Tätigkeitsbereiche. Wie lässt sich dieses Phänomen erklären?

Hinter ChatGPT, Ende November vergangenen Jahres der breiten Öffentlichkeit zur Nutzung bereitgestellt, steckt das in San Francisco ansässige Unternehmen OpenAI. Die Firma konzentriert sich auf die Erforschung von künstlicher Intelligenz und wurde 2015 von Sam Altman und Tesla-Chef Elon Musk gegründet. OpenAI hat sich über die Jahre hinweg eine beachtliche Reputation auf dem Gebiet der künstlichen Intelligenz erarbeitet. Vergangene Woche erklärte der Technologiekonzern Microsoft, zehn Milliarden Dollar in das Unternehmen investieren zu wollen. Momentan ist ChatGPT nach einer Registrierung noch kostenlos nutzbar. Noch dieses Jahres soll eine „professionelle Version“ angeboten werden, die außerdem schneller ist.

Was macht ChatGPT so besonders?

Chatbots sind bei Weitem nicht neu. Der erste soll schon 1966 vom amerikanischen Computerwissenschaftler Joseph Weizenbaum entwickelt worden sein. Seit Mitte der 1990er hat sich die Entwicklung in diesem Bereich deutlich beschleunigt. Chatbots werden mittlerweile als Assistenten vor allem in der Kommunikation mit Kunden genutzt. 

Was hebt ChatGPT nun von den bereits bestehenden KI-basierten Chatbots ab? Die Besonderheit von ChatGPT besteht darin, dass man mit ihm eine quasi normale Unterhaltung führen kann und oft innerhalb weniger Sekunden die vermeintlich korrekten Antworten bekommt. Es wird somit ein natürliches Spracherlebnis geschaffen, welches einem zwischenmenschlichen Dialog sehr nahe kommt. GPT steht für „Generative Pre-training Transformer“. Die Software, die sich dahinter verbirgt, basiert auf maschinellem Lernen, dem sogenannten „Deep Learning“. Auch Systeme, die auf künstlicher Intelligenz basieren, müssen also lernen. Durch das Lernen sollen neuronale Netze entstehen, die sich mit dem menschlichen Nervensystem vergleichen lassen. Die Entwickler von OpenAI fütterten dabei ihre Sprachsoftware mit frei verfügbaren Texten aus dem Internet, die ca. 500 Milliarden Wörter umfassten. ChatGPT lernte dadurch nicht nur, wie Sprache funktioniert, sondern auch, wie sich gesprochene von geschriebener Sprache unterscheidet. Aus diesem Lernprozess entwickelt der Chatbot zudem die Kenntnisse, in welcher Form auf die jeweiligen Fragen geantwortet werden soll. ChatGPT kann dadurch an verschiedene Anwendungen und Aufgaben angepasst werden, indem es auf spezifische Datensätze trainiert wurde. Dabei ist die Anwendung auch in der Lage, große Mengen an Daten zu verarbeiten.

Es gibt bei diesem Prozess zwei unterschiedliche Lernmethoden. Das sogenannte „überwachte Lernen“ und das „unüberwachte Lernen“. Von „unüberwacht“ spricht man, wenn vorher keine Zielwerte festgelegt werden und auch keine Belohnung durch die Umwelt erfolgt. Es können so viele verschiedene Dinge gelernt werden. Bei ChatGPT handelt es sich um ein adaptiertes Modell, welches nicht nur allein auf „unüberwachtem Lernen“ basiert. Der Chatbot wurde auch mit überwachten und zielgerichteten Lernmethoden feinjustiert. Hierbei kommen auch die Nutzerinnen und Nutzer von ChatGPT ins Spiel. Bei einem derartigen Lernmechanismus bekommt die künstliche Intelligenz menschliches Feedback, mit dessen Hilfe bestimmte „schädliche“ Verhaltensmuster abtrainiert oder aber auch erwünschte Verhaltensmuster erzwungen werden können. Nach jeder bereitgestellten Antwort können die Nutzer diese bewerten. Ebenso ist es möglich, bei nicht zufriedenstellenden Informationen dem Chatbot Vorschläge für die richtige oder eine bessere Antwort zu machen. Als Nutzer hat man somit einen direkten Einfluss auf das Training. Wie andere Chatbots verfügt auch ChatGPT über Schutzmechanismen, um beispielsweise Vorurteile, Rassismus oder Diskriminierung zu erkennen und diese dann auch zu vermeiden. Eine Garantie, negative Elemente ganz auszuschließen, gibt es jedoch nicht. Es besteht trotzdem die Möglichkeit, dass Nutzer den Chatbot durch gezielte Fragen auf problematische Antworten trainieren könnten.

Talentiertes Werkzeug mit disruptiver Wirkung?

ChatGPT generiert nicht nur einfach Texte. Gibt man dem Programm eine Anweisung oder Frage ein, die besonders detailliert ist, so kann der Chatbot auch Gedichte zu diversen Themen schreiben, Lieder komponieren oder selbst Programmiercode für Software generieren. Sucht man ein originelles Geburtstagsgeschenk für einen Zehnjährigen oder einige kreative Zeilen für die Weihnachtskarte, so hilft ChatGPT mit Vorschlägen. Die Fähigkeiten des Programms scheinen nahezu unbegrenzt. Es stellt sich somit auch die Frage, wie sich künstliche Intelligenz in Zukunft weiterentwickeln wird und welchen Einfluss sie auf unsere Arbeits- und Alltagsleben haben könnte? Schon jetzt ist sie in vielen Bereichen im Einsatz und weiterhin auf dem Vormarsch, der sich auch nicht bremsen lässt. In der Anwendung spielt künstliche Intelligenz beispielsweise bei Werbetexten bereits eine wichtige Rolle. Mit ihrer Hilfe entstehen tausendfache Werbetexte zu Produkten für die Industrie. Befürworter heben vor allem die Skalierbarkeit der Technologie hervor, gewisse Vorgänge tausendfach umzusetzen, die in einem Job auch Langeweile verursachen könnten.

Kritische Stimmen prophezeien bereits das Aussterben ganzer Berufszweige und Branchen. Niemand wünscht sich, von einem Computerprogramm ersetzt zu werden, aber an Textgeneratoren, die auf künstlicher Intelligenz basieren, werden wir uns gewöhnen müssen. Neue Berufsfelder, die auf künstlicher Intelligenz basieren, sind schließlich auch ein wachsender Bestandteil der „Industrie 4.0“.

Viel Potenzial, aber bei Weitem nicht fehlerfrei

Auf den ersten Blick scheint ChatGPT ein omnipotentes und äußerst nützliches Werkzeug zu sein. Für Schüler und Studenten scheint dadurch das selbständige Schreiben der Hausaufgaben, Aufsätze, Hausarbeiten und sogar Abschlussarbeiten der Vergangenheit anzugehören. Wie bei vielen Innovationen lohnt sich auch hier ein genauerer und prüfender zweiter Blick. 

ChatGPT besticht bisweilen mit seinen Fähigkeiten. Dennoch verfügt der Chatbot auch über diverse Schwächen, die der Betreiber OpenAI nicht verheimlicht. Öffnet man ChatGPT, so bekommt man als Nutzer nicht nur Fragebeispiele und einen kurzen Überblick zu den Fähigkeiten des Chatbots präsentiert, sondern auch Hinweise auf die Schwächen.

Dazu gehört, dass Chat GPT zu Ereignissen und Daten, die erst nach 2021 erstanden sind, ein limitiertes Wissen hat. Die aktuelle nutzbare Version wurde nur mit Information bis September 2021 trainiert. Das gesamte Datenmaterial, welches seither generiert wurde, steht dem System gegenwärtig nicht oder nur eingeschränkt zur Verfügung und kann somit darüber auch keine Antworten liefern. OpenAI verweist auch darauf, dass möglicherweise nicht jede generierte Information richtig ist. Technikaffine Tester und Journalisten haben bereits diverse Lücken und Falschinformationen bei ChatGPT aufgedeckt, die das System eigentlich durch das Gelernte wissen sollte. Es ist daher für den Nutzer durchaus problematisch, nicht zu wissen, was das Programm selbst nicht weiß. So interessant und hilfreich ChatGPT auch sein mag, sollte man nicht allen Antworten kritiklos vertrauen. Schüler und Studenten sollten ChatGPT demzufolge mehr als Lernhilfe betrachten und nicht als Lernersatz.

Letztlich lässt OpenAI ihre Nutzer auch wissen, dass einige bereitgestellte Informationen auch schädlich, diskriminierend oder voreingenommen sein könnten.

Die Journalismus-Plattform „NewsGuard“, die sich für das Aufdecken von Fake News einsetzt, testete die Chatbot-Software und kam dabei zu einem ernüchternden Urteil. Bei 80 von insgesamt 100 Fragen generierte ChatGPT falsche Tatsachenbehauptungen. Die Faktenchecker warnen daher, dass das Chat-Programm als Werkzeug für bewusst gestreute Falschmeldungen missbraucht werden könnte.

Ohne Kontrolle und rechtlichen Rahmen?

OpenAI hat mit ChatGPT nicht nur ein beeindruckendes Produkt erschaffen, dass die Entwicklungsmöglichkeiten künstlicher Intelligenz offenbart, vielmehr stößt es damit aber auch auf Debatten an. Ist es ausreichend, dass das Unternehmen die Nutzer von ChatGPT auf seine Schwächen hinweist? Wie steht es mit der Verantwortung, wenn der Chatbot einen Ratschlag erteilt, der möglicherweise ernsthafte negative Konsequenzen nach sich ziehen könnte? Wie kontrolliert man, ob die Daten, die der künstlichen Intelligenz zur Verfügung gestellt werden, auch korrekt sind? Und wie kann diese dann gegebenenfalls korrigiert werden? Für alle diese Fragen und Unklarheiten ist es daher notwendig, einen rechtlichen Rahmen zu schaffen, in dem Programme wie ChatGPT betrieben werden können. Die Politik ist gefordert, hier mit der Zeit aktiv zu werden.  


Was ist ein Chatbot?

Die Bezeichnung „Chatbot” ist eine Wortzusammensetzung aus Chat und Roboter. Ein Chatbot ist demnach ein Roboter, mit dem man auf Grundlage einer Software kommunizieren kann. Die Kommunikation mit dem Bot kann über einen schriftlichen Chat oder auch mündlich erfolgen. Chatbots werden häufig als digitale Assistenten auf Webseiten für die Kundenkommunikation und den Support genutzt. Die Kommunikation läuft hierbei über ein Textfeld oder Spracherkennung.