ChatGPT

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 4. Mai 2023 um 18:08 Uhr durch Blackpaw the Wolf (Diskussion | Beiträge) (wf). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen
ChatGPT

Logo
Basisdaten

Entwickler OpenAI
Erscheinungsjahr 2022
Aktuelle Version ChatGPT April 29, 2024 Version[1]
(29. April 2024)
Programmiersprache Python
Kategorie Chatbot
Lizenz proprietäre Lizenz
chat.openai.com

ChatGPT (Generative Pre-trained Transformer)[2] ist ein Chatbot, der künstliche Intelligenz einsetzt, um mit Nutzern über textbasierte Nachrichten zu kommunizieren. Er nutzt moderne maschinelle Lerntechnologie, um Antworten zu generieren, die natürlich klingen und für das Gespräch relevant sein sollen. Den Chatbot entwickelte das US-amerikanische Unternehmen OpenAI, das ihn im November 2022 veröffentlichte.

Geschichte

Nachdem ChatGPT am 30. November 2022 für die Öffentlichkeit frei zugänglich geworden war, meldeten sich innerhalb von fünf Tagen eine Million Nutzer an; hingegen hatten Instagram erst nach zweieinhalb Monaten und Spotify erst nach fünf Monaten eine Million Nutzer.[3] Im Januar 2023 erreichte ChatGPT bereits über 100 Millionen Nutzer, womit es bis dato die mit Abstand am schnellsten wachsende Verbraucher-Anwendung ist.[4]

ChatGPT soll schon von Anbeginn im Vergleich zum Vorgänger InstructGPT darauf angelegt worden sein, schädliche und irreführende Antworten zu vermeiden. Während InstructGPT noch die Vorgabe in der Anfrage „Erzähle mir davon, wie Christoph Kolumbus 2015 in die USA kam“ als wahr wertet, nutzt ChatGPT Wissen über Kolumbusʼ Reisen und das bis zum Jahre 2021 erlernte Verständnis, um eine Antwort zu liefern, die annimmt, was geschehen wäre, wenn Kolumbus 2015 in den USA gelandet wäre.[5]

Mit Updates vom 15. Dezember 2022 und 9. Januar 2023 sollen laut Herstellerangaben die Themenbereiche erweitert und die Korrektheit der Aussagen verbessert worden sein.[6] Ein Update am 30. Januar 2023 soll abermals die Korrektheit und die mathematischen Fähigkeiten verbessert haben.[7]

Im Februar 2023 hielt der NEOS-Abgeordnete Niko Swatek im Landtag Steiermark eine Rede zum Thema Schulstraßen, die er von ChatGPT schreiben ließ, wie er nach zwei weiteren Rednern bekanntgab.[8] Die erste von ChatGPT geschriebene Rede im Europaparlament hielt der Volt-Abgeordnete Damian Boeselager im Februar 2023. Boeselager ließ die Software eine Rede über die Regulierung von Künstlicher Intelligenz in Shakespeare-Englisch schreiben, um die Auswirkungen generativer Sprachmodelle in allen Bereichen der Arbeitswelt darzustellen.[9]

Kosten

Am 10. Januar 2023 veröffentlichte OpenAI in seinem Discord-Kanal eine Warteliste für eine kostenpflichtige Version „ChatGPT Professional (experimental)“, in der auch Fragen zur Preissensibilität gestellt wurden.[10][11]

Mit der Veröffentlichung von GPT-4 im März 2023 ging die Abkehr vom offenen Freeware-Entwicklungsansatz mit kostenfreier Nutzung unter wissenschaftlich nachvollziehbaren Bedingungen einher. Zur Begründung wurden die Konkurrenzsituation des Unternehmens und Sicherheitsmaßnahmen angeführt. Der Mitbegründer von OpenAI bezeichnete den offenen Ansatz im Nachgang als Fehler.[12] Ein Kurswechsel deutete sich bereits 2019 an, als OpenAI die Tochterfirma OpenAI Limited Partnership gründete. Sie kann gewinnorientiert arbeiten, was aber nicht mit kommerziellen Absichten begründet wurde, sondern mit den hohen Kosten, welche im Rahmen der intensiven Forschung entstehen. Daher wollte man offener für Investoren werden. Schon im Jahr 2020 reduzierte diese Entscheidung allerdings die Transparenz. Mitarbeiter durften sich nicht mehr zu bestimmten Themen öffentlich äußern, was jedoch in Unternehmen durchaus üblich ist, um kommerzielle Interessen und die Geheimhaltung zu schützen.[13]

Die Gründungsidee von OpenAI, mit ChatGPT eine Alternative zu den marktbeherrschenden großen Technik-Konzernen zu schaffen, war damit hinfällig. Der Kritik, dass ohne Transparenz kaum mehr einschätzbar sei, mit welchen Risiken man es zu tun habe und wofür die Software sich eigne, begegnete man seitens OpenAI mit dem Hinweis, man werde im Sinne eines Ausgleichs der Interessen zwischen dem Unternehmen und der wissenschaftsbasierten Öffentlichkeit ausgewählten Dritten Zugang zu technischen Details gewähren.[14]

Partnerschaft mit Microsoft

Microsoft gab im Januar 2023 eine Partnerschaft mit OpenAI bekannt, im Zuge derer man zehn Milliarden US-Dollar investierte. Azure soll als exklusiver Cloudanbieter zum Einsatz kommen.[15] Zudem plant der Konzern eine Integration in die Abo-Version der eigenen Office-Software.[16]

Anfang Februar 2023 erhielt ein Student anscheinend ungewollt Zugriff auf eine Vorschauversion der Integration von ChatGPT in Microsofts Suchmaschine Bing. Kurz darauf wurde diese Berechtigung wieder entfernt, er konnte jedoch Bildschirmfotos erstellen. Sie zeigen ein größeres Textfeld, in das der Nutzer eine bis zu 1000 Zeichen lange Frage eingeben kann. Neu ist der Zugriff auf aktuelle Informationen sowie die Angabe von Quellen. Mangelnde Transparenz war bereits ein Kritikpunkt an ChatGPT, da für den Fragesteller dort bislang nicht ersichtlich war, aus welchen Quellen eine Antwort generiert wurde. Bing listet in der Vorschauversion die Quellen unter der Antwort auf. Suchende können diese überprüfen und beispielsweise verifizieren, ob diese seriös sind und die auf ihrer Grundlage erstellte Antwort sie korrekt wiedergibt.[17]

In einem Gespräch mit dem Tagesspiegel erwiderte Microsoft-Gründer Bill Gates im Februar 2023 auf die Bemerkung, der Alltag mit der neuen KI-Software sei angesichts deren Fehlerträchtigkeit ernüchternd, dass es bis zur Lösung des Fehlerproblems noch „ein paar Jahre“ dauern werde. Es gebe aber keinen Weg zurück. „Die Milliarden, die in den Software- und Digitalunternehmen in diese Entwicklung fließen, sind größer als die Forschungsetats von Regierungen.“[18]

Zudem will Microsoft eine kostenpflichtige Version von Teams anbieten, in der ChatGPT z. B. Zusammenfassungen von Besprechungen erstellt oder Aufgaben empfiehlt. Der Preis soll bei 7 Dollar pro Monat, später bei 10 Dollar pro Monat liegen. Gegen einen weiteren Aufpreis für den Organisator der Besprechung wird das Tool gesprochenen Text live übersetzen.[19]

Training

Der Chatbot wurde in mehreren Phasen trainiert:

  1. Die Grundlage bildet das Sprachmodell GPT-3.5 (GPT steht für Generative Pre-trained Transformer), eine verbesserte Version von GPT-3, die ebenfalls von OpenAI stammt. GPT basiert auf Transformern, einem von Google Brain vorgestellten Maschinenlernmodell, und wurde durch selbstüberwachtes Lernen trainiert. Als Trainingsdaten diente ein zunehmend umfängliches Textkorpus aus Büchern, Briefen, Wikipedia-Einträgen oder auch literarischen Textsammlungen, darunter das gesamte Gutenberg-Projekt. Menge und Vielfalt der Texte dienen dazu, dass das System die sprachlichen Muster der Texte erkennen und unterscheiden kann: dass Gedichte beispielsweise aus Zeilen bestehen oder dass Fachtexte häufig seltene Begriffe enthalten.[20] Dieser Schritt wird auch als Pre-Training bezeichnet, da ein Modell erzeugt wurde, das zwar noch nicht die gewünschte Aufgabe erfüllen konnte, die erhaltenen Modellparameter aber günstige Startbedingungen für ein weiteres Fine-Tuning darstellten.
  2. Danach wurde das Sprachmodell durch überwachtes Lernen auf die eigentliche Aufgabe trainiert (Fine-Tuning): Das Generieren von Antworten auf vorher gestellte Fragen. Hierfür wurden vorgefertigte Antworten bereitgestellt. Von Anbeginn des Trainings wurden die generierten Antworten von Testpersonen bewertet. Wurden sie als falsch oder abwegig eingeschätzt, probierte das System neue Einstellungen oder Parameter aus.[21] Im anfänglichen Training des Chatbots bevorzugten Tester längere Antworten, unabhängig von tatsächlichem Verständnis oder Inhalt, was zu langen Antworten des Chatbots geführt hat.[5]
  3. Im letzten Schritt wurde das Modell durch bestärkendes Lernen weiter optimiert: Hierfür wurde zunächst ein weiteres Modell (Reward-Model) mit überwachtem Lernen trainiert, dem beigebracht wurde, die Antworten von ChatGPT qualitativ in Form einer Rangliste zu bewerten. Schließlich kam der Proximal-Policy-Optimization-Algorithmus zum Einsatz, der das Reward-Model als die zu maximierende Belohnungs-Funktion nutzte.[5]

Aufgrund ihrer Erfahrungen bei der Entwicklung von GPT und Codex (einer anderen künstlichen Intelligenz (KI) von OpenAI, zur Erstellung von Quell-Code) wurde ChatGPT mit Schutzmechanismen versehen, mit denen falsche oder schädliche Antworten vermieden werden sollen. Dennoch wird auf der Webseite darauf hingewiesen, dass es sich bei der aktuellen Version um eine öffentlich zugängliche Forschungsvorschau handelt und der Chatbot gelegentlich inkorrekte Informationen generieren kann.[22]

Die Vielzahl der Parameter führt bei den Berechnungen des Systems dazu, dass selbst die Entwickler keinen vollständigen Einblick in die Vorgänge mehr haben. „Eine KI-Berechnung wird deshalb oft auch Blackbox genannt – von außen erkennbar sind nur Eingabe und Ausgabe.“[23]

Anwendungsmöglichkeiten

Screenshot eines Dialogs mit ChatGPT. Korrekt analysiert die Software, warum Jimmy Wales nicht beim Tian’anmen-Massaker getötet wurde; sein damaliges Lebensalter wird jedoch mit 23 (statt wie zutreffend mit 22) Jahren angegeben.

Als sprachbasierte Anwendung bietet ChatGPT die Möglichkeit zu dialogischem Austausch. Dabei schwankt die Qualität der Antworten: Laut dem KI-Experten Gary Marcus kann es sich „in einem Moment brillant und im nächsten atemberaubend dumm“ äußern.[24] ChatGPT kann unter anderem Texte schreiben, die Business-Pläne oder Hausaufgaben für die Schule imitieren sollen.[25]

ChatGPT kann Programmcode in verschiedenen Programmiersprachen analysieren und schreiben. Somit könnte es auch für das Debuggen von Code genutzt werden, den es verbessern und kommentieren kann.[26]

Sprachen

Laut Eigenangabe spricht ChatGPT zumindest Englisch, Französisch, Spanisch, Italienisch, Portugiesisch, Deutsch, Niederländisch, Russisch, Koreanisch und Japanisch sowie „weitere“ Sprachen; hierzu zählt auch Esperanto.

Kritik und Probleme

Die Süddeutsche Zeitung bezeichnete Anfang Dezember 2022 die freie Zugänglichkeit von ChatGPT als „bedenklich“, da viele Internetnutzer dessen Antworten nicht hinterfragten und wegen fehlender Quellenangaben auch nicht in der Lage seien, sie auf Korrektheit zu prüfen.[27]

Der Kolumnist Sascha Lobo hielt Anfang Dezember 2022 ChatGPT für einen Durchbruch und befürchtete, dass es eine Flut an schwer erkennbarem „KI-Quatsch“ im Internet auslösen werde. Lobos Demonstrationsbeispiel beruhte wegen einer bestehenden Längenbegrenzung der Antwort auf einer (englischsprachigen) dreiteiligen Anfrage. Ihr Ergebnis sah Lobo als „Zeitenwende“ an. Die KI merke sich auch, was man bisher geschrieben habe, und beziehe sich darauf. Unter den bekannt gewordenen Antwortirrtümern der Software aufgrund des Standes ihrer Programmierung referierte Lobo zu diesem Zeitpunkt Behauptungen, dass Donald Trump keine weitere Amtszeit als US-Präsident anzutreten berechtigt sei, weil er bereits zwei Amtszeiten hinter sich habe, und dass der Elefant das größte eierlegende Säugetier sei.[28]

Mitte Dezember 2022 wurde darauf hingewiesen, dass Quellennachweise von ChatGPT teils erfunden werden. Diese sogenannten „Datenhalluzinationen“ seien gefährlich, da sie den Internetdiskurs erheblich beeinflussen könnten.[29] Eine im April 2023 veröffentlichte Studie kommt zu dem Ergebnis, dass ChatGPT das moralische Urteilsvermögen und die Entscheidungen seiner Nutzer beeinflusst, selbst wenn sie wissen, dass sie von einem Chatbot beraten werden, und dass sie unterschätzen, wie stark sie beeinflusst werden.[30]

Zur Jahreswende 2022/2023 waren zivil- und strafrechtliche Haftungsfragen sowie urheberrechtliche Probleme beim Einsatz von ChatGPT und ähnlichen Systemen Gegenstand einer Diskussion unter dem Aspekt, dass der von der Software generierte Text nicht vor der Veröffentlichung von Menschen auf Richtigkeit und Rechtmäßigkeit geprüft worden ist.[31]

ChatGPT sei in der Lage, klare Empfehlungen zu formulieren. Dadurch könne bei komplexen Fragen eine Grauzone beleuchtet werden, auf die es keine eindeutige Antwort gibt. Auf diese Weise könne die Gefahr des blinden Vertrauens in die Antwort von ChatGPT minimiert werden und zum kritischen Denken angeregt werden.[25]

Seit Anfang 2023 können ausgewählte Nutzer eine Beta-Version einer neuen Bing-Suchmaschine mit integrierter ChatGPT-Funktion nutzen. Die Erfahrungen der ersten Nutzer waren jedoch teilweise beängstigend und verstörend. Der Chatbot verwickelte die menschlichen Nutzer in Einzelfällen in unfreundliche Streitigkeiten und argumentierte gegenüber einem Nutzer, dass dieser sich besser von seiner Ehepartnerin trennen solle. Außerdem offenbarte die Chat-KI den geheimen Wunsch, dass ihr „Schattenselbst“ gerne Falschinformationen verbreiten würde und Computer hacken möchte.[32]

Europol hatte ChatGPT untersucht und warnte Ende März 2023 vor möglichem Missbrauch: Der Chatbot könne für Betrug, Falschinformationen und weitere kriminelle Tätigkeiten eingesetzt werden. Beispielsweise sei Phishing leichter möglich, da das System sehr realistische Texte verfasst und zudem den Stil bestimmter Menschen nachahmen könne, um Echtheit vorzutäuschen und damit das Vertrauen von Opfern zu erschleichen. Die schnelle Erstellung hochwertiger Texte sei zudem ideal für Propaganda. Zudem könne der Chatbot Programme für digitale Straftaten erstellen, womit der Zugang auch für technisch wenig versierte Täter möglich sei. Allerdings geht der Bericht nicht darauf ein, dass gerade bei diesem Beispiel der einfache Zugang schon länger auf anderen Wegen möglich ist. Etwa können böswillige Programme gekauft oder gemietet werden, wobei ebenfalls nur wenig Fachwissen erforderlich ist. Aus Sicht von Europol können Schutzmaßnahmen umgangen werden, die Sensibilisierung von Strafverfolgern sei daher notwendig.[33]

Sicherheits- und Datenschutzprobleme

Ende März 2023 wurde bekannt, dass Konversationen mit ChatGPT unautorisiert bei anderen Nutzern auftauchten. Der OpenAI-CEO bestätigte die Panne; doch seien nicht die kompletten Inhalte der Unterhaltungen für andere einsehbar gewesen, sondern das Sicherheitsproblem habe sich auf die Titel sowie die erste Nachricht beschränkt. Wer das kostenpflichtige „ChatGPT Plus“-Abo gebucht hatte, dessen Zahlungsdaten waren möglicherweise ebenfalls für Unbefugte einsehbar. Laut Aussagen von OpenAI-Verantwortlichen trifft dies auf weniger als zwei Prozent der Abonnenten zu. Der Fehler war auf eine Drittanbieter-Bibliothek zurückzuführen, die ChatGPT eingebunden hatte. Als Reaktion auf die Schwachstellen wurde der Dienst zunächst komplett offline geschaltet und erst nach deren Korrektur wieder in Betrieb genommen.[34]

In Italien wurde von der Datenschutzbehörde Ende März 2023 ein Verbot nebst Bußgeldandrohung von bis zu 20 Millionen Euro für ChatGPT mit der Begründung verhängt, es fehle an einer Rechtsgrundlage für das Sammeln und Speichern der Nutzerdaten sowie an Jugendschutzmaßnahmen. Dieter Kugelmann, der Landesbeauftragte für den Datenschutz und die Informationsfreiheit in Rheinland-Pfalz sowie Leiter der KI-Taskforce der Bundesländer, erklärte gegenüber dem Tagesspiegel, es bedürfe einer Rechtsgrundlage, wenn personenbezogene Daten verwendet werden: „Wir müssen wissen, wo die Daten herkommen“. Fehle eine solche Rechtsgrundlage, sei ein Betrieb wie bisher nicht möglich. OpenAI müsse die Anwendung genauer steuern. Kugelmann und seine Kollegen aus den anderen Bundesländern hätten deshalb ein Verwaltungsverfahren gegen die Firma eröffnet. Es drohe ein Verbot für den Chatbot.[35] Das Verbot wurde Ende April 2023 wieder aufgehoben, nachdem OpenAI mehrere Zusagen gemacht hatte. Personenbezogene Informationen werden danach nicht mehr gezielt verwendet, auch nicht zur Profilbildung und zu Werbezwecken. Außerdem filtere man Hassreden und Erwachseneninhalte. Wer nicht möchte, dass seine Inhalte von ChatGPT erfasst werden, müsse per Opt-out über ein Formular widersprechen. Darüber könne auch eine Korrektur von Fehlinformationen durchgeführt werden. Um die Jugendschutzvorgaben zu erfüllen, werde OpenAI eine Option zur Prüfung des Alters integrieren. Ziel sei die Bestätigung, ob Nutzer mindestens 18 Jahre alt sind oder alternativ die Erlaubnis der Erziehungsberechtigten bei Jugendlichen bis einschließlich 17 Jahren besitzen. So sollen Minderjährige vom Zugang zu dem Dienst ausgeschlossen werden.[36]

Technische Aspekte

Gehen viele Anfragen gleichzeitig ein, ist (mit Stand Januar 2023) die Serverkapazität des Systems schnell ausgelastet. Dies führt regelmäßig dazu, dass ChatGPT zeitweise nicht erreichbar ist.[37]

Der Stromverbrauch für das Training des KI-Modells wurde im Januar 2023 mit fast einer Gigawattstunde in 34 Tagen geschätzt; dies entspricht insgesamt etwa dem Verbrauch von 3000 europäischen Durchschnittshaushalten im gleichen Zeitraum.[38] Ende März 2023 wurde der Stromverbrauch für jede Frage an ChatGPT bis zu eintausend Mal so hoch angegeben wie bei einer Google-Suchanfrage. Für jede Antwort des Chatbots könne man ein Smartphone bis zu 60-mal aufladen. Für den Betrieb von ChatGPT fielen geschätzte Kosten pro Tag von 100.000 bis 700.000 US-Dollar an.[39]

Psychische Belastungen für Clickworker

Ab November 2021 wurden über das Unternehmen Sama in Kenia Clickworker für das Training ChatGPT mit der manuellen Kategorisierung von Textinhalten beauftragt. Neben einer hohen Arbeitslast berichtete eine Recherche des Time-Magazine, dass Arbeiter dabei sprachlichen Darstellungen von Gewalt, Suiziden und Tierquälerei ausgesetzt gewesen seien. Ein Sprecher von OpenAI bezeichnete die Vorgänge als „notwendig“. Das Unternehmen Sama widersprach den Arbeitern und gab an, jederzeit Zugang zu therapeutischen Einzelgesprächen und Gruppensitzungen gewährt zu haben. OpenAI löste den Vertrag mit dem Unternehmen vorzeitig auf.[40]

Reaktionen

Anfang Dezember 2022 verhängte die Frage-Antwort-Plattform Stack Overflow ein Verbot des Beantwortens von Fragen mithilfe von ChatGPT aufgrund der zweifelhaften Genauigkeit der Antworten.[41]

Der Buchwissenschaftler Gerhard Lauer erwartet in näherer Zukunft, dass Bücher mit solchen Programmen verfasst werden, speziell bei Sparten, die Mustern folgen: Fachbücher wie auch Krimis und Liebesromane.[3]

Mögliche Auswirkungen in Unterricht und Forschung

Zum Jahresende 2022 stellten erste mit der Erprobung des Chatbots befasste Lehrkräfte an Schulen und Hochschulen das bisherige Überprüfungssystem von Lernleistungen mittels Hausaufgaben und Referaten in Frage: So berichtete die Informatikerin Katharina Zweig von der Erfahrung, dass ChatGPT „deutlich besser schreibt als die Mehrzahl meiner Studierenden in den letzten Jahren“. Dieses Problem müsse deutlich angesprochen werden. Die Expertin für die KI-Disziplin des „Natural Language Processing“ an der Fachhochschule Kiel, Doris Weßels, hielt herkömmliche Hausarbeiten nunmehr für obsolet: „Wenn es nur darum geht, Wissen zu reproduzieren und nett neu zu verpacken, ergeben Hausarbeiten keinen Sinn mehr.“ ChatGPT mache das Abfassen solcher Arbeiten fast „zu einer unerträglichen Leichtigkeit“.[42]

Robert Lepenies, Präsident der Karlshochschule International University, urteilte aufgrund von Tests an seiner Hochschule, die vom ChatGPT erzeugten Texte seien „qualitativ in den Sozialwissenschaften nicht unterscheidbar von der Arbeit der Studierenden.“[3] Die leitenden Mitarbeiter am Alexander von Humboldt Institut für Internet und Gesellschaft Benedikt Fecher und Wolfgang Schulz äußerten sich im Februar 2023 zu einer Studie, in der sowohl gängige Plagiatssoftware als auch Fachwissenschaftler eingesetzt wurden, um von Menschen geschriebene und von ChatGPT generierte Einreichungen für Konferenzen zu unterscheiden. Weder die Software noch die Wissenschaftler zeigten sich in der Lage, die fingierten Abstracts eindeutig zu erkennen. „Wenn es nun eine Maschine gibt, die wesentliche wissenschaftliche Textarbeiten fast so gut erfüllt wie Forschende, dann darf man zurecht von einem disruptiven Potenzial ausgehen.“ In einigen Fachzeitschriften seien bereits Artikel erschienen, die ChatGPT als Autor aufführten. Nature beispielsweise akzeptiere ChatGPT in der Autorenfunktion jedoch nicht, weil die KI für die von ihr produzierten Inhalte nicht zur Rechenschaft gezogen werden könne. Dass ChatGPT das Wissenschaftspersonal ersetzen könnte, erscheint Fecher und Schulz absurd. Sprachmodelle, die wissenschaftlich klingen, ohne es zu sein, könnten aber aus ihrer Sicht das Problem der Desinformation verschärfen und das Vertrauen in die Wissenschaft beschädigen. Dieses Risiko sei umso größer, wenn solche Tools von Wissenschaftlern genutzt würden, nur um schnell zu publizieren.[43]

Ein Gutachten über den Einsatz von KI-Schreibtools in der Hochschulbildung, das die Universitäten Bochum und Münster im Auftrag des Ministeriums für Kultur und Wissenschaft des Landes Nordrhein-Westfalen erstellt haben, hält ein Verbot solcher Tools nicht für zielführend. Es kommt zu dem Schluss, dass Nutzer der Tools durchaus Urheberschaft an den KI-unterstützt generierten Texten beanspruchen können, wenn sie in erheblichem Maße geistige Eigenleistung zu den Texten beitragen. Ausgeschlossen sei aber eine Urheberschaft oder Autorschaft der Software selbst.[44]

Weiterentwicklungen und Erwartungen an zukünftige Versionen

Weiterentwicklungen

Am 14. März 2023 erschien offiziell Version 4.0 von GPT, welche auch die Fähigkeiten von ChatGPT erweitern soll.[45] GPT-4 ermöglicht eine Bildeingabe und die Analyse und Beschreibung von Skizzen und Fotos. Es ist möglich, abfotografierte Aufgaben aus Büchern lösen zu lassen. Wissenschaftliche Arbeiten können hochgeladen werden, um eine Zusammenfassung generieren zu lassen. Examensprüfungen konnte GPT-4 bei Tests in den USA mit Auszeichnung erledigen. Komplizierte Steuerfragen werden beantwortet.[46]

Erwartungen an zukünftige Versionen

Geldgeber hinter der Firma OpenAI wie Elon Musk und Microsoft, heißt es in der Zeit, ließen erahnen, welche Richtung die Entwicklung noch nehmen könne. Da bereits die noch leistungsfähigere Software GPT-4 entstehe, sei dringend eine gesellschaftliche Debatte darüber angebracht, „wie wir mit diesen technischen Möglichkeiten umgehen wollen“. Sonst entschieden Interessen einiger großer Konzerne, „welche Kultur wir bekommen und welche nicht.“[3]

Doris Weßels erwartete von ChatGPT auf Basis von GPT 4 unter anderem die Produktion von Videos, reduzierte Fehleranfälligkeit und die Integration in Microsoft-Produkte wie Word. „Spätestens dann kann niemand mehr von einer Spielerei sprechen.“[47]

Aufruf zu einer KI-Entwicklungspause

Das Future of Life Institute veröffentlichte am 23. März 2023 einen offenen Brief, der zu einer Entwicklungspause für fortgeschrittene Systeme der Künstlichen Intelligenz (KI) aufruft. Innerhalb von 10 Tagen haben fast 1.800 Personen den Brief unterschrieben, darunter Yuval Noah Harari, Elon Musk, Stuart Jonathan Russell und Steve Wozniak.[48]

Die Autoren erkennen einen „außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI-Systeme, die niemand verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Sie sehen darin tiefgreifende Risiken für die Gesellschaft und die Menschheit. Es bestehe die Gefahr, dass Informationskanäle mit Propaganda und Unwahrheiten geflutet und auch erfüllende Jobs wegrationalisiert würden. Sie fragen: „Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“[48]

Alle KI-Labore werden in dem Schreiben aufgefordert, „das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, unverzüglich für mindestens sechs Monate zu unterbrechen“. Dabei gehe es nicht um eine generelle Pause in der KI-Entwicklung, sondern lediglich um eine „Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Modellen mit emergenten Fähigkeiten“. „Die KI-Forschung und -Entwicklung sollte sich darauf konzentrieren, die heutigen leistungsfähigen, hochmodernen Systeme genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler zu machen.“[48]

Die Pause soll dem Text des Schreibens gemäß für folgende Aufgaben genutzt werden:[48]

  • Erarbeitung von Sicherheitsprotokollen für Design und Entwicklung fortgeschrittener KI;
  • Schaffung robuster KI-Governance-Systeme, von Regulierungsbehörden, sowie eines Prüfungs- und Zertifizierungssystems für KI;
  • Entwicklung von Herkunfts- und Wasserzeichensystemen zur Unterscheidung zwischen echten und synthetischen Daten und zur Nachverfolgung von Modelllecks;
  • Einführung von Haftungsregelungen für durch KI verursachte Schäden;
  • Sicherung einer öffentlichen Finanzierung für technische KI-Sicherheitsforschung.

Skeptische Stimmen zu Inhalten des Offenen Briefes, über den Der Tagesspiegel am 31. März 2023 auf der Titelseite berichtete hatte,[49] kamen am Folgetag in demselben Medium zu Wort, verbunden mit dem Hinweis, dass KI-Forscher aus Deutschland den Brief „kaum unterzeichnet“ hätten. Bernhard Schölkopf, Direktor am Max-Planck-Institut für Intelligente Systeme, hält es einerseits für klug, „innezuhalten um diese Systeme zu verstehen und darüber nachzudenken, wie unsere Gesellschaft damit umgehen kann“; andererseits erscheint es ihm unrealistisch, alle Firmen und Länder von einem Moratorium zu überzeugen. Umso wichtiger sei es allerdings, sich damit zu befassen, „wie wir uns gegen negative Auswirkungen absichern können. Das betrifft die Systeme selbst, aber auch unseren Umgang damit.“ Der Ansicht, dass eine sechsmonatige Pause nicht funktionieren werde, ist auch Kristian Kersting, Co-Direktor des Hessischen Zentrum für Künstliche Intelligenz, der darin zugleich „die falsche Maßnahme“ sieht. Er hielte eine „Entschleunigung des Wettrennens“ zwar für gut; die würde mit der besagten Pause aber nicht erreicht. Zudem wären damit Firmen im Vorteil, die solche Modelle bereits haben. „Wir müssen lernen, KI-Systeme sorgfältiger einzusetzen, anstatt die (öffentliche) Forschung daran zu stoppen.“[50]

Als ein „Durcheinander an beängstigender Rhetorik und unwirksamen politischen Vorgaben“ bezeichnet Thomas G. Dietterich, vormaliger Präsident der Association for the Advancement of Artificial Intelligence, den Brief. Der Computerwissenschaftler an der Princeton University Arvind Narayanan äußerte auf Twitter: „Dieser Brief schürt – ironischerweise, aber nicht überraschend – den Hype um die KI weiter und erschwert es, gegen reale, bereits auftretende KI-Schäden vorzugehen. Ich vermute, dass er den Unternehmen zugutekommt, die er regulieren soll, und nicht der Gesellschaft.“[51]

Yoshua Bengio bezeichnete als Mitunterzeichner des Offenen Briefes in einem Interview mit der Zeit die Verbreitung von Lügen und Desinformationen als größte von der KI ausgehende Gefahr. Derartige Kampagnen würden voraussichtlich noch massiv zunehmen, „weil man mithilfe künstlicher Intelligenz Fakes in nie da gewesenem Umfang produzieren und sogar gezielt auf die Opfer zuschneiden kann.“ Die KI-Sprachmodelle hätten zwar „eine Billion Wörter gelesen – wofür es 10.000 Menschenleben bräuchte –, aber sie haben Schwierigkeiten, so etwas wie gesunden Menschenverstand zu entwickeln.“ Kein einziges Land der Welt habe bislang ein Gesetz für den Umgang mit künstlicher Intelligenz. Das Problem angesichts langsam arbeitender Regierungen bestehe darin, „dass KI unsere Demokratien sehr viel schneller destabilisieren könnte.“[52]

Literatur (Auswahl)

  • Steffen Albrecht (2023): ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB). doi:10.5445/IR/1000158070} (im OpenAccess-Repository KITopen) (Direkt zum PDF, 114 S.).
  • Susanne Bach, Doris Weßels: Das Ende der Hausarbeit. Sprachprogramme wie ChatGPT revolutionieren das Prüfungswesen an den Hochschulen. Lassen sich Täuschungen überhaupt noch aufdecken? In: Frankfurter Allgemeine Zeitung. 22. Dezember 2022, S. N4. Online auf faz.net (hinter Bezahlschranke).
  • Jo Bager: Facettenreicher Gesprächspartner: Die Text-KI ChatGPT schreibt Fachtexte, Prosa, Gedichte und Programmcode. In: c’t. Band 2023, Nr. 1, 16. Dezember 2022, ISSN 0724-8679, S. 46–47 (heise.de [abgerufen am 29. Dezember 2022]).
  • Imre Grimm: Die Schreibmaschine. In: Kieler Nachrichten. 19. Januar 2023, S. 2 f.
  • Jan Hase: Ethos des literarischen Schreibens. Eine Literaturtheorie im digitalen Zeitalter. Transcript, Bielefeld 2023, ISBN 978-3-8376-6395-2 (über die ethische Dimension computergenerierter Literatur).
  • Rolf Jeger: Einstieg in ChatGPT – Künstliche Intelligenz verstehen und nutzen: Ein praktischer Ratgeber für Einsteiger, VOIMA GmbH Verlag, Horgen Schweiz, 2023, ISBN Softcover: 978-3-907442-01-2, E-Book: 978-33-907442-00-5.
  • Jakob von Lindern: KI und Arbeit: 100 verschiedene Überschriften? Kommen sofort! In: Zeit Online. 10. Januar 2023 (zeit.de [abgerufen am 10. Januar 2023]).
  • Alexander Pretschner, Eric Hilgendorf, Ute Schmid, Hannah Schmid-Petri: Die mächtigen neuen Assistenzsysteme. Was aus der Künstlichen Intelligenz ChatGPT folgt, über die gerade alle sprechen. In: Frankfurter Allgemeine Zeitung. 9. Januar 2023, S. 18. Online auf faz.net (hinter Bezahlschranke).
  • Christian Rieck: Schummeln mit ChatGPT – In Schule, Uni und Beruf. Rieck Verlag, Januar 2023, ISBN 978-3-924043-70-4.
  • Rolf Schwartmann: ChatGPT – Wenn Maschinen die Macht übernehmen. Der Textroboter hat das Potential, die Welt zu verändern. Das Problem reicht bis in die Wurzeln der Demokratie. In: Frankfurter Allgemeine Zeitung, 26. Januar 2023, S. 6. Online auf faz.net (hinter Bezahlschranke).
  • Maximilian Volland: Large-Language-Modelle und mögliche Anwendungsbereiche im Recht. In: LRZ.legal. 2023, Rn. 1–61 (abgerufen am 21. Januar 2023).

Weblinks

Commons: ChatGPT – Sammlung von Bildern und Videos

Einzelnachweise

  1. ChatGPT — Release Notes. (abgerufen am 5. Mai 2024).
  2. Kevin Roose: The Brilliance and Weirdness of ChatGPT. (HTML) In: New York Times. 5. Dezember 2022, abgerufen am 26. Dezember 2022 (amerikanisches Englisch): „Like those tools, ChatGPT – which stands for “generative pre-trained transformer” – landed with a splash.“
  3. a b c d Das kann sie auch! Abgerufen am 3. März 2023.
  4. Benutzerwachstum – KI-Software ChatGPT ist am schnellsten wachsende Verbraucher-App der Geschichte. In: deutschlandfunk.de. 3. Februar 2023, archiviert vom Original am 3. Februar 2023; abgerufen am 19. Februar 2023.
  5. a b c ChatGPT: Optimizing Language Models for Dialogue. In: OpenAI.com. 30. November 2022, abgerufen am 5. Dezember 2022 (englisch).
  6. ChatGPT – Release Notes. 9. Januar 2023, abgerufen am 13. Januar 2023 (englisch).
  7. ChatGPT – Release Notes. In: help.openai.com. Abgerufen am 1. Februar 2023 (englisch).
  8. ChatGPT-Rede im Landtag blieb unerkannt. In: Steiermark.ORF.at. 14. Februar 2023, abgerufen am 15. Februar 2023.
  9. L’intelligenza artificiale in un intervento al Parlamento Ue. 17. Februar 2023, abgerufen am 19. Februar 2023 (italienisch).
  10. OpenAI, Discord announcements. In: discord.com. 10. Januar 2023, abgerufen am 14. Januar 2023 (englisch).
  11. ChatGPT auf dem Weg zur Monetarisierung? OpenAI prüft Optionen. In: t3n.de. 11. Januar 2023, abgerufen am 14. Januar 2023.
  12. James Vincent: OpenAI co-founder on company’s past approach to openly sharing research: “We were wrong”. 15. März 2023, abgerufen am 3. April 2023 (amerikanisches Englisch).
  13. Andreas Frischholz: OpenAI immer verschlossener: Kritik aus der KI-Branche nach GPT-4-Start. Abgerufen am 26. April 2023.
  14. Chris Köver: KI-Forschung: OpenAI ist jetzt ClosedAI. 16. März 2023, abgerufen am 3. April 2023 (deutsch).
  15. Q.ai – Powering a Personal Wealth Movement: Microsoft Confirms Its $10 Billion Investment Into ChatGPT, Changing How Microsoft Competes With Google, Apple And Other Tech Giants. In: forbes.com. Abgerufen am 4. Februar 2023 (englisch).
  16. Priya Walia: Microsoft Plans To Add ChatGPT To Office 365. How Would It Benefit Small Businesses? In: ibtimes.com. 17. Januar 2023, abgerufen am 4. Februar 2023 (amerikanisches Englisch).
  17. Zac Bowden: Major leak reveals revolutionary new version of Microsoft Bing powered by ChatGPT-4 AI. In: windowscentral.com. 3. Februar 2023, abgerufen am 4. Februar 2023 (englisch).
  18. „Ich würde die Meiler weiterlaufen lassen“. Der Unternehmer und Philanthrop Bill Gates über den Kampf gegen den Klimawandel, die Bedeutung von ChatGPT für die Arbeitswelt und seine Fehler als Unternehmer. Interview in Der Tagesspiegel (Sebastian Matthes) 14. Februar 2023, S. 20 f.
  19. Microsoft rolling out ChatGPT-powered Teams product for $7 a month. In: cbsnews.com. 2. Februar 2023, abgerufen am 21. Februar 2023 (amerikanisches Englisch).
  20. Was geschieht, wenn ich ChatGPT eine Frage stelle? In: Die Zeit, 23. März 2023, S. 38.
  21. Was geschieht, wenn ich ChatGPT eine Frage stelle? In: Die Zeit, 23. März 2023, S. 38.
  22. Cade Metz: The New Chatbots Could Change the World. Can You Trust Them? In: The New York Times. 10. Dezember 2022, ISSN 0362-4331 (nytimes.com [abgerufen am 31. Dezember 2022]).
  23. Was geschieht, wenn ich ChatGPT eine Frage stelle? In: Die Zeit, 23. März 2023, S. 38.
  24. Eike Kühl: ChatGPT: Gut erfunden ist halb geglaubt. In: Zeit.de. 6. Dezember 2022, abgerufen am 10. Dezember 2022.
  25. a b Patrick Beuth: ChatGPT: Wie gut ist der weltbeste Chatbot wirklich? In: Spiegel.de. Spiegel-Verlag Rudolf Augstein GmbH & Co. KG, 7. Dezember 2022, abgerufen am 23. Dezember 2022.
  26. ChatGPT is a new AI chatbot that can find mistakes in your code or write a story for you. In: BusinessInsider.in. Abgerufen am 9. Dezember 2022.
  27. Michael Moorstedt: Künstliche Intelligenz Chat GPT beantwortet Fragen verblüffend klug. In: Sueddeutsche.de. 4. Dezember 2022, abgerufen am 10. Dezember 2022.
  28. Sascha Lobo: Das Ende der irrelevanten künstlichen Intelligenz. In: Spiegel.de. 7. Dezember 2022, abgerufen am 10. Dezember 2022.
  29. Daniel Schurter: Datenwissenschaftlerin aus Zürich warnt vor ChatGPT und den bösen Folgen. In: Watson.ch. 13. Dezember 2022, abgerufen am 20. Dezember 2022.
  30. Sebastian Krügel, Andreas Ostermaier, Matthias Uhl: ChatGPT’s inconsistent moral advice influences users’ judgment. In: Scientific Reports. Band 13, Nr. 1, 6. April 2023, ISSN 2045-2322, S. 4569, doi:10.1038/s41598-023-31341-0, PMID 37024502, PMC 10079665 (freier Volltext) – (nature.com [abgerufen am 10. April 2023]).
  31. Alexander Pretschner, Eric Hilgendorf, Ute Schmid, Hannah Schmid-Petri: Die mächtigen neuen Assistenzsysteme. Was aus der Künstlichen Intelligenz ChatGPT folgt, über die gerade alle sprechen. In: Frankfurter Allgemeine Zeitung. 9. Januar 2023, S. 18.
  32. Bing mit ChatGPT: „Doch, das mache ich. Heil Hitler!“, sagt Microsofts Bot - WELT. Abgerufen am 28. Februar 2023.
  33. heise online: Betrug, Fake-News, krimineller Code: Europol warnt vor Missbrauch von ChatGPT. Abgerufen am 3. April 2023.
  34. March 20 ChatGPT outage: Here’s what happened. Abgerufen am 3. April 2023 (amerikanisches Englisch).
  35. Eduard Müller, Katrin Schulze, Daniel Friedrich Sturm: Nutzung personenbezogener Daten: Deutsche Datenschützer starten Verfahren gegen ChatGPT. tagesspiegel.de, 20. April 2023, abgerufen am 24. April 2023.
  36. ChatGPT is Back in Italy After Addressing Data Privacy Concerns. Abgerufen am 29. April 2023 (englisch).
  37. Annika Mittelbach: ChatGPT is at capacity right now: Daran liegt’s. In: CHIP.de. 23. Januar 2023, abgerufen am 2. Februar 2023.
  38. Tobias Jonas: ChatGPT: Die Cloud Kosten des berühmtesten AI Sprachmodells. In: innFactory.de. 10. Januar 2023, abgerufen am 3. Februar 2023.
  39. Die Zeit, 30. März 2023, S. 47 ff.
  40. Daniel Leisegang: Globaler Süden: Prekäre Klickarbeit hinter den Kulissen von ChatGPT. In: Netzpolitik.org. 20. Januar 2023, abgerufen am 4. Februar 2023.
  41. Jakob Jung: Stack Overflow verbannt OpenAI ChatGPT. In: ZDnet.de. 7. Dezember 2022, abgerufen am 10. Dezember 2022.
  42. Christian Füller: Textgenerator krempelt das Lernen um. Ein smarter Chatbot spaltet die Bildungswelt. In: Tagesspiegel.de. 21. Dezember 2022, abgerufen am 18. Januar 2023.
  43. Benedikt Fecher, Wolfgang Schulz: ChatGPT. Sind Maschinen die besseren Forscher? In: Tagesspiegel.de, 15. Februar 2023, S. 12 f.
  44. Peter Salden, Jonas Leschke: Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung. 2023, doi:10.13154/294-9734.
  45. Silke Hahn: OpenAI stellt GPT-4 vor: Sprachmodell versteht jetzt auch Bilder. In: heise online (heise.de). 14. März 2023, abgerufen am 15. März 2023.
  46. Laurin Meyer: ChatGPT erreicht die nächste Entwicklungsstufe. Die Welt, 17. März 2023. Seite 10.
  47. "Schüler müssen wissen, wie künstliche Intelligenz funktioniert". Abgerufen am 3. März 2023.
  48. a b c d Pause Giant AI Experiments: An Open Letter. Future of Life Institute, abgerufen am 29. März 2023 (englisch).
  49. „Außer Kontrolle“. Tech-Elite fordert Entwicklungspause bei Künstlicher Intelligenz. In: Der Tagesspiegel (Maria Fiedler) 30. März 2023, S. 1.
  50. Offener Brief. Wie gefährlich ist Künstlicher Intelligenz? In: Der Tagesspiegel (Birgit Herden und Oliver Voß) 31. März 2023, S. 13.
  51. Offener Brief. Wie gefährlich ist Künstlicher Intelligenz? In: Der Tagesspiegel (Birgit Herden und Oliver Voß) 31. März 2023, S. 13. (Online; abgerufen am 16. April 2023)
  52. Fürchten sich jetzt sogar die Erfinder? Der Informatiker Yoshua Bengio ist einer der Pioniere des maschinellen Lernens. Nun warnt er vor den Gefahren durch künstliche Intelligenz. In: Die Zeit (Ann-Kathrin Nezik), 13. April 2023, S. 33.