X Icon Facebook Icon

DebatteIst die Nutzung von ChatGPT ethisch vertretbar?

Von Tobias Westphal / 31. März 2023
picture alliance / blickwinkel/McPHOTO | McPHOTO

„Ein bahnbrechender Fortschritt in der künstlichen Intelligenz für menschenähnliche Konversationen“ lautet die Bewertung, die ChatGPT sich selbst gibt. Was das Dialogsystem kann und wo seine Grenzen liegen (sollen), bewegt derweil die Gemüter.

Antworten auf einfache Wissensfragen geben, Gliederungen für Hausarbeiten erstellen, kreative Geschichten erfinden, programmieren und sogar ganze Bücher schreiben: All das kann ChatGPT. Kein halbes Jahr hat es gedauert, bis das neuartige Dialogsystem des US-amerikanischen Unternehmens OpenAI in aller Munde ist. Seit November 2022 können Interessierte sich über das Internet mit einer kostenlosen Testversion des KI-Sprachsystems austauschen. Die Antworten werden vom Konzern ausgewertet und sollen zur Verbesserung des Systems beitragen, das maschinell lernt. Künstliche Intelligenz (KI) also, die den Dialog sucht?

Zu den Fakten: „Generative Pre-trained Transformer“, so der ausführliche Name des Chatbots, den alle kurzChatGPT nennen, ist ein Sprachmodell, das auf einer riesigen Datenbank basiert. Über Wahrscheinlichkeitsfunktionen setzt es Wörter zu Sätzen zusammen. Dafür haben die Entwickler*innen den Bot im September 2021 mit frei verfügbaren Texten aus dem Internet angelernt. So ist es OpenAI gelungen, einen Prototypen zu schaffen, dessen Formulierungen von hoher Stilsicherheit zeugen. Befürworter*innen wollen darin eine spannende Synthese aus KI und Homo sapiens erkennen; für andere handelt es sich hierbei um eine fragwürdige Mensch-Maschine, die menschliche Denkmuster bloß vorgaukele. Missbrauch nicht ausgeschlossen.

Mehr als 175 Milliarden Parameter berücksichtigt ChatGPT, um sich blitzschnell zur logischen Fortsetzung eines Gedankens für ein bestimmtes Wort zu entscheiden. Derart generierte Texte sind zwar mit speziellen Tools noch als solche erkennbar, lassen sich aber durch menschliche Urteilskraft kaum von denen einer echten Person unterscheiden. Auch Folgefragen sind für ChatGPT als solche zu erkennen. Rückfragen an sein Gegenüber stellen, wenn sich eine gestellte Frage nicht eindeutig beantworten lässt, kann ChatGPT dagegen nicht.

Reizvoll daran: Für ChatGPT gibt es viele Anwendungen. Microsoft hatte den Dienst zwischenzeitig in seine Suchmaschine Bing eingebaut und Suchanfragen per Dialogformat beantworten lassen. Verschiedene Content-Management-Systeme binden den Dienst ein, um Blogbeiträge oder Titel für Social Media zu generieren und so das Marketing zu automatisieren.

Selbstsicher, aber nicht immer sinnvoll

Anders als “reguläre“, sprich regelbasierte Chatbots, die häufig im Kundensupport zum Einsatz kommen, Texte nach bestimmten Schlüsselbegriffen absuchen und darauf nur mit vorformulierten Antworten reagieren, antwortet ChatGPT quasi selbstständig auf jede beliebige Frage. Das Wahrscheinlichkeitsprinzip bedeutet aber auch: ChatGPT versteht nicht wirklich, was es eigentlich von sich gibt. Je nach Formulierung der Frage, antwortet der Bot einmal korrekt, dass Olaf Scholz der Bundeskanzler von Deutschland sei. In anderen Fällen fällt der Name Angela Merkel.

So wie man in einem Schulvortrag seine Unwissenheit zu vertuschen versucht, agiere auch ChatGPT, lautet hier die Kritik. Auf komplexe, fachbezogene Fragen kann der Dienst keine sinnvollen Antworten liefern. In anderen Fällen werden die Antworten zwar selbstsicher und anschaulich dargelegt, sind aber schlichtweg falsch. Das Problem offenbart sich zum Beispiel bei Matheaufgaben, die in dieser Form im Internet noch nicht thematisiert wurden.

Doch schon in den 1960ern zeigte der deutsch-amerikanische Informatiker Joseph Weizenbaum mit seinem Chatbot ELIZA, der als erster seiner Art gilt, wie die Interaktion mit einem Computer aussehen kann. ELIZA war ein regelbasiertes Dialogsystem, ohne Verständnis für seine Eingaben und reagierte ausschließlich mit allgemeinen Ratschlägen oder Rückfragen. Trotzdem gelang es Weizenbaum damit, bei seinen Proband*innen den Eindruck zu vermitteln, der Computer würde sie verstehen.

Chatbots wiederum, die auf KI beruhen, sind nicht neu, nur eben gerade im Trend. Was Google veranlasste, die Entwicklung eines Konkurrenzdienstes namens Google Bard anzukündigen. Auch der chinesische Internetgigant Baidu arbeitet bereits an seiner eigenen intelligenten Sprachsynthese.

Richtige Verarbeitung

Die große Vision der Forschungsgemeinschaft ist eine sogenannte starke KI, die in ihrer Arbeitsweise nicht mehr vom menschlichen Verstand zu unterscheiden ist. Sie könnte demnach außerhalb der antrainierten Muster eigenständig dazulernen und in allen Feldern lösungsorientierte Vorschläge machen. Inwiefern damit auch vorsätzliche Täuschung ermöglicht werden könnte, bewegt scheinbar eher die Nutzer*innen als die Wissenschaft.

Der KI-Experte Philipp Bongartz gilt als Verfechter der Skalierungshypothese. Er glaubt fest daran, dass eine starke KI automatisch erreicht wird, wenn die Trainingsdatenmenge groß genug und die Rechenleistung schnell genug ist. Das Problem: Neben sturem Aufsagen von semantischem Weltwissen, kann ChatGPT auch mit Hatespeech oder Verschwörungstheorien “gefüttert“ werden, diese aber nicht richtig verarbeiten und auswerten, nur eben anwenden. Verantwortungsbewusstes Handeln sehen diese computergestützten Abwandlungen neuronaler Netzwerke noch nicht vor. Judith Simon, Professorin für Ethik in der Informationstechnologie, sieht deshalb in dem Dienst großes Potenzial, aber auch „den Auftrag, darüber nachzudenken, was Bildung sein soll“, wie sie die Frankfurter Rundschau zitiert.



Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

Ähnlicher Beitrag
Neues Thema
Meist kommentierter Artikel