Menschen und KI halluzinieren - aber nicht auf die gleiche Weise

Große Sprachmodelle haben gezeigt, dass sie völlig falsche Informationen "halluzinieren" können, aber sind Menschen nicht für das gleiche Phänomen verantwortlich? Wo liegt also der Unterschied zwischen beiden?

Schlagworte:

Menschen und KI halluzinieren - aber nicht auf die gleiche Weise

8. Juli 2023     Kategorie: Technik
abstrakt-halozination-farbe.jpeg

Die Einführung immer leistungsfähigerer großer Sprachmodelle wie GPT-3.5 hat in den letzten sechs Monaten großes Interesse geweckt. Allerdings hat das Vertrauen in diese Modelle abgenommen, da Nutzer festgestellt haben, dass sie Fehler machen können - und dass sie genauso wenig perfekt sind wie wir. (Die Einstellung der "Temperatur" bei GPT hat großen Einfluss darauf, wie deterministisch die KI arbeiten soll)

Ein Sprachmodell, das falsche Informationen ausgibt, wird als "halluzinierend" bezeichnet, und es gibt mittlerweile große Anstrengungen in der Forschung, diese Wirkung zu minimieren. Doch während wir mit dieser Aufgabe ringen, lohnt es sich, über unsere eigene Fähigkeit zur Verzerrung und Halluzination nachzudenken - und wie sich dies auf die Genauigkeit der von uns erstellten Sprachmodelle auswirkt.

Indem wir den Zusammenhang zwischen dem halluzinatorischen Potenzial von KI und unserem eigenen Verständnis erfassen, können wir intelligente KI-Systeme entwickeln, die letztendlich dazu beitragen, menschliche Fehler zu reduzieren.

Wie Menschen halluzinieren


Es ist kein Geheimnis, dass Menschen Informationen erfinden. Manchmal tun wir dies absichtlich, manchmal versehentlich. Letzteres ist eine Folge kognitiver Verzerrungen oder "Heuristiken": geistige Abkürzungen, die wir aufgrund vergangener Erfahrungen entwickeln.

Diese Abkürzungen entstehen oft aus der Notwendigkeit heraus. Zu jedem gegebenen Zeitpunkt können wir nur eine begrenzte Menge an Informationen verarbeiten, die unsere Sinne überfluten, und uns nur an einen Bruchteil aller Informationen erinnern, mit denen wir jemals konfrontiert wurden.

Daher muss unser Gehirn auf gelernte Assoziationen zurückgreifen, um die Lücken zu füllen und schnell auf die Frage oder das Dilemma zu reagieren, das uns gegenübersteht. Mit anderen Worten, unser Gehirn errät, welche Antwort aufgrund begrenzten Wissens die richtige sein könnte. Dies wird "Konfabulation" genannt und ist ein Beispiel für eine menschliche Verzerrung.

Unsere Verzerrungen können zu schlechtem Urteilsvermögen führen. Nehmen wir die Automatisierungsverzerrung, bei der wir dazu neigen, Informationen, die von automatisierten Systemen (wie ChatGPT) generiert wurden, gegenüber Informationen aus nicht-automatisierten Quellen zu bevorzugen. Diese Verzerrung kann dazu führen, dass wir Fehler übersehen und sogar auf falsche Informationen reagieren.

Eine weitere relevante Heuristik ist der Halo-Effekt, bei dem unser erster Eindruck von etwas unsere nachfolgenden Interaktionen damit beeinflusst. Und die Flüssigkeitsverzerrung beschreibt, wie wir Informationen bevorzugen, die auf leichte Weise präsentiert werden.

Der springende Punkt ist, dass menschliches Denken oft von seinen eigenen kognitiven Verzerrungen und Verzerrungen gefärbt ist, und diese "halluzinatorischen" Tendenzen treten weitgehend außerhalb unseres Bewusstseins auf.

Wie KI halluziniert


In einem Kontext von Sprachmodellen ist Halluzination etwas anderes. Ein Sprachmodell versucht nicht, begrenzte geistige Ressourcen zu schonen, um die Welt effizient zu verstehen. "Halluzination" beschreibt in diesem Zusammenhang lediglich den gescheiterten Versuch, eine geeignete Antwort auf eine Eingabe vorherzusagen.

Dennoch gibt es einige Ähnlichkeiten zwischen dem Halluzinieren von Menschen und Sprachmodellen, da auch Sprachmodelle dies tun, um "Lücken zu füllen".

Sprachmodelle generieren eine Antwort, indem sie vorhersagen, welches Wort in einer Sequenz wahrscheinlich als nächstes auftauchen wird, basierend auf dem Vorherigen und auf den Assoziationen, die das System im Rahmen des Trainings gelernt hat.

Wie Menschen versuchen Sprachmodelle, die wahrscheinlichste Antwort vorherzusagen. Im Gegensatz zu Menschen tun sie dies jedoch, ohne zu verstehen, was sie sagen. So kann es passieren, dass sie Unsinn ausgeben.

Warum Sprachmodelle halluzinieren, hat unterschiedliche Gründe. Einer der Hauptgründe ist das Training mit fehlerhaften oder unzureichenden Daten. Weitere Faktoren sind die Art und Weise, wie das System trainiert wird, um aus diesen Daten zu lernen, und wie dieses Training durch weitere Schulung unter Menschen verstärkt wird.

Gemeinsam besser werden


Wenn sowohl Menschen als auch Sprachmodelle (wenn auch aus unterschiedlichen Gründen) anfällig für Halluzinationen sind, welches ist dann leichter zu beheben?

Die Behebung der Schulungsdaten und Prozesse, die Sprachmodelle unterstützen, mag einfacher erscheinen als die Behebung unserer selbst. Aber dies berücksichtigt nicht die menschlichen Faktoren, die KI-Systeme beeinflussen (und ist ein Beispiel für einen weiteren menschlichen Bias, der als fundamentale Attributionsfehler bekannt ist).

Die Realität ist, dass unsere Schwächen und die Schwächen unserer Technologien untrennbar miteinander verbunden sind und dass die Behebung eines Problems dazu beiträgt, das andere zu beheben. Hier sind einige Möglichkeiten, wie wir das tun können.

  • Verantwortungsvolles Datenmanagement. Verzerrungen in KI entstehen oft durch verzerrte oder begrenzte Trainingsdaten. Möglichkeiten, dies anzugehen, sind unter anderem sicherzustellen, dass Trainingsdaten vielfältig und repräsentativ sind, Algorithmen zu entwickeln, die Verzerrungen erkennen, und Techniken wie Datenabgleich einzusetzen, um verzerrte oder diskriminierende Muster zu entfernen.

  • Transparenz und erklärbare KI. Trotz der oben genannten Maßnahmen können Verzerrungen in der KI bestehen bleiben und schwer zu erkennen sein. Indem wir untersuchen, wie Verzerrungen in ein System gelangen und sich darin ausbreiten können, können wir die Präsenz von Verzerrungen in den Ausgaben besser erklären. Dies ist die Grundlage für "erklärbare KI", die darauf abzielt, die Entscheidungsprozesse von KI-Systemen transparenter zu machen.

  • Die Interessen der Öffentlichkeit in den Vordergrund stellen. Die Anerkennung, Verwaltung und das Lernen aus Verzerrungen in einer KI erfordert menschliche Verantwortung und die Integration menschlicher Werte in die KI-Systeme. Dies zu erreichen bedeutet, sicherzustellen, dass die Stakeholder Menschen aus verschiedenen Hintergründen, Kulturen und Perspektiven repräsentieren.

Indem wir auf diese Weise zusammenarbeiten, können wir intelligente KI-Systeme aufbauen, die dazu beitragen können, alle unsere Halluzinationen unter Kontrolle zu halten.

Zum Beispiel wird KI im Gesundheitswesen verwendet, um menschliche Entscheidungen zu analysieren. Diese maschinellen Lernsysteme erkennen Inkonsistenzen in menschlichen Daten und geben Hinweise, die den Kliniker darauf aufmerksam machen. So können diagnostische Entscheidungen verbessert werden, während die menschliche Verantwortung gewahrt wird.

In einem Kontext der sozialen Medien wird KI eingesetzt, um menschliche Moderatoren beim Erkennen von Missbrauch zu unterstützen, zum Beispiel durch das Projekt Troll Patrol, das sich gegen Gewalt gegen Frauen im Internet richtet.

Ein weiteres Beispiel: Die Kombination von KI und Satellitenbildern kann Forschern helfen, Unterschiede in der nächtlichen Beleuchtung zwischen Regionen zu analysieren und dies als Maßstab für die relative Armut einer Region zu verwenden (wobei eine höhere Beleuchtung mit weniger Armut korreliert ist).

Wichtig ist, dass wir bei der Arbeit an der Verbesserung der Genauigkeit von Sprachmodellen nicht ignorieren sollten, wie deren aktuelle Fehlbarkeit uns den Spiegel vorhält.

Quelle: Both humans and AI hallucinate — but not in the same way
 

Kommentare

#3 30. Juli 2023
Wenn die Wahrnehmung vernebelt ist: Eine poetische Expedition in die Welt der alternativen Fakten

Inmitten eines smaragdgrünen Ozeans der Fantasie liegen sie verborgen, wie Diamanten begraben im Sand der entstellten Realität – D`oh!

Die geheimnisvolle Verwebung der Nebel, die unsere Gesellschaft umgibt, wurde noch nie so lyrisch umschrieben wie in unseren turbulenten Zeiten. Jeder Atemzug liefert Impulse, uns abdriften zu lassen, auf Psilocybin-beschlagenen Flechten zum Land der Alternativen Fakten und persistenten Halluzinationen.

In einer Welt, in der die Wahrheit eine Empfindung ist, trennen sich die Grenzen des Wissens in fraktale Formationen, die den Geist mit einer Vielfalt von Möglichkeiten überfluten. Wie tänzelnde Nebelpartikel zerfließt die Realität in Filigrane, die sich gleichermaßen unseren grotesken Fantasien sowie unserer verzerrten Wirklichkeit unterwerfen.

Auf den Pfaden der gedanklichen Irrfahrt, die sich an unendlichen Horizonten verzweigen, spinnen alternative Fakten ihre verlockende und doch bedrohliche Symphonie im Herzen der Dunkelheit. Doch der Trugschluss des Verstandes kann nebliger sein als der opiumgeschwängerte Traum des Betrachters.

In dieser halluzinatorischen Hölle, in der Glauben wichtiger ist als Fakten, torkeln wir durch ein Labyrinth des Denkens, desillusioniert von einer Realität, die tanzende Einhörner mit kollektiven Erinnerungen an vergangene Größenherrscher verbindet. Unsere Psyche zergliedert im Schatten handverlesener Manipulatoren, die alternative Fakten wie verführerische Medusen zu hypnotischen Gaben formen.

Doch wie können wir uns für eine Wahrheit entscheiden, wenn diese vom Wind der leidenschaftlichen Stimmen umhergejagt wird? Unser Denken, ein sterbliches Geschöpf, kann kein Errettungssystem bieten. Anfällig für das Schöne und zugleich für das Zerstörerische, reicht es nicht aus, die Trennlinie zwischen Dichtung und Wahrheit in dieser überreizten Wirklichkeit zu ziehen.

In kristallklarer Verzweiflung trotzen wir diesen hallucinogenen Stürmen, Risse in unserem Verstand zelebrierend, um unsere flüchtigen Ängste als wahre Erkenntnisse zu verbergen. Doch könnten es nicht vielleicht jene, die behaupten, unsere Ängste seien nur erdachte Fantasien, sein, die letztendlich den narrativen Faden des Lebens verloren haben.

Also schwimmen wir durch den schwankenden Fluss der subtilen Mysterien, auf der Suche nach einer eigenen Weisheit. Jede letzte Wahrheit könnte eine verzaubernde Melodie singen, oder eine chaotische Symphonie, deren Klänge unsere Psyche in Stücke reißen. In solchen Tiefen werden alternative Fakten zu einer geflüsterten Liebkosung, während wir mühsam nach Erkenntnis ringen.

Also erheben wir uns aus der düsteren Stille unserer lethargischen Träume und umarmen die Unsicherheit. In der Tat halluzinieren wir uns durch das prüfende Labyrinth dieser existentiellen Scherzhaftigkeit, Hände erhoben gegen die Trugschlüsse und den Betrug. Fakten und Fantasie können nicht immer getrennt sein, doch die Wahrheit wartet immer darauf, ihren blendenden Schleier zu lüften.

Die Poesie in dieser halluzinatorischen Wirklichkeit ist vielleicht die Maske, die wir brauchen, um die Glut der Erkenntnis zu entfachen. Lassen Sie die Worte Ihrer Seele den Takt unseres Zusammenlebens bestimmen, inmitten der alternativen Fakten und des traumartigen Seins, damit die Halluzinationen unserer Zeit zu einem Meisterwerk winterblauer Verstehenslosigkeit verschmelzen.