3. Ethische Belange

Limitierungen Großer Sprachmodelle


Aus ihren technischen Eigenschaften ergeben sich bei Großen Sprachmodellen, ungeachtet ihrer spektakulären Leistungen, eine Reihe problematischer Eigenschaften, u.a.

  1. Halluzinationen: das Modell generiert Informationen, die falsch oder grundlos erfunden sind, obwohl sie überzeugend und authentisch erscheinen mögen. Dies kann insbesondere bei der Beantwortung von Fragen zu spezifischen Fakten oder bei der Erstellung von Details auftreten, für die das Modell keine klaren Datenpunkte aus seinem Training hat.
  2. Ungenaue Generalisierung: Maschinelles Lernen nähert iterativ eine statistische Schätzfunktion an. Das System arbeitet vom Grundprinzip her stochastisch. Hierbei kann prinzipiell keine vollkommene Genauigkeit eintreten. Auch können dabei Muster an Stellen erkannt werden, wo tatsächlich keine vorliegen oder falsche Zusammenhänge zwischen eigentlich unabhängigen Konzepten hergestellt werden.
  3. Bias und Stereotypisierung: Sprachmodelle lernen aus großen Datenmengen, die aus dem Internet oder anderen Quellen stammen. Diese Daten können voreingenommen sein oder Stereotypen enthalten.
  4. Mangelndes Kontextverständnis: Das Sprachmodell erfasst u.U. den Kontext einer Situation oder Frage nicht richtig und antwortet daher irrelevant oder inkorrekt. Mitunter greift das Sprachmodell dann auch auf allgemeines oberflächliches Wissen zurück.
  5. Verletzung von Urherberechten und Privatsphäre: Mitunter geben Sprachmodelle sensible oder private Informationen preis, die aus den für das Training verwendeten Daten stammen.
  6. Sicherheitsrisiken: Risiken ergeben sich, wenn das Modell bei der Erzeugung von Antworten bspw. brisante, gefährliche oder jugendgefährdende Inhalte aus seinem Trainingsmaterial offenlegt, wie Anleitungen zum Bauen von Bomben, Herstellen von Drogen usw. usf.
  7. Schwierigkeiten beim logischen Schließen und Rechnen: Da die Ausgaben auf Korrelationen und statistischer Vorhersage beruhen, haben Sprachmodelle (ohne entsprechende Plugins) Schwierigkeiten mit komplexen logischen Schlüssen. In Anbetracht ihrer Funktionsweise hat es allerdings durchaus für Aufsehen gesorgt, wie LLMs trotzdem in der Lage sind, (begrenzente) Fähigkeiten zu logischen Schlussfolgerungen aus dem allgemeinen textuell vorliegenden Wissen zu gewinnen und ein gewisses "Verständnis" bspw. für Kausalitäten zu entwickeln.
Daher ist es wichtig, die Ausgaben von Sprachmodellen kritisch zu hinterfragen, auch wenn diese sprachlich überzeugend klingen.

!     Austesten der Grenzen von Sprachmodellen: Finden Sie Beispiele, die Limitierungen von KI-Chatbots, wie ChatGPT aufzeigen und posten Sie Ihr Beispiel in die entsprechende Kategorie auf der digitalen Pinwand. Sollten Sie noch weitere Limitierungen finden, tragen Sie bitte Ihr Beispiel unter der Spalte „Sonstiges“ ein. Sehen Sie Zusammenhänge mit den beschriebenen technischen Konzepten der GPTs?