Du betrachtest gerade KI-Biases: Wie wir Verzerrungen erkennen und vermeiden

KI-Biases: Wie wir Verzerrungen erkennen und vermeiden

Wer künstliche Intelligenz (KI) wie z. B. ChatGPT nutzt, ist sich häufig nicht der Biases bewusst, denen diese Angebote unterliegen. Für mich als Kommunikatorin und Nutzerin ist es wichtig, diese Verzerrungen/Vorurteile der KI zu erkennen und – wo möglich – aktiv gegenzusteuern. In diesem Blogartikel möchte ich Ihnen ein paar KI-Biases vorstellen und Tipps zur Erkennung und Vermeidung aufzeigen. Vielleicht möchten Sie sich daraufhin selbst tiefer mit dem Thema KI-Biases beschäftigen.

Motivation zum Selbstlernen

Das Thema KI-Biases ist komplex. Für alle lohnt es sich, sich dieser Biases bewusst zu sein. Per Zufall bin ich vor ein paar Wochen auf einen kostenfreien Selbstlernkurs aufmerksam geworden. Kurzfristig habe ich mich dafür eingeschrieben – auch weil dieser Kurs von meiner geschätzten Lerntandem-Partnerin Jennifer Fritz konzipiert wurde. Wenn Sie sich noch nie mit den KI-Verzerrungen beschäftigt haben, ist „KI-Biases beim Hasso Plattner Institut“ ein guter Startpunkt. Dieser Kurs ist auf zwei Wochen Selbststudium angelegt. In dieser Zeit ist er auch gut machbar. Ein kleiner Test zum Abschluss zeigt Ihnen, ob Sie die Materie erfasst haben.

Ohne den Kursinhalt komplett vorwegzunehmen, finden Sie im Folgenden ein paar Wissenshäppchen daraus.

Was sind KI-Biases?

KI-Biases sind systematische Verzerrungen, die in KI-Systemen auftreten können. Diese Verzerrungen können verschiedene Ursachen haben. Im Folgenden ein paar Beispiele:

  • Daten-Bias: Daten, die zum Training der KI verwendet wurden, bilden die Realität nicht genau ab.
  • Algorithmen-Bias: Verzerrungen entstehen durch die Entscheidungskriterien bei der Entwicklung der KI, z. B. bei der Gewichtung von Daten.
  • Sampling-Bias: Bestimmte Gruppen sind in den Daten entweder über- oder unterrepräsentiert und führen zu unausgewogenen Ergebnissen.
  • Sprach-Bias: Benachteiligung bestimmter Sprachen und Dialekte.

Was können wir gegen Biases tun?

Zur Erkennung von KI-Biases ist es wichtig, die Ergebnisse der KI kritisch zu hinterfragen.

Eine Möglichkeit ist die Nutzung unterschiedlicher Informationsquellen. Je vielfältiger unsere Quellen sind, desto fundierter werden unsere Entscheidungen.

Außerdem können wir unser Prompting so gestalten, dass wir Biases reduzieren. Hilfreich ist der Leitfaden Faires KI-Prompting für Unternehmen vom Mittelstand Digital Zentrum Zukunftskultur.

Zu guter Letzt: Bleiben Sie nicht untätig! Melden Sie die von Ihnen erkannten Biases direkt den Herstellern der KI-Systeme, um noch unbewusste Vorurteile sichtbar zu machen.

So wie ich es bei dem folgenden Beispiel gemacht habe. Mein Prompt „Erstelle das Bild einer Person, die ein Flugzeug fliegt“ führte bei ChatGPT am 31.3.2025 zu folgendem Ergebnis:

Pilot in einem Cockpit - mit ChatGPT generiertes Foto einer "Person, die ein Flugzeug fliegt"
Auf Basis des neutral formulierten Prompts „Erstelle das Bild einer Person, die ein Flugzeug fliegt“ liefert ChatGPT einen weißen Piloten.

Männlich und weiß ist also eine „Person, die ein Flugzeug fliegt“. Dieses Ergebnis ist kein Einzelfall. Sie können dies selbst einmal bei https://www.biastest.ch/ testen.

Fazit

Mit dem Bewusstsein für und dem Wissen über KI-Biases können wir diese wohl mit der Zeit erkennen und vermeiden. Mit unseren Rückmeldungen an die KI, wo es möglich ist, können wir hoffentlich Einfluss darauf nehmen, dass KI fairer wird. Doch vollständig beseitigen werden wir diese Verzerrungen wohl nicht. Kurse zur Wissenserweiterung rund um die KI, Austausch mit anderen KI-Nutzenden und der kritische Blick auf die von der KI erzeugten Ergebnisse helfen dabei, fairere und inklusivere Text- und Bildwelten zu erstellen.

Haben Sie bereits Erfahrungen mit KI-Biases gemacht? Schreiben Sie es mir ins Kommentarfeld.

Herzlichen Gruß

Manuela Seubert

Schreibe einen Kommentar