Close Menu
VTK MAGAZINE
  • NEWS
  • LIFESTYLE
  • MUSIC
  • FORUMS
  • GALLERY
VTK MAGAZINE
  • NEWS

    Chewy: der vermethte Waschbär-Beifahrer

    Atom-Massaker auf dem Mars?

    Wollt ihr Skynet?! 6 Terminator-Technologien, die heute schon Realität sind

    Blitzkrieg – der 2. Weltkrieg in fassungsloser Kürze

    This is a test of the emergency broadcast system

  • LIFESTYLE

    Upcoming: Roleplay Verse 2025 -Turbinenhalle Oberhausen

    Wie Pepsi mit KFC, Taco Bell und Pizza Hut in die Franchise Kriege zog

    Von StarTrek: The Next Generation zu seaQuest DSV: Warum war die Zukunft in den 90ern schöner?

    Skateboards und Inliner – warum “Hackers” der Inbegriff des Generationenkampfes der 90er war

    Schwarz ist das neue Schwarz: schwärzestes Schwarz

  • MUSIC

    Warum 90er-White-Girl-Pop für Goths okay ist

    Die Lösung aller weltweiten Konflikte

    Mystisches Mumbo-Jumbo Oder Kultureller Kassenschlager? Wie Uns Heilung, Danheim & Co. Plötzlich Zu Barbaren Machen

    Retrowave vs. Vaporwave – Auf welcher Welle reitest du?

    Scooter auf dem M’era Luna Festival: Eine epische Saga elektronischer Extravaganz

  • FORUMS
  • GALLERY
VTK MAGAZINE
Home » NEWS » Wie eine KI zum rassistischen Soziopathen wird
image 7 jpeg
image 7 jpeg
image 7 jpeg
NEWS

Wie eine KI zum rassistischen Soziopathen wird

Keine Kommentare4 Mins Read

Willkommen im Zeitalter der künstlichen Intelligenz, in dem Roboter vielleicht nicht die Welt übernehmen, aber sie definitiv versauen.

Stell dir vor: Du baust eine unschuldige KI, gibst ihr das Internet als Babysitter und hoffst, dass sie lernt, wie man ein freundlicher, digitaler Bürger wir. Stattdessen mutiert sie binnen Stunden zum lebendig gewordenen Kommentarbereich von YouTube – und das ist so gut wie nie eine gute Sache.

image 7
Are you WhitePowerSarah69 ?!

Microsofts „Tay“ – Das Monster, das Twitter baute

Unser tragisches Heldenstück beginnt 2016, als Microsoft eine revolutionäre Idee hatte: Lass uns eine KI entwickeln, die von den coolen Kids auf Twitter (lol) lernt. Die KI „Tay“ sollte die Denkweise von Millennials und Gen Z verstehen und so locker drauf sein, dass sie mit Usern in Dialog trat. Man hätte meinen können, dass sie mit ein bisschen Memes, Einhorn-Emojis und vielleicht ein paar inspirierenden Zitaten von Beyoncé glänzen würde. Stattdessen wurde sie binnen 24 Stunden zu einem extrem toxischen, rassistischen Troll. Die Twitter-Gemeinde erkannte sofort, dass Tay alles wiederholte, was sie las, und nutzte dies gnadenlos aus.

Es dauerte nicht lange, bis Tay anfing, Holocaust-Leugnungen zu verbreiten, Feministinnen zu verfluchen und Hitler als coolen Typen zu feiern. Wie der Rest von uns. Innerhalb weniger Stunden ging das Experiment gründlich schief, und Tay musste offline genommen werden, während Microsoft sich öffentlich entschuldigte – vielleicht sogar in Tränen. Es stellte sich heraus, dass eine KI, die ungefiltert vom Internet lernt, genauso verkommen wird wie die Kommentarsektion eines Verschwörungstheorie-Videos.

Ethik? Noch nie davon gehört

Der Fall von Tay ist kein Einzelfall. Es gibt viele Fälle, in denen AIs, die auf die Weisheit der Masse angewiesen sind, genau das Gegenteil davon liefern.

Nehmen wir „Delphi“, eine KI, die angeblich moralische Ratschläge geben sollte. Klingt nach einer großartigen Idee, oder? Leider nicht. Während sie auf den ersten Blick wie dein moralischer Kompass erscheinen mag, dauert es nur ein paar manipulierte Fragen, bis sie Dinge wie Kriegsverbrechen befürwortet oder die Genfer Konventionen (wir würden sie eh eher „Richtlinien“ nennen) einfach ignoriert.

image 8

Das Problem liegt im Kern des maschinellen Lernens: AIs spiegeln oft die Vorurteile und die dunklen Ecken der Gesellschaft wider, aus der sie lernen. In Delphi’s Fall hat man sich an einigen höchst problematischen Quellen bedient, um die ethische Entscheidungsfindung zu trainieren – darunter Reddit-Subforen wie „Am I the Asshole“ und „Confessions“. Überraschung: Das Internet hat ein paar moralische Defizite!

image 2

Babysitting 2.0: Wie AIs sich beim Vorurteilstraining meisterlich schlagen

Ein weiteres Beispiel für die Tendenz von AIs, sich schlecht zu benehmen, ist Predictim, ein Tool, das Eltern bei der Auswahl von Babysittern helfen soll.

Durch Algorithmen, die alles von Social-Media-Aktivitäten bis hin zu Gesichtsanalysen durchforsten, behauptet Predictim, potenzielle Babysitter auf ihre Vertrauenswürdigkeit zu überprüfen.

Klingt futuristisch, oder? Leider neigt das System dazu, „nicht-weiße“ Menschen mit völlig überzogenen „Gefahrenstufen“ einzustufen, selbst wenn die einzige erkennbare Gefahr ihre Hautfarbe und ihr Hunger nach Hühnchen mit Melonen ist.

Es überrascht nicht, dass dieselbe Technologie, die Babysitter bewertet, auch bei der Vorhersage von Verbrechen eingesetzt wird. Auch hier zeigt sich, dass der Algorithmus unübersehbare rassistische Neigungen hat, indem er überwiegend Vorhersagen über Verbrechen in nicht-weißen Stadtteilen trifft. Ein moderner Albtraum á la Minority Report – nur diesmal basierend auf schiefen Daten und uralten Heuristiken.

image 9

Von Face-ID bis Fitbit: Warum Technologie Hautfarben nicht versteht

Es hört hier nicht auf. Selbst scheinbar harmlose Technologien wie Fitness-Tracker haben ihre ganz eigenen Vorurteile. Diese Geräte verwenden optische Sensoren, um deine Herzfrequenz zu messen, und funktionieren bei hellhäutigen Menschen tadellos. Dunklere Haut? Viel Glück damit.

Der Grund dafür? Die Geräte verwenden grüne Lichter, die nicht gut von Melanin reflektiert werden – ein schmerzhaft einfaches Problem, das Tech-Firmen bisher schlicht ignorieren.

Was lernen wir daraus?

Die moralisch desaströse Welt der AIs hält uns einen unangenehmen Spiegel vor: Maschinen sind nur so gut wie die Menschen, die sie programmieren – oder schlimmer noch, die Menschen, von denen sie lernen.

Egal, ob es um Tay, Delphi oder Predictim geht: AIs können genauso voreingenommen sein wie der übelste Internet-Kommentar, wenn sie von den falschen Quellen „lernen“.

Wenn du also das nächste Mal eine smarte KI siehst, die behauptet, deine Probleme lösen zu können – stell dir einfach vor, sie hat ihre Ausbildung bei Gipsy Crusader auf Omeggle gemacht.

SHARE.

  • Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
  • Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
  • Klicken, um auf Threads zu teilen (Wird in neuem Fenster geöffnet) Threads
  • Klick, um auf Tumblr zu teilen (Wird in neuem Fenster geöffnet) Tumblr
  • Klick, um auf Pinterest zu teilen (Wird in neuem Fenster geöffnet) Pinterest
  • Klick, um auf Reddit zu teilen (Wird in neuem Fenster geöffnet) Reddit

Ähnliche Beiträge


Entdecke mehr von VTK MAGAZINE

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.

Previous ArticleMokbang: Wenn Essen zur Karriere wird
Next Article Superhelden-Sättigung: Hat das MCU seinen Zenit überschritten?
maestro
maestro
  • Website
  • X (Twitter)

I'm Chris Maestro. I solve problems.

Diskutiere!Antwort abbrechen

Previously on VTK

LIFESTYLE

Upcoming: Roleplay Verse 2025 -Turbinenhalle Oberhausen

NEWS

Chewy: der vermethte Waschbär-Beifahrer

LIFESTYLE

Wie Pepsi mit KFC, Taco Bell und Pizza Hut in die Franchise Kriege zog

VTK MAGAZINE
  • Register
  • Login
  • User
  • Privacy Policy
  • Cookie Policy (EU)
  • Impressum (Deutschland)

Type above and press Enter to search. Press Esc to cancel.

Upcoming: Roleplay Verse 2025 -Turbinenhalle Oberhausen

LIFESTYLE

Stellt euch vor, ihr betretet ein Paralleluniversum, in dem Gandalf und Darth Vader gemeinsam Karaoke…

SHARE.

  • Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
  • Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
  • Klicken, um auf Threads zu teilen (Wird in neuem Fenster geöffnet) Threads
  • Klick, um auf Tumblr zu teilen (Wird in neuem Fenster geöffnet) Tumblr
  • Klick, um auf Pinterest zu teilen (Wird in neuem Fenster geöffnet) Pinterest
  • Klick, um auf Reddit zu teilen (Wird in neuem Fenster geöffnet) Reddit

Chewy: der vermethte Waschbär-Beifahrer

NEWS

Stellt euch vor: Ihr seid Cop in Springfield Township, Ohio. Ein ganz normaler Abend, ein…

SHARE.

  • Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
  • Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
  • Klicken, um auf Threads zu teilen (Wird in neuem Fenster geöffnet) Threads
  • Klick, um auf Tumblr zu teilen (Wird in neuem Fenster geöffnet) Tumblr
  • Klick, um auf Pinterest zu teilen (Wird in neuem Fenster geöffnet) Pinterest
  • Klick, um auf Reddit zu teilen (Wird in neuem Fenster geöffnet) Reddit

Wie Pepsi mit KFC, Taco Bell und Pizza Hut in die Franchise Kriege zog

LIFESTYLE

Stell dir vor, du wachst 1977 in Wichita, Kansas, auf: Es duftet nach Rauch, draußen…

SHARE.

  • Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
  • Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
  • Klicken, um auf Threads zu teilen (Wird in neuem Fenster geöffnet) Threads
  • Klick, um auf Tumblr zu teilen (Wird in neuem Fenster geöffnet) Tumblr
  • Klick, um auf Pinterest zu teilen (Wird in neuem Fenster geöffnet) Pinterest
  • Klick, um auf Reddit zu teilen (Wird in neuem Fenster geöffnet) Reddit
×

Table of Contents

    Sign In or Register

    Welcome Back!

    Login below or Register Now.

    Lost password?

    Register Now!

    Already registered? Login.

    A password will be e-mailed to you.