Willkommen im Zeitalter der künstlichen Intelligenz, in dem Roboter vielleicht nicht die Welt übernehmen, aber sie definitiv versauen.
Stell dir vor: Du baust eine unschuldige KI, gibst ihr das Internet als Babysitter und hoffst, dass sie lernt, wie man ein freundlicher, digitaler Bürger wir. Stattdessen mutiert sie binnen Stunden zum lebendig gewordenen Kommentarbereich von YouTube – und das ist so gut wie nie eine gute Sache.
Microsofts „Tay“ – Das Monster, das Twitter baute
Unser tragisches Heldenstück beginnt 2016, als Microsoft eine revolutionäre Idee hatte: Lass uns eine KI entwickeln, die von den coolen Kids auf Twitter (lol) lernt. Die KI „Tay“ sollte die Denkweise von Millennials und Gen Z verstehen und so locker drauf sein, dass sie mit Usern in Dialog trat. Man hätte meinen können, dass sie mit ein bisschen Memes, Einhorn-Emojis und vielleicht ein paar inspirierenden Zitaten von Beyoncé glänzen würde. Stattdessen wurde sie binnen 24 Stunden zu einem extrem toxischen, rassistischen Troll. Die Twitter-Gemeinde erkannte sofort, dass Tay alles wiederholte, was sie las, und nutzte dies gnadenlos aus.
Es dauerte nicht lange, bis Tay anfing, Holocaust-Leugnungen zu verbreiten, Feministinnen zu verfluchen und Hitler als coolen Typen zu feiern. Wie der Rest von uns. Innerhalb weniger Stunden ging das Experiment gründlich schief, und Tay musste offline genommen werden, während Microsoft sich öffentlich entschuldigte – vielleicht sogar in Tränen. Es stellte sich heraus, dass eine KI, die ungefiltert vom Internet lernt, genauso verkommen wird wie die Kommentarsektion eines Verschwörungstheorie-Videos.
Ethik? Noch nie davon gehört
Der Fall von Tay ist kein Einzelfall. Es gibt viele Fälle, in denen AIs, die auf die Weisheit der Masse angewiesen sind, genau das Gegenteil davon liefern.
Nehmen wir „Delphi“, eine KI, die angeblich moralische Ratschläge geben sollte. Klingt nach einer großartigen Idee, oder? Leider nicht. Während sie auf den ersten Blick wie dein moralischer Kompass erscheinen mag, dauert es nur ein paar manipulierte Fragen, bis sie Dinge wie Kriegsverbrechen befürwortet oder die Genfer Konventionen (wir würden sie eh eher „Richtlinien“ nennen) einfach ignoriert.
Das Problem liegt im Kern des maschinellen Lernens: AIs spiegeln oft die Vorurteile und die dunklen Ecken der Gesellschaft wider, aus der sie lernen. In Delphi’s Fall hat man sich an einigen höchst problematischen Quellen bedient, um die ethische Entscheidungsfindung zu trainieren – darunter Reddit-Subforen wie „Am I the Asshole“ und „Confessions“. Überraschung: Das Internet hat ein paar moralische Defizite!
Babysitting 2.0: Wie AIs sich beim Vorurteilstraining meisterlich schlagen
Ein weiteres Beispiel für die Tendenz von AIs, sich schlecht zu benehmen, ist Predictim, ein Tool, das Eltern bei der Auswahl von Babysittern helfen soll.
Durch Algorithmen, die alles von Social-Media-Aktivitäten bis hin zu Gesichtsanalysen durchforsten, behauptet Predictim, potenzielle Babysitter auf ihre Vertrauenswürdigkeit zu überprüfen.
Klingt futuristisch, oder? Leider neigt das System dazu, „nicht-weiße“ Menschen mit völlig überzogenen „Gefahrenstufen“ einzustufen, selbst wenn die einzige erkennbare Gefahr ihre Hautfarbe und ihr Hunger nach Hühnchen mit Melonen ist.
Es überrascht nicht, dass dieselbe Technologie, die Babysitter bewertet, auch bei der Vorhersage von Verbrechen eingesetzt wird. Auch hier zeigt sich, dass der Algorithmus unübersehbare rassistische Neigungen hat, indem er überwiegend Vorhersagen über Verbrechen in nicht-weißen Stadtteilen trifft. Ein moderner Albtraum á la Minority Report – nur diesmal basierend auf schiefen Daten und uralten Heuristiken.
Von Face-ID bis Fitbit: Warum Technologie Hautfarben nicht versteht
Es hört hier nicht auf. Selbst scheinbar harmlose Technologien wie Fitness-Tracker haben ihre ganz eigenen Vorurteile. Diese Geräte verwenden optische Sensoren, um deine Herzfrequenz zu messen, und funktionieren bei hellhäutigen Menschen tadellos. Dunklere Haut? Viel Glück damit.
Der Grund dafür? Die Geräte verwenden grüne Lichter, die nicht gut von Melanin reflektiert werden – ein schmerzhaft einfaches Problem, das Tech-Firmen bisher schlicht ignorieren.
Was lernen wir daraus?
Die moralisch desaströse Welt der AIs hält uns einen unangenehmen Spiegel vor: Maschinen sind nur so gut wie die Menschen, die sie programmieren – oder schlimmer noch, die Menschen, von denen sie lernen.
Egal, ob es um Tay, Delphi oder Predictim geht: AIs können genauso voreingenommen sein wie der übelste Internet-Kommentar, wenn sie von den falschen Quellen „lernen“.
Wenn du also das nächste Mal eine smarte KI siehst, die behauptet, deine Probleme lösen zu können – stell dir einfach vor, sie hat ihre Ausbildung bei Gipsy Crusader auf Omeggle gemacht.
Entdecke mehr von VTK MAGAZINE
Subscribe to get the latest posts sent to your email.