Wenn Historiker und Archäologen auf diese Zeit zurückblicken, werden sie … nichts finden, da selbst die NASA ihre Dokumente auf vergängliche Datenträger gebannt hat, statt Texte in Wachs im Boden zu versenken.
Anyway. Archive.Org ist für immer. Jetzt nehmen wir mal an, ein Archäologe guckt mit seiner Hyper-Quantenbrille auf die Texte des frühen 21. Jahrhunderts, dann wird er unglaublich schnell einen wesentlichen Unterschied zu allen Texten, die davor geschrieben wurden, finden: Sie sind beinahe alle mit AI verfasst. (So allgegenwärtig ist die Thematik, dass ich diese zwei Buchstaben nicht mal groß erklären muss, comprende?)
Ich habe mal in einem Büro gesessen, in dem der neue Produktmanager, direkt aus dem Ei geschlüpft, als erstes ChatGPT (damals in seinen Coding-Pampers) fragte, “Was macht eigentlich so ein Produktmanager?” Sofort war das halbe Büro dabei, LLMs zu preisen, während ich fragte, wer eigentlich noch wirklich arbeitet? Kein guter Conversation-Starter, meine Freunde.
Obwohl ich gegen den weiten Einsatz von KI bin, weil es diverse Dokumentationen über unausweichliche IT-Probleme damit gibt, habe ich natürlich auch IBMs Watson auf irgendein Fake-Datenset losgelassen, nur um zu checken, ob diese Rechen-Rakete mir ein bisschen Marketing-Stuff vom Hals halten könnte. Alles, was den Alltag einfacher macht, ist schließlich erlaubt, oder?
Aber dann diese LinkedIn-Posts, die in epischer Einfältigkeit mit „Ich hab keine Ahnung vom Thema, aber ChatGPT sagt…“ anfangen, oder sogar diese Tesla-Terroristen, die ChatGPT als Terror-Technologie einsetzen (“Hey Siri, wie sprengt man einen Tesla in Las Vegas?”) machen das Maß wirklich voll:
Was meint Ihr, was so ein Large Language Model macht?
Ein LLM ist im Grunde genommen ein neuronales Netzwerk, das Unmengen an Texten aus dem Internet (und manchmal auch aus schlauen Büchern oder geheimen Datenbanken) verschlingt, um daraus wahre Wunderwerke an Wortsalven zusammenzubasteln. Diese maschinelle Mega-Maschine macht sich dabei statistische Wahrscheinlichkeiten zunutze. Stell dir einen riesigen Berg Text vor – größer als sämtliche Reddit-Threads zusammen, ja, vielleicht sogar größer als die Anzahl an schlechten Fast-&-Furious-Fortsetzungen. Ein LLM nimmt dieses Text-Konglomerat, lernt die linguistische Logik daraus und kann dann supersmarte Sätze ausspucken. Heißt: Es ahmt menschliche Sprache nach, indem es das nächste Wort vorhersagt, das statistisch am wahrscheinlichsten folgt. Klingt erst einmal recht trocken, aber wenn du jemals eine unendliche Liste an Netflix-Titeln durchgescrollt hast, um dann doch wieder „Space Force“ zu binge-watchen, verstehst du das Prinzip. LLMs funktionieren ähnlich: Sie wühlen sich durch einen gigantischen Pool an Möglichkeiten und ziehen dann die Worte heraus, die am besten passen, um am Ende einen (hoffentlich) logischen, zusammenhängenden und verständlichen Text zusammenzukleistern.
Steht da irgendwas von Intelligenz? Entscheidungen werden darüber gefällt, was das wahrscheinlich beste nächste Wort sein könnte. Gute Texte entstehen, in dem man entweder
- dass du das Thema samt Output vorgibst und ChatGPT nur noch ein bisschen Decorum und Orthografie übernimmt.
- du dich auf deine literarischen Vorgänger verlässt, die schon irgendwas in das Datenset, auf dem das Modell beruht, geschrieben haben werden, dass das Modell jetzt als frischen Zonk aus dem Zylinder ziehen kann
- man meint, dass ein Computer auf einmal Experte in Attentaten ist.
Was machen wir eigentlich, wenn wir ein Matheproblem lösen sollen und keinen Taschenrechner haben? Fragte auch ständig mein Mathe-Lehrer – der, der uns mit seinem 08/15-Script und Formeln zu erschlagen versuchte und einfach darauf gepokert hat, dass wir keine universalen Computer in der Hosentasche haben, mit denen wir auf das Wissen der ganzen Welt zugreifen können.
Aber, da gehts nur um die Darstellung von Situationen durch datenbankartiges Wissen. Ein wesentlicher Skill der Neuzeit ist die Bewertung von Situationen und Entscheidung für Alternativen. Wir müssen nicht rechnen, dafür haben wir Maschinen gebaut. Wir müssen nicht fliegen, dafür haben wir Maschinen gebaut. Wir müssen niemanden töten, dafür haben wir Maschinen, die rechnen und fliegen können, gebaut. Aber wir müssen entscheiden, wen wir in einem Drohnenangriff wirklich loswerden wollen. Naja, meistens. Zumindest vorerst.
Wir sollten also unsere Agency (ja, das Wort klingt fancy, ist aber wichtig) als Menschen nicht komplett an Maschinen abgeben, indem wir im Kleinen unsere Arbeit an sie outsourcen (nur damit der Chef später den ganzen Job an ChatGPT outsourced), oder ihnen das Denken überlassen.
Die Generierung von eleganten Entscheidungen ist das, was Menschen von allem unterscheidet, was sonst noch existiert. Die Convergence, in der Mensch und Maschine verschmelzen, kann gut funktionieren, wenn die Maschine langsam an Menschen herangeführt wird – oder wir kriegen Skynet. Eure Entscheidung.
*Made with ChatGPT on my iPhone*
Entdecke mehr von VTK MAGAZINE
Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.