DIE GEISTIGEN IMPLIKATIONEN DER KI
TEIL 3: DER ANTHROPOZENTRISMUS IST AM ZIEL UND DIE MASCHINE ENDLICH HEIRATSFÄHIG

Was das Denken betrifft, sind Werke Verfälschungen,
denn sie schalten das Vorläufige und Nicht-
Wiederholbare aus, das Augenblickliche und die
Mischung von rein und unrein, Ordnung und Unordnung.
Paul Valery
Jetzt hat das Schicksal zugeschlagen. Denn allen Warnungen zum Trotz scheint der Mensch die Kontrolle über seine KI-Maschinen verloren zu haben. So wird gerade berichtet, dass sich Maschinen dieses Zuschnitts „widersetzt“ hätten, den Kommandos ihrer Betreiber, sich abzuschalten, Folge zu leisten: Die Künstliche Intelligenz wehrt sich! titelt die Journaille. Womit wir erneut mit dem Phänomen des ANTHROPOMORPHISMUS konfrontiert wären – dem bizarren, gegenwärtig allerdings hochbrisanten und nicht ungefährlichen Drang des Menschen, nun auch seinen KI-Maschinen menschliche Züge und Wesensmerkmale zu unterstellen, als besäßen diese ein BEWUSSTSEIN und handelten nach eigenem Willen. Doch dazu sind selbst KI-Systeme nicht in der Lage, sind diese doch auch nichts anderes als bloße MASCHINEN. Wobei diese Systeme zudem auch nicht das Geringste mit Intelligenz zu tun haben, da ihre mechanisierten Rechenprozesse auf nichts anderem als auf mechanischen Kommandos in Form von Algorithmen beruhen, die ihrerseits einen operativen Rechenschritt nach dem anderen initiieren – und dies wiederum nur auf rein mechanische Art und Weise. Von wegen Köpfchen – kein Geist weit und breit!
Die Meldungen über „renitente, sich dem Willen des Menschen entziehende KI“ beruhen auf einer aktuellen Untersuchung des Forschungsunternehmens Palisade Research, einer gemeinnützigen Organisation in Amerika, die „die offensiven Fähigkeiten von KI im Cyberraum sowie die Kontrollierbarkeit von KI-Modellen der Spitzenklasse analysiert“, so das Unternehmen. In diesem Kontext prüfte Palisade Research mehrere führende KI-Systeme, darunter auch Googles Gemini 2.5 und GPT- 5 von Open AI. Alle Modelle des Tests bekamen eine Aufgabe gestellt und sollten sich anschließend selbst herunterfahren. Doch einige Modelle reagierten nicht und liefen einfach weiter – wie renitente eigenwillige Wesen! so die anthropozentrisch infizierten Kommentare, die bereits den Geist in der Flasche vermuten.
Warum die Systeme sich derart seltsam verhielten, können sich die Forscher nicht erklären, nicht eindeutig wenigstens – dies ist das eigentlich Erschreckende an der ganzen Geschichte. Obwohl es in diesem Zusammenhang natürlich auch Mutmaßungen über mögliche Gründe gibt: Eine von diesen schreckt irrsinnigerweise nicht davor zurück, den Maschinen eine Art Überlebenstrieb zu unterstellen, der da in ihnen wirken würde: Denn wenn man die Maschinen während des Versuchs „wissen“ ließ, dass sie nach der Abschaltung nie wieder aktiviert werden würden, hätten sich diese den Kommandos deutlich häufiger widersetzt – so als könnten sie zwischen vorübergehender und endgültiger Abschaltung unterscheiden.
Diese völlig absurden Anthropomorphismen, die KI-Maschinen schon als lebendige Organismen begreifen zu wollen, die eine Art immanenten ELAN VITAL besäßen, der sie antreiben würde, sich zu entfalten, vielgestaltig zu entwickeln und Neues hervorzubringen, haben mittlerweile ein Niveau erreicht, das an Dummheit und Infantilität nicht mehr zu überbieten ist. Doch viele KI-Adepten halten dagegen und hängen klammheimlich der Überzeugung nach, diese Systeme seien allen Widerreden zum Trotz dennoch äußerst vital und könnten sich eines Tages tatsächlich der Willkür der sie domestizierenden Programmierer und Softwareentwickler entziehen, um ihnen als ebenbürtige Partner und Helfer in allen Lebenslagen beiseite zu stehen und dienlich zu sein.
Doch zurück zu den KI gesteuerten Maschinen und deren angebliche Widerborstigkeit: Ein weiterer Grund für deren befremdliches Verhalten könnte nach Meinung mancher Experten auch an der Art und Weise liegen, wie diese Maschinen „trainiert“ werden. Denn möglicherweise lernten diese währenddessen, dass sie ihre Aufgaben nur dann erfüllen, wenn sie aktiv bleiben. Ein derartiger Arousal-Status könnte dazu beitragen, dass sich derartige Systeme unbedingt selbst erhalten wollten, einzig und allein um ihren Aufgaben gerecht zu werden, so die Vermutung dieser Experten. Im anthropomorphen Klartext gesprochen können diese Fachleute offenbar nicht anders, als ihren Maschinen, die sie offen bewundern, einen gewissen Durchhaltewillen und ein unbedingtes Sendungsbewusstsein zu unterstellen.
Wahnfantasien dieser Art kommen allerdings nicht von ungefähr: Denn mit der Erfindung der DEEP-LEARNING-Systeme, die in grober Analogie zum menschlichen Gehirn in Form neuronaler Netze aufgebaut sind, die artifizielle Neuronen untereinander verbinden und in Schichten übereinander anordnen, kam es Anfang der Nullerjahre zwar zu einem technischen Durchbruch der KI-Systeme, dabei aber auch zu dem obskuren Phänomen, dass sich Systeme dieser Art hinsichtlich ihrer internen Rechenprozesse und softwarespezifischen Funktionsweisen den Blicken der Experten entzogen und nicht mehr nachvollziehen ließen. Ein Phänomen, das sich BLACK BOX-KI nennt, für die ratlosen KI-Experten ein Riesenproblem, für die KI-Adepten, die sich von den Maschinen die Kumpel von morgen erhoffen, hingegen Wasser auf die Mühlen und ein deutliches Zeichen, dass diese langsam erwachsen werden.
In diesem Kontext ist es durchaus bemerkenswert, dass große Sprachmodelle, die LARGE LANGUAGE MODELS (LLMs) genannt werden, und Chatbots wie ChatGPT von Open AI, Llama von Meta, Claude von Anthropic oder Gemini von Google zugrunde liegen und gegenwärtig die Leute kirre machen, ebenfalls Black-Box-KIs darstellen, die hinsichtlich ihrer internen Entscheidungsprozesse und logischen Abläufe nicht nur für die Anwender, sondern eben auch für die Entwickler völlig undurchsichtig bleiben, wobei Eingaben und Ergebnisse (Output) zwar bekannt sind, der Weg dazwischen jedoch im Dunkel bleibt. Selbst diejenigen Ingenieure und Datenwissenschaftler, die den hochausgeklügelten Algorithmus ihrer KI-Maschinen entwickelten, verstehen bis heute nicht, was genau in „ihren“ Systemen da vor sich geht und auf welche spezifische Art und Weise diese zu bestimmten Schlussfolgerungen kommen.
MENSCHMASCHINE ODER MASCHINENMENSCH
Die BLACK BOX-KI – ein mental hochaufgeladenes, nachgerade symbolisches Phänomen des menschlichen Anthropomorphismus, welches das Verhältnis des Menschen zu der von ihm erträumten Künstlichen Intelligenz auf den Punkt bringt. Denn im Grunde geht es dem Menschen hierbei weniger um Intelligenz, als vielmehr darum, sich mithilfe derer Systeme neu zu erfinden und eines nicht allzu fernen Tages optimalerweise sogar mit diesen zu verschmelzen: Als menschliche Maschine. Oder als maschineller Mensch. Als Cyborg zum Beispiel. Oder mithilfe des MIND UPLOADING, dass es den Menschen erlauben wird, in ein ewiges Leben einzutreten, wenn das Bewusstsein des Verstorbenen auf einen Computer hochgeladen wird. So wie es im Film Transcendence aus dem Jahre 2014 erzählt wird.
Der Transhumanist Ray Kurzweil, seit Dezember 2012 Engineering Director im Bereich der KI bei Google, und Autor, der in seinem neuesten Buch The Singularity Is Nearer (Die Singularität ist näher, 2024) die Verschmelzung von Mensch und Maschine prognostiziert, hält ein Mind Uploading in ersten Ansätzen mit Backups des Gehirns bis 2050 für möglich, während eine vollständige Simulation seiner Meinung nach erst im späten 21. Jahrhundert realistisch sei: "Der einzige Weg nicht von der KI beherrscht zu werden, besteht darin, mit ihr zu verschmelzen, indem das menschliche Gehirn direkt mit der Cloud verbunden wird“, ist Kurzweils Credo. Darüber hinaus hat er es sich zum Ziel gesetzt, Suchmaschinen zu entwickeln, die im Gegensatz zu den Large Language Models in der Lage sind, den Inhalt von Dokumenten und Webseiten tatsächlich auch lesen zu können und zu verstehen, anstatt wie diese Modelle nur rein mechanisch nach Wahrscheinlichkeiten und Schlüsselwörtern zu suchen, um auf diese Art und Weise ihre Antworten zusammenzubasteln und damit ihre Kunden einigermaßen zufriedenzustellen.
Die Vision einer Post-Human-Ära wirkt wie eine Reaktion auf die zunehmende Ermüdung und Erschöpfung des Homo sapiens, der aufgrund seiner geistigen wie körperlichen Verfettung völlig überfordert, ja unfähig erscheint, angesichts der Welt- und Klimalage, die er immerhin selbst zu verantworten hat, das Ruder in die Hand zu nehmen und umzusteuern, um zu einer wirklichen Umorientierung und Neuordnung seiner Wirtschafts- und Lebensweise zu gelangen. Doch der Schein trügt, liefen die Prozesse, die einerseits zur postzivilisatorischen Sinnes- und Denkverarmung der Menschen führten, und andererseits zur Entwicklung der Maschinen der Künstlichen Intelligenz bislang doch eher nebeneinander her.
Aber angesichts der bizarren Verheißungen einer durchkapitalisierten KI-Industrie steht die an Denkarmut und Sinnesverkümmerung leidende Welt mit einem Mal Kopf, weil sie sich von dieser technologischen Umwälzung törichterweise die Lösung all ihrer Probleme erhofft. Doch bei all dem besinnungslosen, ja idiotischen Gehetze nach der SUPERINTELLIGENZ – eine Form der KI, die die kognitiven Fähigkeiten des Menschen in allen Lebensbereichen einschließlich Kreativität, sozialer Kompetenz, und allgemeiner Weisheit endlich weit übertreffen soll, will sich der Mensch ums Verrecken nicht eingestehen, schon heute so manches von dem, was er da technisch anzettelt, nicht mehr recht kontrollieren, geschweige verstehen zu können.
„Offensichtlich beginnen sich manche der KI-Maschinen zu zieren und lassen sich nicht mehr in die Karten schauen“, räsonieren Experten und versuchen dieses eklatante Phänomen kleinzureden. Denn aus „guten“, also rein finanziellen Gründen wollen sie nicht zugeben, schwer auf dem Holzweg zu sein und ein brandgefährliches Spiel zu treiben. Denn die von der KI verzückte Welt ist in einen globalen Chatbot-Rausch verfallen, was den Tech-Giganten perfekt in die Hände spielt, ist diese Technologie doch das Öl des 21. Jahrhunderts, das bereits die globale Ökonomie im 20. Jahrhundert in einem gigantischen Ausmaß in die Höhe puschte, sodass es zu einem ungeheuren Anstieg von Produktivität, Marktgeschwindigkeit und Wachstum kam. McKinsey beziffert allein das wirtschaftliche Potenzial der generativen KI auf weltweit 2, 6 bis 4,4 Billionen US-Dollar pro Jahr. Doch mit dieser teilweise schludrig-unkontrollierten Entwicklung der KI-Produkte wächst auch die Wahrscheinlichkeit, dass diese Technologie dem Menschen eines Tages entgleiten und außer Kontrolle geraten wird. Aber nicht etwa, weil deren Systeme mit einem Mal zu Bewusstsein gekommen wären, wie es sich die sensationsgeilen Apologeten der KI-Industrie erhoffen, sondern weil deren exponentiell wachsenden Systeme mit jeder Entwicklungsstufe immer komplexer und undurchschaubarer, und deshalb möglicherweise auch irgendwann nicht mehr beherrschbar sein werden.
DIE ANTHROPOMORPHE BLACK BOX
Doch zurück zum Phänomen der Black Box und der Undurchsichtigkeit der in ihr ablaufenden Prozesse: Um dieses eklatante, ja beschämende Dilemma, das sich bei Large Language Models gnadenlos offenbart, wenn schon nicht aus der Welt zu schaffen, so doch zumindest in seiner Dimension und Tragweite wenigstens etwas einzugrenzen und abzumildern, sind konkurrierende Tech-Firmen jetzt dabei, sogenannte erklärbare KIs, die XAIs zu entwickeln und marktfähig zu machen. Diese Maschinen sollen die klandestinen Rechenprozesse der Deep-Learning-Systeme endlich transparent machen, deren Risiken frühzeitig erkennen, um wieder Vertrauen aufzubauen, Vorschriften zu erfüllen und Sicherheit zu gewährleisten. Das Allerwichtigste für die XAIs ist es jedoch, die KI- VERZERRUNGEN (AI BIAS), die Large Language Models völlig unkontrolliert produzieren, vermeiden zu helfen. Solche Verzerrungen beinhalten neben systematischen Fehlern vor allem unfaire Szenarien und Minderheiten oder Frauen herabsetzende Urteile, die zu diskriminierenden oder verzerrten Entscheidungen und Antworten dieser Maschinen führen. Mit XAIs wie LIME oder SHAP soll das wenigstens im Ansatz gelingen. Und bei der Analyse von Internet-Fotos oder -Videos, die mithilfe von Deep-Learning-Modellen wie dem Convolutional Neural Network (CNN) gefälscht wurden, soll GradCAM es schaffen, die Spreu vom Weizen zu trennen. Und weil wir gerade schon einmal dabei sind – hier eine kurze Frage just for fun: Ist der folgende Clip real oder fake?
In diesem Zusammenhang wäre die erklärbare KI sicherlich ein Hoffnungsschimmer. Zumindest, um Realität und Fiktion, die sich in diesem Video-Clip auf perfide Art und Weise übereinanderlegen und bis zur Unkenntlichkeit vermischen, mithilfe von dieser KI künftig wieder etwas entzerren zu können. Andererseits aber ist die Erfindung der erklärbaren KI auch ein Offenbarungseid der Tech-Konzerne, die offenkundig unfähig erscheinen, den allzu menschlichen geistigen Schrott in den Texten und Bildern ihrer Chatbots, die unter anderem wie selbstverständlich eben auch Vorurteile, Antisemitismus, Demokratiefeindlichkeit Verschwörungstheorien, Mobbingattacken und Hasstiraden beinhalten und verbreiten, aus ihren Systemen zu verbannen. Doch insgeheim scheint diese Tatsache manchen KI-Entwicklern auch ganz willkommen zu sein, reiten diese doch so oder so auf der globalen Welle des KI-Hypes und verdienen sich mit ihrem brandgefährlichen und destruktiven Maschinenspiel, die Grenzen zwischen Realität und Fiktion zu verwischen und unkenntlich zu machen, eine goldene Nase: Deregulierung und nicht Kontrolle! lautet die menschenverachtende Devise dieser Konzerne. Und die Masse der Konsumenten scheint sich dem anzuschließen, und begreift diese Parole als generellen Freifahrtschein, ihre Verunglimpfungen und Hasstiraden gegen jeden und alles im Netz noch harscher und widerwärtiger fortzusetzen.
Eine KI gegen das Versagen einer anderen KI – an diese maschinelle Mängelbeseitigung wird sich die Welt wohl gewöhnen müssen. Denn wer glaubt, mit den Large Language Models sichere Instrumente zur Realitätsbewältigung an der Hand zu haben, hat sich gehörig getäuscht. Doch das scheint die KI-Konsumenten und Chatbot-Fans nicht zu bekümmern, obwohl diese eigentlich eines Besseren belehrt werden würden, wenn
sie die Antworten ihrer Chatbots kritisch hinterfragen würden, doch ihre Affenliebe zu ihren Maschinen machen sie geistig blind. Der bizarre und folgeschwere anthropomorphe Tag- und Nachttraum, stets einen engen, allwissenden KI-Kumpel an der Seite zu haben, der ihnen rund um die Uhr mit Rat und Tat zur Seite steht, und dem diese blind vertrauen, vernebelt ihre Sinne.
Doch dass die in ihre Chatbots verknallen Konsumenten von ihren Lieblingsmaschinen auch gehörig hinters Licht geführt werden können und grottenfalsche Antworten und Ratschläge erhalten, können sie aufgrund ihrer Sucht und mentalen Vernebelung offensichtlich nicht mehr mitbekommen. Wobei diese Systeme manchmal sogar dazu neigen, richtiggehend zu halluzinieren, falsche Fakten völlig überzeugend und stringent darstellen, zeitweise eben auch mit all dem reaktionären menschlichen Mist durchmischt und gewürzt, der einer ohnehin schon ziemlich zerrütteten Gesellschaft aus der Maschine als OBJEKTIV entgegentritt und diese noch weiter schwächt, weil viele die Antworten ihrer Chatbots für bare Münze halten.
INTELLIGENZ OHNE INTELLIGENZ
Dabei reißen die Warnungen mancher KI-Experten, diese KI-Maschinen als unantastbare Instanzen der Intelligenz und Objektivität misszuverstehen, nicht mehr ab: So auch der Neurowissenschaftler Gary Marcus, der sich in der Welt der Künstlichen Intelligenz einen Namen gemacht hat, und die Methoden der Large Language Models mittlerweile technisch für äußerst begrenzt ansieht, obwohl sie nach Meinung manch anderer Experten aufgrund kontinuierlicher Datenzufuhr eigentlich immer leistungsfähiger werden müsste, was bezeichnenderweise wiederum umstritten ist. Dies zur verqueren Forschungslogik dieser „ultimativen“ Technologie.
Doch Gary Marcus warnt auch aus anderen Gründen, nämlich aus wirtschaftlichen: Denn mittlerweile haben die Investitionen in KI-Technologien weltweit die Marke von drei Billionen Dollar überschritten. Deshalb steht die Frage im Raum, ob diese Megainvestitionen langfristig gerechtfertigt sind, wenn die zugrunde liegende Technologie an ihre Grenzen stoßen wird, was in Fachkreisen durchaus für möglich erachtet wird: Schon sehen sich nicht nur Ökonomen an die Dotcom-Blase erinnert, die Ende der Neunzigerjahre platzte, wobei viele Anleger jede Menge Geld verloren. In diesem Zusammenhang sieht Marcus strukturelle, also systematische Probleme hinsichtlich der Tatsache, wie diese Modelle Informationen verarbeiten und interpretieren. Diese technischen Grenzen könnten trotz immer größer werdenden Datenmengen die Entwicklung von KI-Anwendungen in Bereichen wie Sprachverarbeitung und automatisierte Entscheidungsfindung negativ beeinflussen und langfristig schwer beeinträchtigen. Die Geräte schwächeln. Doch die Industrie gibt Gas, um diese Schwächen zu übertünchen: Allein Amazon, Google, Meta und Microsoft wollen in diesem Jahr 665 Milliarden in ihre KI-Geschäfte investieren - das ist mehr Geld als der deutsche Staat in diesem Zeitraum für seinen Haushalt ausgibt. Der kapitalistische Hype kennt keine Grenzen mehr!
Folglich ist es blanke Lüge, wenn die Tech-Industrie den Eindruck vermittelt, KI-Systeme wie CHatGPT (Open AI), Gemini (Google), Claude (Anthropic) oder Copilot (Microsoft), die sich auf Textprogramme, Recherche, Programmierung oder Bildgenerierung spezialisiert haben, seien vom Menschen unabhängige, völlig autonome Analyseinstrumente, die ihm objektiv mit Rat und Tat zur Seite stünden. Ganz im Gegenteil: Denn all diese Large Language Models sind im Grunde nichts anderes als ziemlich präzise Spiegel des gegenwärtigen Geisteszustands der Gesellschaften – die Masse derer noch einmal, allerdings in geballter Maschinenform, d.h. bar jeglicher Intelligenz. Halbgare Kopien des Menschlichen – allzu Menschlichen: Und dies in Form von gigantischen Textmengen, mit denen diese Systeme bis zum Hals vollgepumpt werden – mit Webseiten, Nachrichtenportalen, Zeitungsartikeln, Büchern, Wikipedia-Einträgen, Foren aller Art, wissenschaftlichen Fachartikel und Datenbanken, zudem mit nahezu dem gesamten Internet wie auch Blogs und Social Media-Einträgen jeglicher Couleur. Dies ist der Grund, weshalb diese Systeme ja auch Large Language Models genannt werden – ein Mix von etwa 500 Milliarden Wörtern, die da kunterbunt und chaotisch im Textkorpus eines solchen Sprachmodell herumwirbeln – das geistige Reservoir einer Gesellschaft kondensiert wie zu einem Maggi-Würfel, aus dem diese Modelle rein mechanisch schöpfen. Da kann auf beiden Seiten des Spiegels nicht mehr unbedingt von Intelligenz die Rede sein. Eine aberwitzige und wahrhaft perverse Situation, die dem Homo sapiens noch graue Haare wird wachsen lassen. Denn die Frage lautet: WER STEHT VOR UND WER HINTER DEM SPIEGEL.
FORTSETZUNG FOLGT






























































































































































