5. Künstliche Intelligenz

 

Daß ´Künstliche Intelligenz´ mit im Spiel sein sollte, um Komputationen optimal und rasch zustande zu bringen, ist naheliegend. Nicht nur der Komputator, auch der Computer sollte über Katholizismus Bescheid wissen, über Freud, über Ackerbau und Elvis, wenn er beim Komputieren in diesen Bereichen helfen soll. Doch Wissen ist ihm problemlos einzugeben. ´Wissende Apparate´ aber intelligent zu nennen, ist eine Frage der Definition. Man kann sie bereits für intelligent halten, wenn sie mit Wissen jonglieren und den Turing-Test bestehen.[1] Ohne nun festlegen zu wollen, wann eine Maschine intelligent zu nennen ist, ist absehbar, daß der Fortschitt auf dem Gebiet der Künstlichen Intelligenz den definitorischen Grenzwert stetig erhöhen wird, denn ein immer perfekterer Grad an Kombinatorik wird das Digital zusehends operabler machen. Der Mensch, der User, will schließlich nicht erst Algorithmen zusammenbasteln müssen, er will die durch sie möglichen Virtualitäten nutzen, er will synergetisch Komputationen erleben.

Flusser geht davon aus, "im telematischen Dialog werden menschliche mit künstlichen Intelligenzen derart gekoppelt werden, daß es sinnlos werden wird, in den so erzeugten Informationen zwischen menschlichen und künstlichen Faktoren unterscheiden zu wollen" (1990, 97). Ohnehin "können künstliche Intelligenzen schneller kalkulieren und komputieren. Schreitet die Technik in dieser Richtung voran (und das tut sie), dann werden in absehbarer Zukunft die automatischen Kritiker die menschlichen nicht nur ersetzen, sondern sie werden auch tiefere Einblicke als diese haben" (ebd. 101) - mathematisch-kalkulatorische zwar, doch übertreffen sie hinsichtlich der Informationsdichte den menschlichen Horizont. "Unter günstigen Voraussetzungen", so jubeln die Cybernauten, komme es schließlich "zur Entwicklung von intelligentem Leben, das als Bitwolke in den Schaltkreisen des Computers Diskurse führt" (Schröder 1991, 132). Von ´algorithmischer Ursuppe´ ist die Rede und von ´genetic programming´ (vgl. ebd.).

In ´neuronalen Netzwerken´ wird die Evolution des Denkens längst virtuell simuliert. Als falteten wir unsere Hirnrinde noch einmal oder erfänden das Rückenmark neu (vgl. Brand 1990, 165), das Netz der Zukunft soll lebendig sein: "Es benötigt keine Programme im herkömmlichen Sinn, sondern lernt aus Erfahrungen, ähnlich wie der Mensch das von Kindheit an tut" (Leckebusch 1990, 42). Besteht das Gehirn aus Nervenzellen, den Neuronen, die, über Synapsen miteinander verbunden, ihren Zustand gegenseitig durch Informationsaustausch beeinflussen, so gibt es in einem neuronalen Netzwerk für die jeweilige Aufgabe ebenfalls nur Verbindungen, die gemeinsam arbeiten. Es wird kein Programm geschrieben, und die Informationen verteilen sich mehr oder weniger selbstständig überall im Netz. ´Die Architektur und die Trainingsmethoden bestimmen, wie das Netzwerk arbeiten muß. Das Programm besteht aus dem Gesamtzustand des Netzes, sein Aufbau entscheidet über sein Verhalten, denn im Erfahrungstraining wird nach jedem Beispiel eine Veränderung im Netz vorgenommen´ (vgl. ebd.). "Man spricht von wetware [nassen Computern] im Gegensatz zu hardware und software, weil diese Computer in Nährsuppen getaucht sind, also sozusagen lebendige Sachen sind" (Flusser 1988, 129). 

Zweifelsohne ist ´mit dem neuronalen Netz ein Konzept in den Blickpunkt gerückt, das den Computer und die Art, ihn zu programmieren, von Grund auf revolutionieren könnte´ (Leckebusch 1990, 44). Um es kurz zu sagen: "man baut eine Allzweckmaschine, steckt Ausbildung rein und bekommt Verhalten raus" (T. Knight in: ebd.). Maschinen würden sich als wetware mit ihrer eigenen Komplexität befassen, sich selbst weiterentwickeln können und dem Menschen als ´synergetische Freunde´ Dienste erweisen können. Ziel der Forschung ist, das Materielle wie Immaterielle dank der Prothesen möglichst digitalwahrnehmbar zu machen, Ziel der Netze ist, dies Wissen möglichst flexibel in selbstständiges Verhalten umzusetzen, und Ziel der Informationstechnologien ist, das virtuell Kopierte und die autonomen Lebensformen den menschlichen Sinnen zugänglich zu machen.

So schwer die Simulationen der lebensweltlichen Komplexitätslastigkeit gerecht werden können, die Künstliche Intelligenz hat bereits Massen an Informationen zur Verfügung, die virtuell umsetzbar sind. Die Künstliche Intelligenz scheint, wie Günther Anders über die Medien urteilte, "die ganze Welt als Ganze verarbeiten, verwandeln, ´fertig machen´" zu wollen, um sie, so ja die Vorstellung der Cyberpunks, "´zu sich zu bringen´ ... in die Hochöfen, Fabriken ... Radio- und Fernsehstationen" (Anders 1985, 186). Und heute eben bildhaft gerafft in den Cyberspace. Die Aufklärung scheint in der Simulation alles Irdischen zu gipfeln, da alles, was gewußt wird, informationstechnologisch ´intelligenter´ macht.

Obwohl das Maschinelle und das Menschliche mittlerweile engstens miteinander verbunden ist, sind menschliche Eigenheiten: die äußerst komplexe Gehirnkompetenz, Empfindung, Erwartung, Absicht, Erfahrung etc. in den Apparaten äußerst unterbesetzt. Wozu aber eine ´Verschmelzung künstlicher und menschlicher Intelligenzen zu einer Einheit´ (vgl. Flusser 1990, 97) auch immer führen soll, unterliegt nicht nur den Kompatibilitätsbedingungen und der technologischen Aufrüstung, sondern ist vor allem eine definitorische Entscheidung: Flusser zufolge werde man "die unangenehme Wahl haben, entweder die künstlichen Intelligenzen zu humanisieren oder die menschlichen zu apparatisieren" (ebd.).

Die Künstliche Intelligenz zu humanisieren hieße, die Apparatfunktionen komplex zu machen. Weder aber durch Wissenszufuhr noch durch Strukturverbesserung dürfte eine ´Humanisierung der Apparate´ erreichbar sein, da sich Komplexität und Struktur zueinander verhalten wie Wasser und Öl und die menschliche Komplexität selbst dem Menschen uneinsichtig ist. Roger Penrose weist darauf hin, "wenn wir einen noch so umfassenden Formalismus zu besitzen glauben, wird es stets einige Aussagen geben, die seinem Netz entgehen" (1991, 105), das heißt, das Komplexe ist und bleibt größer als das Faßbare und Berechenbare. ´Daß ein völlig bewußtloser Automat seine Zeit darauf verschwendet, ein Buch schreiben zu wollen, ist kaum vorstellbar´ (vgl. ebd. 399). "Etwas geht nicht auf in der symbolischen Ordnung" so Kamper. "Der Rest ... das was übrig bleibt, wenn alles aufgeschrieben worden ist" (vgl. Kamper 1986, 155) läßt sich nicht funktionalisieren.

So perfekt das simulierte Double sich im Virtuellen geben mag, es wird nur aus bekannter Fülle an Informationen heraus entstanden sein können, nicht aufgrund authentischer Humankomplexität. Die virtuellen Erscheinungen entstehen aufgrund der "Simulation einer geschlossenen Einheit, die weder auf den komplexen Gegenstand paßt, der erkannt werden soll, noch demjenigen, der erkennen will, irgendeinen Platz in sich einräumen kann" (Kamper 1990b, 142). Nicht einmal ´das Gesetz des Regenwurms führt zum Regenwurm´ (vgl. Penrose 1991, Vorwort XIX). Und der Mensch wird im mensch-gedoubelten Turing-Test kaum ein gleichwertiges Gegenüber finden. Das Digitale zirkuliert als ein kollektives, selbstidentisches Selbstgespräch, der Mensch aber "ist nicht partout ein Selbst, das im Identischen des Verstehens mit sich selbst vermittelt wäre. Vielmehr gibt es eine Differenz, die nicht getilgt werden kann ... Es bleiben Reste, die nicht aufgehen" (Kamper 1990b, 142). Die Differenz ist die Komplexität selbst.

Während Moles die ´Idee des Programms´ als ´ein Algorithmus des Geistes´ erscheint (vgl. 1973, 95), gibt Penrose zu bedenken: "man sucht oft mühselig nach Algorithmen, wenn man Mathematik treibt, aber das Suchen selbst scheint keine algorithmische Prozedur zu sein" (vgl. 1991, 403). Penrose bezweifelt die Möglichkeit der Entwicklung von Algorithmen, "mit denen wir ... Urteile über die Gültigkeit anderer Algorithmen fällen können" (vgl. ebd.). Da "die geringste Mutation ... einen Algorithmus höchstwahrscheinlich völlig unbrauchbar machen" würde (404), sprächen Algorithmen gegen die Methode der natürlichen Evolution: beim Gehirn sei ´eine wesentliche nicht-algorithmische Komponente im Spiel´ (394). Die algorithmische Verarbeitungsweise selbst sperrt sich gegen die Möglichkeit, (simulatorisch) komplex zu werden. Das Komplexe ist nicht einholbar.

Da mögen Apparate immer ´klüger´ werden, es mögen Spielzeugschildkröten zur Steckdose laufen, ehe ihre Batterie leer ist, es mögen psychologische Beratungsprogramme Krisen bewältigen helfen, oder der Haushaltsroboter wissen, daß er die Suppe nicht mit der Hand umrühren soll, weil sie sonst nach Maschinenöl schmeckt - tatsächlich komplexes learning by doing wird ihnen, so vielvesprechend ´parallele Verarbeitungsweisen´ auch klingen, nur schwer möglich sein: Der Roboter wird die Suppe kaum selbst essen und das Maschinenöl schmecken können. Selbst wenn man ihm sagt, sie schmecke nach Maschinenöl, selbst wenn Maschinen dank neuronaler Netze selbstständig lernen können und der menschlichen Einbildungskraft immer besser nachgeeifert wird, hat die Zunahme an Wissen nichts mit Intelligenz, geschweige denn mit Bewußtsein oder der menschlich vergleichbaren Komplexität zu tun. Man mag den Computer die Bibel oder die Menschenrechtskonventionen auswendiglernen und sie mit der Straßenverkehrsordnung komputieren lassen, aber "der Computer denkt ... nicht ... Was ´denkt´ ... ist der Mensch plus Computer plus Umgebung" (Bateson 1985, 620). Weder ein ´Human-Algorithmus´ noch Komplexitäts-Algorithmen sind absehbar. Wie einst das Perpetuum Mobile ist heute die ´humanistische Weltformel´ Wunschtraum einiger Forscher der Künstlichen Intelligenz. Apparate zu humanisieren ist nicht mehr als gutgemeinte Absicht. [2]

Die´menschliche Intelligenz zu apparatisieren´ scheint als Gegenstrategie ebenfalls unmöglich, denn der Mensch denkt weder in Zahlen noch in Bits. Trotz Interfaceoptimierung ist der Mensch dazu verdammt, Körper zu bleiben. In einer anderen Hinsicht dagegen werden Menschen durchaus apparatisiert: Apparate umgeben uns allerort - Bankomate, elektronisches Kinderspielzeug, Fernbedienung, Kameras, Computer etc., und je mehr sie uns umgeben, desto besser werden sie uns vertraut, desto maschineller, ihren Codes entsprechend reagieren wir auf sie. Der Mensch kommt den Apparaten entgegen, indem er sich möglichst maschinengerecht verhält. Darüberhinaus programmieren ihn die von im selbst programmierten Programme rückwirkend aufgrund des strukturalen Hörigkeitszwangs.

Die Kompatibilität also wird erleichtert durch einen goldenen Mittelweg: Wenn in einer Verschmelzung von Mensch und Apparat ´zwischen menschlichen und künstlichen Informationen nicht mehr unterschieden werden´ soll, hat die Maschine möglichst intelligent und human zu tun, ohne es aber sein zu müssen, und der Mensch hat möglichst auf Intelligenz, auf Bewußtsein, Individualität und komplexes Vermögen zu verzichten, um den Apparaten gerecht zu werden. Diese Symbiose durch Kompromiß will weder eine intelligente Maschine, noch den Menschen als Apparat. Dennoch ist, um die Symbiosekompatibilität zu erhöhen, der Grenzwert des allzu Menschlichen zu senken.

Beim Umgang mit den Neuen Medien sind die Sinne zwar einerseits auf neue Weise gefordert, andererseits aber werden sie in ihrer Denk-Verarbeitungs-Komplexität marginalisiert. Der Mensch, will er dititaltauglich sein, muß sich der mathematisch-funktionalen Sprache anpassen. Damit ist auch sein Grenzwert der Komplexität gesenkt. Genügt strukturell meßbare Komplexität, ist sie als Scheinkomplexität operabel genug. Sofern die Informationstechnologien durch Sinnesbeeinflussung Bewußtseinstechnologien sind, fördern sie ein Bewußtsein auf Niedrigkomplexitätsniveau, ein low-level-Bewußtsein, das sich als Durchschnitt genügt. Der ´Übergang von einer analytischen zu einer synthetischen Welt´ (vgl. Moles 1973, 108f) gelingt also nur, wenn sich der Mensch seiner komplexen Fähigkeiten entledigt [3] - die Diginauten würden freilich sagen, ´wenn er sie überwindet´.

Da ein elektronischer Freund, sollte er sein ´Herrchen´ noch so gut kennen, Widerkäuer seiner Echtzeitbedingungen und seines Fraktalwissens bleibt, gilt, sich seinen Grundformeln anzugleichen.[4] Auf die Gentechnik anspielend, durchleuchtet Baudrillard eine Mutation, die den Menschen in Bezug auch zur Künstlichen Intelligenz und zum Digital betrifft: Zunächst werde der Mensch (als Gattung) erforscht, das Wissen werde simulatorisch hochgerechnet, wobei man "die genetische Matrix der Identität isolieren, und ... alle differentiellen Peripetien eliminieren [wird] ... die den zufälligen Charme der Individuen ausmachten" (vgl. 1992, 138). Das Indiviuum sei dann nurmehr eine ´krebsartige Metastase seiner Grundformel´ (vgl. ebd.). Erst wenn das Denken ´von jedem animalischen und metaphysischen Reflex gereinigt´ ist (vgl. 71), erst ohne ´krankhaft´-individuelle Zusätze, erst im Allgemeinen, kann der Mensch zum optimalen Prototyp seiner selbst werden und optimaler Partner des elektronischen Freundes sein. Da ´unsere Programme jede Möglichkeit einer Metaphysik ausschließen´ (vgl. Flusser 1990b, 125), wird der Mensch einerseits zum Mängelwesen, doch andererseits treibt erst sein Mangel den Homo Copy auf niedrigkomplexen Erfolgskurs.[5]

Das Humane wird durch die Apparate neu dekliniert. Die ´mentalen Prozesse werden durch die Interaktionsbedingungen externalisiert und mit dem Vorgang gleichgesetzt, einem Link zu folgen´ (vgl. Manovich 1997, 126f). Durch diese ´Objektivierung des menschlichen Denkens´, so Lev Manovich, "werden wir dazu aufgefordert, vorprogrammierten, objektiv existierenden Assoziationen nachzugehen" (vgl. ebd.). Da sich der Mensch an das Immaterielle heranmachte, an das, wie Flusser sagt, Unmenschliche, gilt: "Der Mensch ist ins Unmenschliche vorgedrungen, das Unmenschliche schlägt auf ihn zurück, und unter diesen Schlägen bricht der Humanismus zusammen ... Humanismus ist der Gegenwart unangemessen" (vgl. Flusser 1990b, 40f),[6] da er sich, wie Gott, jeder Meßbarkeit entzieht.

Wenn nun aber vom Nutzer die Rede war, der angeblich kompetent die Netze nutzt, war man vom ganzen Menschen ausgegangen, der sich allzu menschlich in den telematischen Dialog einbringen könne. Nun aber, da es scheint, als bewirke der Kompromiß den Verlust seiner komplexen Grundausstattung, liegt die Befürchtung nahe, der vielbeschworene Nutzer werde umsomehr zum Anhängsel der Apparate und sein Rezipientendasein würde sich im Vergleich zum Nutzerstatus allzusehr verschärfen: Wenn sein Bewußtsein nicht gefragt ist und seine Individualität redundant wird, ist es unwahrscheinlich, daß er komplex und kreativ dem negentropischen Imperativ folgen und die ihm abverlangte Verantworung übernehmen kann, den Homo Copy nach seinem Ebenbild zu entwerfen. Stattdessen wird er die Simulation seiner selbst als bessere - als im informationstechnologischen Sinn perfekte - Mickey Mouse ins neue Jahrtausend entlassen.

 



[1]Beim sogenannten Turing-Test wird eine Maschine als intelligent eingeschätzt, wenn sie in einem Blindtest als Mensch durchgeht, wenn beispielsweise ein Telefonanrufer nicht merkt nicht, daß er mit einem Computer spricht (vgl. Penrose 1991, 6ff).

[2]Das Tier- und Menschenhirn, so Adrian, werde davon in Anspruch genommen, sich in der Umwelt zu bewegen. Die menschliche Intelligenz sei ´unglücklicherweise vollgestopft mit ablenkenden Gefühlen wie Angst, Sexualität, Vergnügen, Eifersucht etc.. Doch Automatendeppen glauben, daß sie es bei ihrer Arbeit mit prothesenähnlichen elektronischen, beziehungsweise technischen Hilfsgeräten mir Verlängerungen des menschlichen Hirns zu tun haben´ (vgl. 1990, 349f).

[3]Würde man beispielsweise nurmehr telefonieren, wären Gesten evolutionär redundant und überflüssig. Die Subjekthaftigkeit der Apparate, die sich zwischen Mensch und Welt schiebt, setzt sich über die irdisch-natürliche und unmittelbare Wahrnehmung hinweg. "Die Linse", so Flusser, "hat Kleinigkeiten auf der Mondoberfläche sichtbar gemacht, so daß es schwierig wurde, die Größe des Mondes zu bewundern" (1990b, 41). Ähnliche Schwierigkeiten bekommt nun der Mensch mit sich selbst: Angesichts der neuen Technologien muß es geradezu illegitim erscheinen, sich selbst (seine komplexen Fähigkeiten) zu bewundern, denn irdische Wahrnehmung entlarvt sich als menschlich-naiv und erweist ihre (objektivierbare) Gültigkeit erst hinsichtlich der Verwertbarkeit durch das Digital.

[4] Da beispielsweise der ´elektronische Freund Anrufbeantworter´ kaum freie Reden schwingen wird, hat auch Herrchen, um kompatibel mit ihm zu bleiben, ihn irritierende Redeeuphorismen zu vermeiden.

[5]Künstliche Intelligenz bedeutet, perfekte Darstellbarkeit als Authentizität auszugeben. Tatsächlich aber ist sie nur allgemeinste, selbstidentische Grundformel ihrer selbst. - Im Virtuellen aber ist ein gentechnisch erzeugter Wurm so real wie sein lebensweltliches Orginal. Die Simulation erlaubt, daß der Regenwurm wie immer geartete Intelligenz besitzt und sogar Ping Pong spielen kann. 

[6]Die in den virtuellen Welten kreierten Wesen werden beliebig komputiert sein, sie können beliebigste Mutationen erfahren. "Wir sind dabei, ein Monstrum zu gebären", so Flusser, es entstünde "ein Mutant der in uns selbst abgelegten Information" (1990b, 169). "Er ist uns ´unsympathisch´, er schwingt in uns fremden Phrasen. Seine Gesten, seine Codes, seine Modelle sind nicht die unsrigen. Er lebt in einer Welt, die wir nicht entziffern können, gleichwohl wir für sie die Verantwortung tragen, denn wir, nicht er, haben sie errichtet ... Das Neue ist entsetzlich, und wir selbst sind das Neue" (ebd. 168f). "Die Ungeheuer", so Kamper, "die dem Traum der Vernunft entsteigen, gehorchen der Vernunft keineswegs" (1991, 94). - Wie ein Blick in heutige Videoläden bestätigt, aber scheint der gesellschaftliche Bedarf nach Ungeheuern groß zu sein. 

 

 

 

weiter mit: IV. DIE MACHT DER PROGRAMME