Blog

Künstliche Intelligenz (KI) hat sich in den letzten Jahren rasant entwickelt. Wir haben jetzt Computer, Telefone und andere Geräte, die [ein Level an] Fähigkeiten und Intelligenz aufweisen, die Menschen primitiv erscheinen lassen. Angesichts dieses rasanten technischen Fortschritts gehen viele davon aus, dass KI ein Bewusstsein entwickeln kann und das zur Folge hat, dass religiöse Narrative untergraben werden. Wenn KI ein Bewusstsein haben kann, gibt es eine physikalische Erklärung für das, was uns menschlich macht.1 Das Konzept der Seele im Islam, auf Arabisch rūḥ, ist etwas, über das wir nur wenig offenbartes Wissen haben. Fest steht jedoch, dass sie aus dem „Unsichtbaren“2 rührt, aus einer transzendenten Wirklichkeit. Wenn [jetzt aber] die Seele, das Immaterielle, das den Körper belebt, nun durch eine physikalische, materialistische Erklärung ersetzt werden kann, wird die Religion aus dieser Perspektive untergraben.3

Der Physikalist könnte argumentieren, dass das Bewusstsein und die Fähigkeit, subjektive Bewusstseinszustände (auch „phänomenale Zustände“ genannt) zu erleben, durch künstliche Intelligenz erklärt werden kann – Bewusstsein wird so zu einem Computerprogramm. Jedoch gibt es einen Unterschied zwischen schwacher KI und starker KI. Schwache KI ist die Fähigkeit eines Computersystems, Intelligenz aufzuweisen. Das kann die Beantwortung komplexer mathematischer Gleichungen sein oder das Besiegen mehrerer Gegner in einer Schachpartie in weniger als einer Stunde. Starke KI bedeutet, dass Computersysteme tatsächlich ein Bewusstsein haben. Mit anderen Worten haben sie die Fähigkeit, subjektive Bewusstseinszustände zu erleben, was bedeutet, dass sie Dingen eine Bedeutung beimessen. Schwache KI ist möglich und wurde bereits entwickelt. Starke KI ist unmöglich. Im Folgenden werden die Gründe dafür genannt.

Der erste Grund, der eher allgemein gehalten ist, besteht darin, dass Computer keine unabhängigen Systeme mit der Fähigkeit zu denken sind. Wenn etwas als „bewusst“ bezeichnet wird, bedeutet das, dass es sich dabei um eine unabhängige Quelle rationalen Denkens handelt. Computer (und Computerprogramme) wurden jedoch von Menschen entworfen, entwickelt und hergestellt, die unabhängig rational [verstandesmäßig/kopfgesteuert] sind. Deshalb sind Computer nur eine Verlängerung unserer Fähigkeit, intelligent zu sein. William Hasker erklärt:

Computer funktionieren so, wie sie funktionieren, weil sie von Menschen konstruiert wurden, die mit rationaler Erkenntnis ausgestattet sind. Ein Computer ist also lediglich eine Erweiterung der Rationalität seiner Konstrukteure und Nutzer; er ist genauso wenig eine unabhängige Quelle rationalen Denkens wie ein Fernseher eine unabhängige Quelle für Nachrichten und Unterhaltung ist.

Hasker, Hasker. Metaphysics (Downer’s Grove, IL: InterVarsity, 1983), 49; siehe auch “The Transcendental Refutation of Determinism,” Southern Journal of Philosophy 11 (1973) 175–83

Der zweite Grund ist, dass Menschen nicht nur intelligent sind, sondern dass ihr Denken eine Intention [Absicht] hat. Das bedeutet, dass sich unser Denken auf etwas bezieht und dass es mit einer Bedeutung verknüpft ist.4 Im Gegensatz dazu haben Computerprogramme keinerlei Bedeutung. Computersysteme manipulieren lediglich Symbole. Für das System geht es bei den Symbolen nicht um etwas – alles, was Computer „sehen“ können, sind die Symbole, die sie manipulieren, unabhängig davon, was wir denken, worum es bei den Symbolen geht oder was sie bedeuten. Computerprogramme basieren nur auf syntaktischen Regeln (der Manipulation von Symbolen), nicht auf Semantik (Bedeutung).

Um den Unterschied zwischen Semantik und Syntax zu verstehen, betrachte folgende Sätze:

  • Ich liebe meine Familie.
  • αγαπώ την οικογένειά μου.
  • আমি আমার পরিবারকে ভালবাসি.

Diese drei Sätze bedeuten dasselbe: Ich liebe meine Familie. Das bezieht sich auf die Semantik, also die Bedeutung der Sätze. Aber die Syntax ist anders. Mit anderen Worten, die verwendeten Symbole sind nicht gleich. Im ersten Satz werden englische „Symbole“ verwendet, im zweiten griechische und im letzten bengalische. Daraus lässt sich das folgende Argument ableiten:

  1. Computerprogramme sind syntaktisch (d.h. sie basieren auf einer Syntax/Regelwerk zur Anordnung von Symbolen);
  2. Gehirne haben eine Semantik;
  3. Die Syntax allein ist weder ausreichend noch grundlegend für die Semantik;
  4. Daher sind Computerprogramme an sich keine Geister [d. h. sind/haben keinen Verstand].5

Stell dir vor, eine Lawine ordnet Geröll irgendwie zu den Worten „Ich liebe meine Familie“ an. Die Behauptung, dass der Berg weiß, was die Anordnung der Felsbrocken (Symbole) bedeutet, wäre untragbar. Das zeigt, dass die bloße Manipulation von Symbolen (Syntax) keine Bedeutung (Semantik) erzeugt.

Computerprogramme beruhen auf der Manipulation von Symbolen, nicht auf Bedeutung. Genauso wenig kann ich die Bedeutung eines Satzes in bengalischer Schrift allein durch die Manipulation von Buchstaben (Symbolen) erkennen. Egal, wie oft ich die bengalischen Buchstaben manipuliere, ich werde nicht in der Lage sein, die Bedeutung der Wörter zu verstehen. Deshalb brauchen wir für die Semantik mehr als nur die richtige Syntax. Computerprogramme arbeiten mit Syntax und nicht mit Semantik. Computer kennen nicht die Bedeutung von irgendetwas.

John Searles Gedankenexperiment „Chinesisches Zimmer“ zeigt eindrucksvoll, dass die bloße Manipulation von Symbolen nicht zu einem Verständnis ihrer Bedeutung führt:

Stell dir vor, du bist in einem Zimmer eingeschlossen und in diesem Raum stehen mehrere Körbe voller chinesischer Symbole. Stell dir vor, du verstehst (wie ich) kein Wort Chinesisch, aber du bekommst ein Regelbuch auf Englisch, mit dem du die chinesischen Symbole manipulieren kannst. Die Regeln beschreiben die Handhabung der Symbole rein formal, [nur] in Bezug auf ihre Syntax, nicht [aber] auf ihre Semantik. Die Regel könnte also lauten: ,Nimm ein verschnörkeltes Zeichen aus dem ersten Korb und lege es neben ein verschnörkeltes Zeichen aus dem zweiten Korb.‘ Jetzt nimm an, dass einige andere chinesische Symbole in das Zimmer gereicht und dir weitere Regeln für die Rückgabe chinesischer Symbole aus dem Zimmer gegeben werden. Nimm an, dass die Menschen außerhalb des Zimmers die Symbole, die in das Zimmer hineingereicht werden, als ,Fragen‘ bezeichnen und die Symbole, die du aus dem Zimmer zurückgibst, als ,Antworten auf Fragen‘. Nimm außerdem an, dass die Programmierer so gut darin sind, die Programme zu entwerfen, und dass du so gut darin bist, die Symbole zu manipulieren, dass deine Antworten schon bald nicht mehr von denen eines chinesischen Muttersprachlers zu unterscheiden sind. Jetzt bist du dort, eingeschlossen in deinem Zimmer, und mischst deine chinesischen Symbole und gibst chinesische Symbole als Antwort auf eingehende chinesische Symbole aus… Die Pointe der Geschichte ist einfach folgende: Durch die Implementierung eines formalen Computerprogramms verhältst du dich aus Sicht eines außenstehenden Beobachters genau so, als würdest du Chinesisch verstehen, aber trotzdem verstehst du kein Wort Chinesisch.

Searle, John. (1984) Minds, Brains and Science. Cambridge, Mass: Harvard University Press, S. 32–33.

Im Gedankenexperiment „Chinesisches Zimmer“ simuliert die Person im Zimmer einen Computer. Eine andere Person verwaltet die Symbole so, dass es aussieht, als würde die Person im Zimmer Chinesisch verstehen. Die Person im Zimmer versteht die Sprache jedoch nicht, sondern ahmt sie nur nach. Searle schlussfolgert:

Die Symbole an sich – nur Syntax – zu haben, reicht nicht aus, um Semantik zu bekommen. Die bloße Manipulation von Symbolen reicht nicht aus, um zu wissen, was sie bedeuten.

Searle, John. (1990) Is the Brain’s Mind a Computer Program? Scientific American 262: 27.

Jemand könnte hierauf einwenden, dass zwar das Computerprogramm die Bedeutung nicht kennt, das ganze System aber schon. Searle hat diesen Einwand „die Systemantwort“6 genannt. Aber warum kennt das Programm die Bedeutung nicht? Die Antwort ist einfach: Weil es keine Möglichkeit hat, den Symbolen eine Bedeutung beizumessen. Da ein Computerprogramm den Symbolen keine Bedeutung beimessen kann, wie kann ein Computersystem, das sich auf das Programm verlässt, die Bedeutung verstehen? Man kann kein Verständnis erzeugen, nur weil man das richtige Programm hat. Searle präsentiert eine erweiterte Version des „Chinesisches Zimmer“-Gedankenexperiments, um zu zeigen, dass das System als Ganzes die Bedeutung nicht versteht:

Stell dir vor, ich merke mir den Inhalt der Körbe und das Regelbuch und mache alle Berechnungen in meinem Kopf. Du kannst dir sogar vorstellen, dass ich unter freiem Himmel arbeite. Es gibt nichts im ,System‘, was nicht in mir ist, und da ich kein Chinesisch verstehe, versteht das System es auch nicht.

Ebd.

Lawrence Carleton behauptet, dass Searles „Chinesisches Zimmer“-Argument ungültig ist. Er argumentiert, dass Searles Argument einen Trugschluss begeht, der [im Englischen] „Denying the antecedent“7 bezeichnet wird. Carleton behauptet, dass Searle diesen Trugschluss begeht, weil „wir keine Beweise dafür haben, dass es nur einen Weg gibt, um Intentionalität [Absichtlichkeit] zu erzeugen“.8 Er behauptet, dass Searle davon ausgeht, dass nur Gehirne die Prozesse [Abläufe] haben, Symbole zu manipulieren und zu verstehen (Intentionalität), Computer aber nicht. Carleton stellt den Trugschluss folgendermaßen dar:

Zu sagen, dass ,bestimmte Äquivalente von Gehirnprozessen Intentionalität erzeugen‘ und ,X diese Äquivalente nicht hat‘, also ,X keine Intentionalität hat‘, ist der formale Trugschluss ,Denying the antecedent‘.

Ebd.

Dale Jacquette behauptet jedoch, dass Searle den formalen Trugschluss nicht begeht, wenn eine Interpretation von Searles Argument lautet:

Wenn X (intrinsisch) intentional ist, dann hat X bestimmte Gehirnprozess-Äquivalente.

Jacquette, Dale. “Searle’s Intentionality Thesis.” Synthese 80, no. 2 (1989): 267.

Jacquette glaubt, dass Searles Argument ein Zugeständnis an den Funktionalismus9 ist. Er argumentiert, dass Funktionalisten „behaupten, dass Protoplasma nichts Besonderes ist, so dass jede richtig organisierte Materie, die das richtige Input-Output-Programm enthält, die Intentionalität des Geistes dupliziert“.10 Searle scheint auch zuzugeben, dass Maschinen die Fähigkeit haben könnten, Chinesisch zu verstehen. Allerdings sagt er:

Ich sehe sehr starke Argumente dafür, dass wir einer Maschine, deren Funktionsweise ausschließlich durch Rechenprozesse über formal definierte Elemente definiert ist, so etwas nicht zugestehen können…

Searle, John. (1980b) Minds, Brains, and Programs. Behavioral and Brain Sciences 3, 422.

Wenn Computer Symbolen keine Bedeutung beimessen können, auf welche Art von bewusster Maschine bezieht sich Searle dann? Selbst wenn man einen Roboter postulieren würde (was Searle ablehnt), würde dies unüberwindbare Probleme aufwerfen. Maschinen basieren auf „Rechenprozessen über formal definierte Elemente“. Es scheint, dass die bloße Möglichkeit, dass eine Maschine verstehen kann (und Symbolen eine Bedeutung beimisst), etwas anderes als die oben genannten Prozesse und Elemente erfordert. Gibt es eine solche Maschine? Die Antwort lautet: Nein. Könnte es sie geben? Wenn es sie gäbe, würde man sie wahrscheinlich nicht als Maschine bezeichnen, wenn etwas anderes als „Rechenprozesse über formal definierte Elemente“ erforderlich ist.

Laut Rocco Gennaro stimmen viele Philosophen mit Searles Ansicht überein, dass Roboter kein phänomenales Bewusstsein haben könnten.11 Einige Philosophen argumentieren, dass für den Bau eines bewussten Roboters „qualitative Erfahrung vorhanden sein muss“12, was sie pessimistisch sehen. Andere erklären diesen Pessimismus:

Um Bewusstsein zu erklären, muss man erklären, wie dieses subjektive innere Auftreten von Informationen im Gehirn entstehen kann, und um einen bewussten Roboter zu schaffen, müsste man ein subjektives inneres Auftreten von Informationen im Inneren des Roboters schaffen… egal, wie fortschrittlich er ist, er wird wahrscheinlich kein Bewusstsein haben, da die phänomenalen inneren Auftritte [Erscheinungen] ebenfalls vorhanden sein müssen.

Ebd.

KI kann Symbolen keine Bedeutung beimessen, sie manipuliert sie nur auf sehr komplexe Weise. Deshalb wird es nie eine starke Version von KI geben. Die Religion wird nicht untergraben.

(Spez. Autor: Hamza A. Tzortzis)

  1. Physikalismus ist die Ansicht, dass das Bewusstsein auf physikalische Prozesse reduziert, durch sie erklärt werden oder mit ihnen identisch sein kann.
  2. d. h. der verborgenen Welt
  3. In der Philosophie des Geistes sind Physikalismus und Materialismus synonyme Begriffe, auch wenn sie in anderen Wissensgebieten hinter einer anderen Geschichte und einer anderen Bedeutung verwendet werden.
  4. Searle, John, Intentionality: An Essay in the Philosophy of Mind. (Cambridge: Cambridge University Press, 1983), S. 160.
  5. Searle, John. (1989). Reply to Jacquette. Philosophy and Phenomenological Research, 49(4), 703.
  6. Ebd., 30.
  7. etwa: „Das Bezugswort/den Vorläufer leugnen“, auch als Umkehrschluss bekannt, ist ein formaler Irrtum in der Logik, bei dem von der ursprünglichen Aussage auf das Gegenteil geschlossen wird. Der Irrtum ergibt sich, indem man in der Form argumentiert: Wenn P, dann Q. Also, wenn nicht P, dann nicht Q. Beispiel: Wenn du Cola trinkst, dann bist du glücklich. Du trinkst keine Cola. Daher bist du nicht glücklich.
  8. Carleton, Lawrence (1984). Programs, Language Understanding, and Searle. Synthese, 59, 221.
  9. Funktionalismus ist in der Philosophie des Geistes die These, dass mentale Zustände (Überzeugungen, Wünsche, Schmerzen usw.) ausschließlich durch ihre funktionale Rolle erzeugt werden, d. h. ihre verursachenden Beziehungen zu anderen mentalen Zuständen, sensorischen Eingaben und Verhaltensausgaben. Wer sich in einem mentalen Zustand befindet (z. B. Kopfschmerzen hat), wird auf einen bestimmten Input in bestimmter Weise reagieren und in einen anderen mentalen (funktionalen) Zustand übergehen.
  10. Ebd., 268.
  11. Gennaro, Rocco. Consciousness. (London: Routledge, 2017), S. 176.
  12. Ebd.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert