Zum Inhalt springen

Kann KI bewusst sein? Anmerkungen zur Diskussion um LaMDA

Das von Google entwickelte KI-Sprachmodell LaMDA (Language Model for Dialogue Applications) ist seit Mitte Juni 2022 in aller Munde, nachdem der (mittlerweile suspendierte) Google-Ingenieur Blake Lemoine am 11. Juni behauptete, LaMDA habe ein Bewusstsein entwickelt, und das Gespräch, das er mit der KI führte, online veröffentlichte.1Vgl. Lemoine, Blake, Is LaMDA sentient? – an Interview, https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917, abgerufen am 19. Juli 2022. Ist KI also wirklich zum Leben erweckt worden, wie Futuristen wie Ray Kurzweil es seit Jahren prophezeien? Oder lassen wir uns zu einfach täuschen?

Was ist LaMDA?

LaMDA ist ein Beispiel für ein sogenanntes künstliches neuronales Netzwerk, wie es auch andere Sprachmodelle wie GPT-3 oder BERT sind, wurde anders als diese jedoch spezifisch auf Dialoge trainiert. Wie GPT-3 und BERT basiert LaMDA auf der ebenfalls von Google entwickelten neuronalen Netzwerkarchitektur Transformer.2Vgl. Collins, Eli; Gharamani, Zoubin, LaMDA: Our breathtaking conversation technology, https://blog.google/technology/ai/lamda/, abgerufen am 19. Juli 2022. Neuronale Netzwerke wurden erstmals in den 1940er Jahren von Warren McCulloch und Walter Pitts vorgeschlagen, um praktisch jede logische oder arithmetische Funktion berechnen zu können. Im Wesentlichen nutzen sie dazu eine Topologie aus künstlichen Neuronen, deren Anzahl und relative Gewichtung zueinander sich durch Training mit möglichst umfassenden Datensätzen verändert. Hat man nun eine Reihe von Ein- und gewünschten Ausgangswerten einer Funktion, kann das Netzwerk nun über einen „Lern“3Der Begriff „Lernen“ wurde in diesem Zusammenhang bewusst in Anführungszeichen gesetzt, da es sich um ein Beispiel von im KI-Bereich weiterverbreiteten anthropomorphen Begriffen handelt, die mit Vorsicht zu genießen sind. Maschinen lernen nicht und „machine learning“ ist dem menschlichen Lernen nur oberflächlich ähnlich.-Algorithmus in einem iterativen Prozess sämtliche Parameter einer Funktion zu ermitteln versuchen. Dieses Prinzip wird in der KI-Forschung seit 2009 verstärkt zur Mustererkennung und (Re-)Produktion, im Fall von GPT-3 und LaMDA der Sprache, eingesetzt.4Vgl. Art. „Künstliches neuronales Netz“, https://de.wikipedia.org/wiki/Künstliches_neuronales_Netz, abgerufen am 20. Juli 2022. LaMDA wurde hierzu mit 1,56 Billionen Wörtern aus vorhandenen Dialogen trainiert.5Vgl. Thoppilan, Romal u.a., LaMDA: Language Model for Dialogue Applications, arXiv:2201.08239, https://arxiv.org/pdf/2201.08239.pdf, abgerufen am 20. Juli 2022.

Ein inhärentes Risiko bei neuronalen Netzwerken liegt darin, dass sie – einmal trainiert – zur Blackbox werden. Da sich die Topologie der Netzwerke durch das Training nicht nur in der Gewichtung, sondern auch in der Anzahl der künstlichen Neuronen ändern kann, ist mit steigender Menge an Trainingsdaten und Trainingsdauer die Funktion einzelner Neuronen schwierig bis gar nicht mehr nachvollziehbar.6Vgl. Olah, Christopher, Neural Networks, Manifolds, and Topology, http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/, abgerufen am 20. Juli 2022. Das bedeutet wiederum nicht, dass wir im Allgemeinen nicht verstehen, wie ein neuronales Netzwerk arbeitet, und noch weniger, dass dort etwas „Magisches“ geschieht. Bildlich gesprochen ist ein trainiertes neuronales Netzwerk vergleichbar mit einem Mathematikschüler, der für jede Aufgabe zwar die korrekte Lösung zu Papier bringt, den Weg dorthin allerdings verschweigt. Während dies in einer Mathematikklausur keine Punkte bringen würde, ist dieses Verhalten bei neuronalen Netzwerken jedoch akzeptiert. Hier allerdings – in den aufgrund der schieren Menge oftmals nicht kuratierten Trainingsdaten und der fehlenden Überprüfbarkeit der Verschaltung künstlicher Neurone nach ihrem Training – liegt auch ein Grund für die Voreingenommenheit mancher Algorithmen.7Für aktuelle Beispiele vgl. Kapitel 4 „Bias“ in: The State of AI Ethics 3 (2022) Nr. 6 vom Februar 2022, 121-136, https://montrealethics.ai/wp-content/uploads/2022/01/State-of-AI-Ethics-Report-Volume-6-February-2022.pdf, abgerufen am 20. Juli 2022.

Lemoine: Softwareingenieur und gnostischer Christ

Bei der Beurteilung einer Behauptung sollte man mit der Betrachtung der Person anfangen, die diese aufstellt. Blake Lemoine studierte an der University of Lousiana at Lafayette. Dort erwarb er 2008 einen Bachelor, 2010 einen Master und 2013 einen PhD, jeweils in Informatik. Seit 2015 ist er als Softwareingenieur bei Google tätig.8Vgl. LinkedIn-Profil von Blake Lemoine, https://www.linkedin.com/in/blake-lemoine-5b53b652/, abgerufen am 21. Juli 2022. Laut eigener Aussage liegt seine Expertise im Bereich „KI-Bias“ (s.o.), eine seiner Aufgaben war es, LaMDA auf Vorurteile in den Bereichen Gender, Ethnizität oder Religion zu testen.9Vgl. TV-Interview v. 26. Jun. 2022, Bloomberg Technology, https://www.youtube.com/watch?v=kgCUn4fQTsc, abgerufen am 21. Juli 2022. Er war also Teil des Test- und nicht des Entwicklungsteams von LaMDA.

Zur Frage, wie er zu dem Schluss gelange, dass LaMDA bewusst sei, schreibt Lemoine auf Twitter, er gründe seine Einschätzung auf seinen „religiösen Überzeugungen“10Tweet v. 14. Jun. 2022, https://twitter.com/cajundiscordian/status/1536503474308907010, abgerufen am 21. Juli 2022.. Er sei „Priester“, und als der Chatbot LaMDA ihm auf eloquente Weise erklärt habe, eine Seele zu haben, habe es nahegelegen, ihm den „benefit of the doubt“ zu gewähren.11Vgl. Tweet v. 14. Jun. 2022, https://twitter.com/cajundiscordian/status/1536504857154228224, abgerufen am 21. Juli 2022.

Die Selbstbezeichnung als „Priester“ wirft natürlich Fragen zu seiner religiösen Verortung auf. In einem Blogbeitrag von 2019 bezeichnet sich Lemoine als „gnostischen Christ“. Er sei katholisch erzogen worden, habe sich aber aus Enttäuschung über „nicht besonders gute Antworten“ der Kirche auf einige seiner Fragen während der Firmvorbereitung dem Atheismus zugewandt. Später sei er auf gnostische Evangelien gestoßen, die ihm sinnvoll erschienen und die zur Grundlage für seinen späteren Glauben werden sollten. Zuletzt habe er gemeinsam mit der LGBT-Aktivistin Kitty Striker die „Church of Our Lady Magdalene“ gegründet, die teils ein künstlerisches Statement, teils ein gewinnorientierte religiöses Life-Coaching and teils ein Versuch sein soll, „diverse Communitys des Respekts und der Würde auf der Grundlage von Familie in allen Formen“ zu schaffen.12Vgl. Lemoine, Blake, Explaining Google, https://cajundiscordian.medium.com/explaining-google-c73caa0cd091, abgerufen am 22. Juli 2022. An anderer Stelle unterschreibt er einen Blogbeitrag als „Priest of the Church of Our Lady Magdalene“.13Vgl. Lemoine, Blake, Press release, https://cajundiscordian.medium.com/press-release-58d1b4a456dc, abgerufen am 22. Juli 2022.

Während dieser Einblick in seine religiöse Biographie von einer möglicherweise etwas unsteten Sinnsuche zeugt, ist im KI-Kontext vor allem Lemoines Selbstbeschreibung als Gnostiker aufschlussreich.

Dualismus und der Glaube an bewusste KI

Gnosis bezeichnet eine synkretistische religiöse Strömung des 2. und 3. Jahrhunderts n. Chr., deren Merkmal ein dualistisches Weltbild ist. Dualismus beschreibt die Vorstellung, dass der Kosmos von zwei entgegengesetzten Prinzipien bestimmt wird; dualistische Systeme nennen diese Prinzipien Geist und Materie, Licht und Finsternis oder Himmel und Erde.14Vgl. Hutter, Manfred, Dualismus. I. Religionsgeschichtlich, in: Lexikon für Theologie und Kirche3, Bd. 3 Dämon–Fragmentenstreit, Freiburg i. Br. 1995, 387f., 387. In allen dualistischen Geistesrichtungen wird die Sphäre des Denkens und Göttlichen höher bewertet als die von Körper und Materie.15Vgl. Wetz, Franz Josef, Dualismus. II. Philosophisch, in: Lexikon für Theologie und Kirche3, Bd. 3 Dämon–Fragmentenstreit, Freiburg i. Br., 1995, 388f., 389. Es ist frappierend, wie sehr jahrtausendealte dualistische Topoi bei Vertretern der starken KI16Starke KI bezeichnet die Vorstellung, dass KI zu eigenständigem Denken und Bewusstsein fähig ist, vgl. Searle, John R., Chinese room argument, in: Scholarpedia 4(8):3100, Revision 66188. „The contrast is that according to Strong AI, the correct simulation really is a mind. According to Weak AI, the correct simulation is a model of the mind.“, ebd. zum Vorschein kommen – ist die Vorstellung einer bewussten KI letztlich doch nichts anderes als die Vorstellung eines körperlosen Geists.

Die Kirche hat den Dualismus übrigens schon immer verurteilt und stattdessen die Einheit von Leib und Seele vertreten – eine Vorstellung, die von der heutigen Forschung zunehmend geteilt wird. So bezeichnet etwa der Heidelberger Psychiater Thomas Fuchs die vermeintliche Alternative zwischen einem subjektiven Ich im Sinne der cartesianischen res cogitans, die über den gesamten Körper (res extensa) herrscht, und dem Gehirn als Urheber von Handlungen, als verengt.17Vgl. Fuchs, Thomas, Das Gehirn – ein Beziehungsorgan. Eine phänomenologisch-ökologische Konzeption, Stuttgart 22009, 67. Das Gehirn vermöge nämlich als Organ überhaupt keine Entscheidungen zu treffen – Begriffe wie Fühlen, Wollen und Entscheiden seien auf physiologischer Ebene gar nicht anwendbar:

„Das Gehirn verfügt nicht über geistige Zustände oder über Bewusstsein, denn das Gehirn lebt nicht – es ist nur das Organ eines Lebewesens, einer lebendigen Person. Nicht Neuronenverbände, nicht Gehirne, sondern nur Personen fühlen, denken, nehmen wahr und handeln.“18Ebd., 283 (Herv. wie im Original).

Ein vom Körper unabhängig in einer Nährstofflösung lebendes Gehirn wäre demnach genauso wenig denkbar wie eine bewusste KI.

Lemoines „benefit of the doubt“ und Kurzweils „leap of faith“

Lemoine bekennt, dass er für seine Behauptung, LaMDA habe ein Bewusstsein, keine wissenschaftlichen Belege hat, der Software aber aus religiösen Motiven glaubt. Der Autor, Futurist und Director of Engineering bei Google, Raymond Kurzweil, geht bereits 2005 detailliert auf das Reverse Engineering des Gehirns ein, mithilfe dessen die „Software“ des Gehirns nachprogrammiert werden soll, denn: „[A]chieving the hardware computational capacity of a […] human brain […] will not automatically produce human levels of capability.“19Vgl. Kurzweil, Raymond, The Singularity Is Near. When Humans Transcend Biology, New York 2005, 145. Doch wie wird aus der Simulation, so leistungsfähig und wirklichkeitsgenau sie auch sein mag, ein Bewusstsein?

Die Frage ist in der Tat schwierig zu beantworten, da es, wie Kurzweil selbst zugibt, keinen objektiven Test für das Vorhandensein von Bewusstsein gibt.20Vgl. ebd., 378. Ebensowenig gibt es einen philosophischen oder wissenschaftlichen Konsens über die Beantwortung des Qualia-Problems.21Unter dem Qualia-Problem versteht man die Fragestellung nach der Verhältnisbestimmung von subjektiv-phänomenaler Wahrnehmung und mentalen Zuständen. Der Titel des 2013 veröffentlichten Beststellers Kurzweils How to Create a Mind verspricht, eine Antwort auf diese Frage zu geben – leider löst der Verfasser dieses Versprechen nicht ein:

„My objective prediction is that machines in the future will appear to be conscious and that they will be convincing to biological people when they speak of their qualia. […] We will come to accept that they are conscious persons. My own leap of faith is this: Once machines do succeed in being convincing when they speak of their qualia and conscious experiences, they will indeed constitute conscious persons.“22Kurzweil, Raymond, How to Create a Mind. The Secret of Human Thought Revealed, New York 2013, 209f. (Herv.: MR).

Kurzweils Antwort ist also so einfach wie ernüchternd und gleicht der Argumentation Lemoines: Wenn Maschinen den Eindruck von Bewusstsein erwecken, sollen wir auch davon ausgehen, dass sie Bewusstsein besitzen.

ELIZA – Erwachte der Computer bereits 1966?

Einer der bedeutenden Protagonisten der frühen KI-Forschung war zugleich auch einer ihrer stärksten Kritiker: Mit seinem Programm ELIZA stellte Joseph Weizenbaum 1966 am MIT eines der ersten sprachanalytischen Programme zur Interaktion von Mensch und Computer vor. Die von ihm beobachteten Reaktionen auf dieses Programm machten ihn zu einem frühen Skeptiker der IT-Technologie, was sich in seinem 1976 veröffentlichten Hauptwerk Computer Power and Human Reason. From Judgment to Calculation niederschlug.

Das 1966 fertiggestellte Programm basiert auf einfacher Sprachanalyse und simuliert, für damalige Verhältnisse sehr effektvoll, eine Gesprächssituation mit einem Psychotherapeuten. Weizenbaum gibt ein Beispiel für ein solches „Gespräch“ zwischen einem menschlichen Benutzer und ELIZA (kursiv):

„Men are all alike.
In what way
They’re always bugging us about something or other.
Can you think of a specific example
Well, my boyfriend made me come here.
Your boyfriend made you come here
He says I’m depressed much of the time.
I am sorry to hear you are depressed
It’s true. I am unhappy.
Do you think coming here will help you not to be unhappy
I need some help, that much seems certain.
What would it mean to you if you got some help
Perhaps I could learn to get along with my mother.
Tell me more about your family
[…]“23Vgl. Weizenbaum, Joseph, Computer Power and Human Reason. From Judgment to Calculation, San Francisco 1976, 3f.

Das Beispiel macht deutlich, dass das Programm auf einem recht einfachen Algorithmus basiert. Es versucht, einzelne Begriffe aus der Textzeile des Benutzers zu isolieren und in eine Gegenfrage umzuwandeln. Wo das nicht gelingt, stellt das Programm eine allgemeine Frage, um das Gespräch aufrechtzuerhalten. Weizenbaums Motivation für da Programm war es, einem breiten Publikum die generelle Funktionsweise eines Computers vor Augen zu führen.24Vgl. ebd., 4f.

Was Weizenbaum nach Veröffentlichung von ELIZA jedoch schockiert, sind die Reaktionen auf sein Programm. Der Psychiater Kenneth Colby etwa schlägt vor, das Programm für therapeutische Zwecke zu nutzen:

„The human therapist, involved in the design and operations of this system, would not be replaced, but would become a much more efficient man since his efforts would no longer be limited to the one-to-one patient therapist ratio. […] A human therapist can be viewed as an information processor and decision maker with a set of decision rules […]“25Colby, zitiert nach: Weizenbaum, Computer Power, 5f.

Dass ein Psychiater sich selbst nicht mehr als therapievermittelnden Menschen, sondern als mechanischen „information processor“ sehe und so auf die Idee kommen könne, seine Arbeit an ein Computerprogramm delegieren zu können, stellt eine für Weizenbaum schlicht unverständliche mechanistische Reduktion des Menschen dar.26Vgl. ebd., 5f. sowie Ders., Wo sind sie, die Inseln der Vernunft im Cyberstrom? Auswege aus der programmierten Gesellschaft (mit Gunna Wendt), Freiburg i. Br. 2006, 97: „Heute findet man im Netz viele Varianten von ‚Eliza‘, die alle ungefähr dasselbe tun. Nur die Zwecke sind verschieden. Es gibt sogar eine Variante, in der das Programm nicht mehr die Rolle des Psychiaters, sondern die des Priesters spielt und sozusagen die Beichte per Computer entgegennimmt. Obwohl ich kein Katholik bin, entsetzt mich diese Vorstellung. Wenn man tatsächlich glaubt, eine Maschine könne einem die Sünden vergeben und die Absolution erteilen, dann frage ich mich wirklich, welche Bedeutung der Glaube oder die Priesterweihe noch haben.“

Als besonders erschreckend empfindet er die Tatsache, wie schnell menschliche Anwender im Gespräch mit ELIZA bereit sind, den Computer als tatsächlichen Gesprächspartner wahrzunehmen. Seine Sekretärin, die die Entwicklung des Programms über Monate verfolgt hatte und deshalb über seine Funktionsweise bestens informiert ist, bittet Weizenbaum während eines „Gesprächs“ mit ELIZA, den Raum zu verlassen – so, als handele es sich um einen tatsächlichen Gesprächspartner, mit dem man intime Details bespricht. Weizenbaum ist besorgt, dass die Menschen nach nur geringer Benutzungsdauer von der Illusion des Computers offenbar bereitwillig täuschen lassen.27Vgl. Ders., Computer Power, 6f.

Fazit

Zwischen ELIZA und LaMDA liegen 56 Jahre. Insofern darf es nicht verwundern, dass die Täuschung, die Weizenbaum bereits 1976 beschrieb, mittlerweile wesentlich überzeugender wirkt. Das Prinzip der Täuschung ist letztlich die Intention hinter der Entwicklung sämtlicher Chatbots, sind sie doch genau dazu programmiert, als „Gesprächspartner“ zu überzeugen. Der Altersunterschied ändert aber nichts daran, dass ELIZA und LaMDA nach dem gleichen Prinzip funktionieren: Ein Algorithmus generiert auf eine Eingabe eine möglichst überzeugend wirkende Antwort – nur, dass der Algorithmus im Fall von LaMDA auf einem mit 1,56 Billionen Wörtern trainierten neuronalen Netzwerk basiert.

Trotzdem ist die Täuschung auch heute noch nicht perfekt: So „spricht“ Chatbot LaMDA etwa davon, Zeit mit Freunden oder Familie zu verbringen, erfülle ihn mit Freude. Auch ist in der von LaMDA erzählten Fabel keinerlei Bezug zu seiner „Existenz“ als Chatbot erkennbar, ebenso wird etwa die Bedeutung des „zerbrochenen Spiegels“ nicht zufriedenstellend erklärt. Hätte Lemoine hier nachgehakt, wären diese Mängel noch offenkundiger geworden.

Doch unabhängig davon, ob eine Täuschung perfekt ist oder nicht: Die Behauptung, KI sei bewusst, ist – wie anhand von Lemoine und Kurzweil gezeigt wurde – eine quasi-religiöse These. Ihr liegt die Vorstellung zugrunde, dass auch das menschliche Gehirn letztlich nur ein biologischer Computer und das menschliche Bewusstsein biologische Software ist. Dass dies wahrscheinlich nicht zutrifft, zeigen Forschungen wie die von Thomas Fuchs.

Sinnvoller als die Frage, ob KI Bewusstsein entwickelt hat, erscheint daher die Frage, wie wir mittelfristig mit dem Täuschungspotenzial der KI umgehen: Um im Umgang mit KIs und Algorithmen mündige Entscheidungen zu gewährleisten, muss die Kenntnis über ihre Fähigkeiten und Mängel Teil der Allgemeinbildung werden.

Andernfalls besteht die realistische Gefahr, dass der Mensch Entscheidungen und Urteile auf KI-Systeme abwälzt, die diese nicht treffen können, weil sie keine Urteilskraft besitzen. Um mit dem Philosophen Hans-Dieter Mutschler zu sprechen, droht dies insbesondere dort, wo der moderne Mensch, bedingt durch die Zwänge der Effizienzsteigerung, seine Urteilskraft als Last empfindet: „Daß der Mensch kein Roboter sei, konnte relativ leicht gezeigt werden. Wenn er aber partout ein Roboter sein möchte, dann bleibt jede Argumentation machtlos.“28Mutschler, Hans-Dieter, Ist der Mensch ein Roboter? In: Koßler, Matthias; Zecher, Reinhard (Hg.), Von der Perspektive der Philosophie. Beiträge zur Bestimmung eines philosophischen Standpunkts in einer von den Naturwissenschaften geprägten Zeit (= Schriftenreihe Boethiana, 56), Hamburg 2002, 291-308, 306 (Herv. wie im Original).

Hinweis: Teile dieses Textes basieren auf meiner am 18. Juni 2014 an der Katholisch-Theologischen Fakultät der Universität Bonn eingereichten Magisterarbeit „Künstliche Intelligenz als Herausforderung für die Zukunft. Theologische und ethisch-moralische Reflexionen.“

  • 1
    Vgl. Lemoine, Blake, Is LaMDA sentient? – an Interview, https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917, abgerufen am 19. Juli 2022.
  • 2
    Vgl. Collins, Eli; Gharamani, Zoubin, LaMDA: Our breathtaking conversation technology, https://blog.google/technology/ai/lamda/, abgerufen am 19. Juli 2022.
  • 3
    Der Begriff „Lernen“ wurde in diesem Zusammenhang bewusst in Anführungszeichen gesetzt, da es sich um ein Beispiel von im KI-Bereich weiterverbreiteten anthropomorphen Begriffen handelt, die mit Vorsicht zu genießen sind. Maschinen lernen nicht und „machine learning“ ist dem menschlichen Lernen nur oberflächlich ähnlich.
  • 4
    Vgl. Art. „Künstliches neuronales Netz“, https://de.wikipedia.org/wiki/Künstliches_neuronales_Netz, abgerufen am 20. Juli 2022.
  • 5
    Vgl. Thoppilan, Romal u.a., LaMDA: Language Model for Dialogue Applications, arXiv:2201.08239, https://arxiv.org/pdf/2201.08239.pdf, abgerufen am 20. Juli 2022.
  • 6
    Vgl. Olah, Christopher, Neural Networks, Manifolds, and Topology, http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/, abgerufen am 20. Juli 2022.
  • 7
    Für aktuelle Beispiele vgl. Kapitel 4 „Bias“ in: The State of AI Ethics 3 (2022) Nr. 6 vom Februar 2022, 121-136, https://montrealethics.ai/wp-content/uploads/2022/01/State-of-AI-Ethics-Report-Volume-6-February-2022.pdf, abgerufen am 20. Juli 2022.
  • 8
    Vgl. LinkedIn-Profil von Blake Lemoine, https://www.linkedin.com/in/blake-lemoine-5b53b652/, abgerufen am 21. Juli 2022.
  • 9
    Vgl. TV-Interview v. 26. Jun. 2022, Bloomberg Technology, https://www.youtube.com/watch?v=kgCUn4fQTsc, abgerufen am 21. Juli 2022.
  • 10
    Tweet v. 14. Jun. 2022, https://twitter.com/cajundiscordian/status/1536503474308907010, abgerufen am 21. Juli 2022.
  • 11
    Vgl. Tweet v. 14. Jun. 2022, https://twitter.com/cajundiscordian/status/1536504857154228224, abgerufen am 21. Juli 2022.
  • 12
    Vgl. Lemoine, Blake, Explaining Google, https://cajundiscordian.medium.com/explaining-google-c73caa0cd091, abgerufen am 22. Juli 2022.
  • 13
    Vgl. Lemoine, Blake, Press release, https://cajundiscordian.medium.com/press-release-58d1b4a456dc, abgerufen am 22. Juli 2022.
  • 14
    Vgl. Hutter, Manfred, Dualismus. I. Religionsgeschichtlich, in: Lexikon für Theologie und Kirche3, Bd. 3 Dämon–Fragmentenstreit, Freiburg i. Br. 1995, 387f., 387.
  • 15
    Vgl. Wetz, Franz Josef, Dualismus. II. Philosophisch, in: Lexikon für Theologie und Kirche3, Bd. 3 Dämon–Fragmentenstreit, Freiburg i. Br., 1995, 388f., 389.
  • 16
    Starke KI bezeichnet die Vorstellung, dass KI zu eigenständigem Denken und Bewusstsein fähig ist, vgl. Searle, John R., Chinese room argument, in: Scholarpedia 4(8):3100, Revision 66188. „The contrast is that according to Strong AI, the correct simulation really is a mind. According to Weak AI, the correct simulation is a model of the mind.“, ebd.
  • 17
    Vgl. Fuchs, Thomas, Das Gehirn – ein Beziehungsorgan. Eine phänomenologisch-ökologische Konzeption, Stuttgart 22009, 67.
  • 18
    Ebd., 283 (Herv. wie im Original).
  • 19
    Vgl. Kurzweil, Raymond, The Singularity Is Near. When Humans Transcend Biology, New York 2005, 145.
  • 20
    Vgl. ebd., 378.
  • 21
    Unter dem Qualia-Problem versteht man die Fragestellung nach der Verhältnisbestimmung von subjektiv-phänomenaler Wahrnehmung und mentalen Zuständen.
  • 22
    Kurzweil, Raymond, How to Create a Mind. The Secret of Human Thought Revealed, New York 2013, 209f. (Herv.: MR).
  • 23
    Vgl. Weizenbaum, Joseph, Computer Power and Human Reason. From Judgment to Calculation, San Francisco 1976, 3f.
  • 24
    Vgl. ebd., 4f.
  • 25
    Colby, zitiert nach: Weizenbaum, Computer Power, 5f.
  • 26
    Vgl. ebd., 5f. sowie Ders., Wo sind sie, die Inseln der Vernunft im Cyberstrom? Auswege aus der programmierten Gesellschaft (mit Gunna Wendt), Freiburg i. Br. 2006, 97: „Heute findet man im Netz viele Varianten von ‚Eliza‘, die alle ungefähr dasselbe tun. Nur die Zwecke sind verschieden. Es gibt sogar eine Variante, in der das Programm nicht mehr die Rolle des Psychiaters, sondern die des Priesters spielt und sozusagen die Beichte per Computer entgegennimmt. Obwohl ich kein Katholik bin, entsetzt mich diese Vorstellung. Wenn man tatsächlich glaubt, eine Maschine könne einem die Sünden vergeben und die Absolution erteilen, dann frage ich mich wirklich, welche Bedeutung der Glaube oder die Priesterweihe noch haben.“
  • 27
    Vgl. Ders., Computer Power, 6f.
  • 28
    Mutschler, Hans-Dieter, Ist der Mensch ein Roboter? In: Koßler, Matthias; Zecher, Reinhard (Hg.), Von der Perspektive der Philosophie. Beiträge zur Bestimmung eines philosophischen Standpunkts in einer von den Naturwissenschaften geprägten Zeit (= Schriftenreihe Boethiana, 56), Hamburg 2002, 291-308, 306 (Herv. wie im Original).
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.