„Künstliche Intelligenz“ erweist sich als „Datenbasierte Systeme“
Warum der Begriff „Künstliche Intelligenz“ in die Irre führt und durch den Begriff „Datenbasierte Systeme“ ersetzt werden sollte, erläutert Prof. Dr. Peter G. Kirchschläger. Seinen ausführlichen Beitrag zum Thema „Künstliche Intelligenz – Kritik und konkrete Lösungen aus ethischer Perspektive“ lesen Sie im Compliance-Berater 6/2024, der am 23. Mai erscheint.
Menschliche Intelligenz: KI kann ihr maximal ähnlich werden, aber nie gleich sein.
Künstliche Intelligenz kann umschrieben werden als „machines that are able to ‚think‘ in a human like manner and possess higher intellectual abilities and professional skills, including the capability of correcting themselves from their own mistake“. Im Zuge einer ethischen Kritik von sogenannter „KI“ wird deutlich, dass sogenannte „Künstliche Intelligenz“ weder die Summe menschlichen Wissens umfasst, noch ist sie objektiv, fair und neutral. Sie stützt sich nur auf gewisse Daten, die zunehmend auch diejenigen Daten beinhalten, die sogenannte „generative KI“ (wie z. B. ChatGPT) selbst generieren. Dies hat zur Folge, dass sogenannte „KI“ immer dümmer wird.
Ebenso zeigt sich, dass sich einige Bereiche der menschlichen Intelligenz der technologiebasierten Erreichbarkeit entziehen und sogenannte „Künstliche Intelligenz“ der menschlichen Intelligenz in gewissen Intelligenzbereichen maximal ähnlich werden, aber nie gleich sein kann: Soziale und emotionale Intelligenz können Systeme nur simulieren, weil ihnen echte Emotionalität und Gefühle fehlen. Beispielsweise können Menschen einem Pflegeroboter antrainieren, dass er weinen soll, wenn die Patientinnen und Patienten in Tränen ausbrechen. Dies wird der Pflegeroboter perfekt umsetzen. Niemand würde aber behaupten wollen, dass der Pflegeroboter authentisch Empathie für die Patientinnen und Patienten aufbringt, sondern er setzt einfach das um, was man ihm aufgetragen hat. Dem genau gleichen Pflegeroboter könnte auch beigebracht werden, dass er den Patientinnen und Patienten eine Ohrfeige geben soll, wenn sie zu weinen beginnen. Auch diesen Befehl würde die Maschine ohne Zögern und ohne Mitgefühl befolgen.
Gleichzeitig wird an diesem Beispiel auch erkennbar, dass von Maschinen ebenso keine Moralfähigkeit ausgesagt werden kann, weil ihnen die dazu notwendige Freiheit fehlt, die bei einer menschlichen Pflegefachperson die Verantwortung bewirken würde, dass sie sich dem Auftrag der Ohrfeige widersetzt. Technologien werden von Menschen entworfen, entwickelt und gebaut, das heißt, sie werden heteronom produziert. Daher wird auch das Erlernen von ethischen Prinzipien und Normen von Menschen geleitet. In letzter Konsequenz werden Maschinen immer von außen gesteuert werden. Bildlich gesprochen: Maschinen – auch selbstlernende Maschinen – werden auf eine erste Codezeile zurückgehen, die immer vom Menschen stammt. Moralfähigkeit umfasst das Potential der Menschen, für sich selbst ethische Prinzipien und Normen als verbindlich zu erkennen und zu setzen, um dann ihr Entscheiden und Handeln danach auszurichten. Zu Letzterem sind auch Maschinen fähig, sie müssen sich aber dabei auf ihnen von Menschen vorgegebene Regeln stützen, anstatt diese Regeln selbst zu schreiben.
Die Maschine erkennt nicht selbst und setzt sich nicht selbst ethische Prinzipien und Normen, anhand derer sie zwischen ethisch richtig und falsch, gut und schlecht entscheiden kann – nur wir können der Maschine dies beibringen. Sie kann sich auch nicht selbst die ethische Qualität von Regeln erschließen.
Einem selbstfahrenden Auto kann man zum Beispiel beibringen, dass es keine Menschen überfahren soll. Man könnte demselben Fahrzeug aber auch lehren: Ich möchte möglichst schnell von A nach B, also überfahre alles, was dir in den Weg kommt. Das Fahrzeug würde genau gleich konsequent diese Regel anwenden und entsprechend handeln, ohne dass es merkt, dass das etwas ethisch Falsches ist. In anderen Worten: Maschinen würden auch nichtethische oder unethische Regeln in gleichem Maße respektieren. Aufgrund dieser fehlenden Freiheit kann man Maschinen auch keine Verantwortung übertragen. Beispielsweise macht es keinen Sinn, ein selbstfahrendes Auto für einen Unfall mit Stromentzug oder mit Verschrottung zu bestrafen; Menschen müssen die Verantwortung übernehmen.
Aus diesen Überlegungen ist der Begriff „Künstliche Intelligenz“ zu vermeiden, weil er Erwartungen schürt, welche die Technologien nicht einhalten können. Zudem löst er Übervertrauen in die Maschinen aus, was sich aus ethischer Sicht als problematisch erweist, da so Aufgaben an Technologien übertragen werden, die in menschlichen Händen bleiben sollten, weil ihnen Maschinen nicht gewachsen sind. Diese Innovationen sind adäquater als datenbasierte Systeme zu bezeichnen. Denn ihre Leistung fußt auf ihrem Vermögen, große Datenmengen zu generieren, zu sammeln, auszuwerten und darauf basierend zu handeln.
Prof. Dr. Peter G. Kirchschläger
Prof. Dr. Peter G. Kirchschläger ist seit 2017 Ordinarius für Theologische Ethik und Leiter des Instituts für Sozialethik ISE an der Theologischen Fakultät der Universität Luzern. Er ist zudem beratender Experte in ethischen Fragen für nationale und internationale Organisationen und Institutionen.