Im Zeit-Interview mit Maschinenethiker Oliver Bendel wird die Frage diskutiert, ob sich Maschinen moralisch verhalten können. Die Antwort ist ja: Als Beispiel wird der Microsoft-Chatbot, der als selbstlernendes System innerhalb kurzer Zeit rechtsradikale und frauenfeindliche Äußerungen machte, angeführt. Dieser Roboter hat sich offensichtlich unmoralisch verhalten.
Oliver Bendel empfiehlt in diesem Fall, das Chat-System so zu beschränken, dass keine unmoralischen Aussagen mehr gemacht werden können. Ich frage mich allerdings, ob es möglich ist, jeden unmoralischen Gedankengang vorauszudenken und im Vorfeld zu verbieten bzw. zu verhindern. Verhindern wir, dass das System rechtsradikale Aussagen macht, greift es dann vielleicht linksextreme Propaganda auf und verbreitet sie weiter.
Letztendlich ist es aber richtig, dass künstliche intelligente Systeme so konstruiert werden, dass Menschen deren Verhalten auch in moralischer Hinsicht – ggf. auch korrigierend – beeinflussen können. Faktisch gibt der Entwickler der Maschine sein moralisches Wertesystem mit.
„Unlösbare Fragen. Lassen wir die Finger davon.“
Insofern verstehe ich nicht, dass Oliver Bendel sich vor kritischen moralischen Entscheidungen drücken möchte. Denn er schlägt vor, Maschinen gar nicht in solche Situationen kommen zu lassen, die moralisch schwer entscheidbar sind. Als Beispiel wird das autonome Fahrzeug genannt, das überlegen muss, ob es bei einem unvermeidlichen Unfall eher die Insassen oder das Kind auf der Straße schonen möchte.
Solche Fragen sind moralisch nicht eindeutig lösbar, daher – so der Maschinenethiker – sollten autonome Fahrzeuge nicht in Innenstädten eingesetzt werden, um solche Situationen gar nicht erst entstehen zu lassen.
Ich denke aber, dass wir uns trotzdem mit der Frage moralischen Verhaltens von Maschinen beschäftigen müssen. Denn wenn die Technik verfügbar und reif sowie wirtschaftlich interessant ist, wird der Wunsch bestehen, sie einzusetzen.
Um dann zu entscheiden, ob der Einsatz aus moralischen Gründen verboten oder eingeschränkt werden soll, muss das potenzielle Verhalten der Maschine bewertet werden. Ein Beispiel ist z.B. der Einsatz von Kampfrobotern. Hier muss die Frage beantwortet werden, auf Basis welchen ethischen Systems der Roboter handelt und was die daraus resultierenden Entscheidungen sind. Diese können dann moralisch bewertet werden.
Die Ethikkommission für autonomes Fahren hat übrigens einen relativ pragmatischen Ansatz gewählt: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) unzulässig.“
Damit beschränkt sich die Abwägung für das intelligente System lediglich auf die Abschätzung des möglichen Personenschadens. Aber auch diese Festlegung verhindert nicht moralischen Interpretationsspielräume: Denn auf welcher Basis wird entschieden, welches Körperteil wichtiger als ein anderes ist?
Originallink aufrufen