Wenn Robtor zur Pflegefachkraft und zum digitalen Seelentröster werden, dann hat die christliche Theologie doch sicherlich etwas dazu zu sagen? Kürzlich tagte zu eben dieser Frage im Vatikan die Jahreshauptversammlung der Päpstlichen Akademie des Lebens. Unter dem Titel „Roboethik. Menschen, Maschinen und Gesundheit“ berieten Kirchenvertreter und internationale Wissenschaftler darüber, welche Auswirkungen der Einsatz künstlicher Intelligenzen auf das menschliche Leben habe und welche ethischen Fragen damit verknüpft sind. „WortMelder“ hat bei Prof. Josef Römelt, Moraltheologe an der Universität Erfurt, nachgefragt: „Was halten Sie von Künstlicher Intelligenz und Robotik in der Kranken- und Altenpflege?“
„Künstliche Intelligenz und Robotertechnik sind Erfindungen des Menschen, Errungenschaften seiner wissenschaftlichen Forschung und technischen Entwicklung. Die ethischen Fragen berühren nicht, wie manchmal unterstellt wird, die Gefahr menschlicher Selbstüberschätzung. Also dass in der Entfaltung digitaler Medien und technologischer Produkte eine geistige und praktische Macht entfaltet wird, die das menschliche Maß sprengt: zum Beispiel bei der Bereitstellung von Computern oder Mikrochips, die aufgrund ihrer Rechenleistung, Lösung komplexester logischer und mathematischer Probleme, Verarbeitung von gigantischen Datenmengen mit unvorstellbarer Schnelligkeit und Genauigkeit die Vorstellung von Geist, Bewusstsein und Spiritualität ins Unendliche steigern könnten; oder dass Roboter selbst den Menschen überflügeln und die Herrschaft bis in die gesellschaftlichen und politischen (auch: militärischen?) Zentren hinein übernehmen würden. Solche Ängste gehören in die Welt von Science-Fiction.
Moralische Fragen aber tauchen dort auf, wo die menschliche Lebenswelt durch den Einfluss digitaler Medien und umfangreicher Unterstützung mithilfe von Automaten, Apparaten usw. belastet wird. Die eigentlichen ethischen Konflikte betreffen dabei die Digitalisierung und Robotorik strukturell. Denn die Eigengesetzlichkeit menschlicher Verarbeitungsprozesse in ihren kommunikativen, emotionalen und holistischen Aspekten unterscheidet sich vom digitalen System und der Welt der Roboter. Die Tiefenschicht menschlicher Verarbeitung kann vom digitalen System letztlich nicht erreicht werden. Und Automaten begegnen dem Menschen letztlich doch nur imitiert menschlich.
So ist es beispielsweise unrealistisch, die Beurteilung einer medizinischen Behandlung ganz einer Auswertung durch den Computer anzuvertrauen. Auch erfordern die Bildungsprozesse an der Universität ein gewisses Maß an direkter Begegnung zwischen Lehrenden und Lernenden, gerade um dem gegenwärtigen Ideal einer Lehre als Begleitung von individuellen Lernprozessen der Studierenden entsprechen zu können. Und noch ein Beispiel aus Medizin und Behindertenrecht: Ein Betreuungsrichter darf für einen Menschen keine Betreuung verfügen, wenn er diesen nicht unmittelbar aufgesucht und gesehen hat. Sicherlich ist es auch eine Frage der persönlichen Präferenzen, sich in der Pflege oder in anderen Lebenszusammenhängen Serviceleistungen eher durch Maschinen bereitstellen zu lassen. Manch einer sucht die Anonymität als Schutz gerade der eigenen Intimität, wenn er sich zum Beispiel via Internet beraten oder mithilfe starker Rehahilfen aus dem Bett heben lässt. Ich lasse mir beispielsweise aufgrund meiner eigenen Behinderung die Zeit nachts auf Sprachbefehl durch mein Handy ansagen. Und ich freue mich über den natürlichen Klang, mit dem die mittlerweile perfekt imitierte menschliche Stimme mir diese Anfrage aus dem Gerät zuverlässig und freundlich beantwortet. Und doch gibt es Situationen, in denen das unmittelbare Gespräch mit einem Gegenüber, in dessen Augen ich schauen kann, und die sensible Berührung durch einen Anderen unverzichtbar sind.
Was die Frage etwa nach der informationellen Selbstbestimmung so sensibel macht, ist nicht nur die Gefahr eines möglichen Missbrauchs durch großräumige totalitäre Interessen in Politik und Gesellschaft: Die ganz alltägliche Selbststeuerung wird durch die digitale Systematik beeinflusst. Im hilfreichen Sinne erscheint das als Eröffnung von Optionen, etwa wenn mir durch personalisierte Werbung gezielte Angebote gemacht werden, die mich auf neue Ideen bringen. Aber all dies wird zu einer massiven Belastung, wenn ich nicht mehr bestimmen kann, welche kognitiven und emotionalen Ressourcen mit ‚ungebetenen Gästen‘ besetzt werden, die in verschiedene Lebensräume der Alltagswirklichkeit eindringen können: Im Letzten lässt sich nicht überschauen, wer welche Daten erhält, wozu er sie nutzt und wann er sie für mein Leben relevant ins Spiel bringt. Ethisch unakzeptabel wird dies, wenn die Privatsphäre unter dem Druck der Weitergabe von Daten und Informationen verschwindet. Eine Ahnung davon vermitteln Internetforen und Kampagnen, die aufgrund der Schnelligkeit, Anonymität und Unmittelbarkeit normale Mechanismen von respektvoller Distanz und Zurückhaltung zum Verschwinden bringen. Ähnlich wie etwa bei Massenphänomenen das Vermummungsverbot strukturell menschliches Antlitz präsent halten soll, so bedarf es auch in der Gestaltung digitaler Systeme geradezu instinkthafter Mechanismen (Ethikkodices, Supervision von Foren und Plattformen, Aufhebung von Anonymität), damit hier humane Grenzen nicht einfach en passant überschritten werden.“