LINKS
TEIL 1
Wenn wir davon sprechen, dass die Wirtschaft nicht nachhaltig ist, dann bedeutet es vor allem das: es geht um Leben und Tod. Besonders in dieser Corona-erfüllten Zeit macht sich Endzeitstimmung breit. Vielerorts liest man von Triage. Krankenhaus-Betten werden knapp. Es könne nicht jeder gerettet werden, heißt es. Für manche bedeutet das ein Todesurteil. Auch andere fundamentale demokratische Grundrechte wanken. Zunehmend wird klar: wir brauchen ein neues System. Eine Kreislaufwirtschaft, eine Sharing Economy, und ein transparentes, partizipatives Informationsökosystem.
Bei den
Diskussionen über die Zukunftsherausforderungen der Menschheit hatte ich
gelegentlich mit einem englischen Professor zu tun, der irgendwann von einem
Kollegen ins Spiel gebracht worden war. Eines Tages erzählte er mir, dass er
für die Regierung arbeitete. Einst war seine Dienststelle nur einen Steinwurf
vom Buckingham Palast entfernt. Man musste seine Äußerungen ernst nehmen. Sie
konnten Aufschluss über politische Erwägungen und Strategien geben.
Eines Tages, es
war der 13. März 2016, machte er mich auf ein Buch mit dem Titel “Learning to
Die in the Anthropocene: Reflections on the End of a Civilization” von Roy
Scranton aufmerksam.[1] Das war der Moment, an dem ich aufwachte!
Ich verstand, dass wir ein Problem hatten. Ein RIESIGES Problem! Ein Problem,
das manche Leute als “Truthahn-Illusion”[2] bezeichnen: die Illusion, dass alles doch
ganz gut ist, wie es ist. Jeden Tag ist man versorgt. Bis schließlich
Thanksgiving[3] vor der Tür steht – und alles ist vorbei…
Auch wir bekommen
jeden Tag gesagt, es sei doch alles gut. Ja, es würde doch vieles sogar besser
werden! Aber gilt das auch für das ganze 21. Jahrhundert? Oder gilt das nur bis
zum “Tag X”, an dem das Welt-System überfordert ist, die Menschheit zu
versorgen?
Ich schaute auf
das Buch. Im Zeitalter des “Anthropozäns,” wo das Geschehen auf unserem
“überbevölkerten” Planeten zunehmend von Menschen geprägt wird, drohten
wichtige Ressourcen knapp zu werden. Wasser oder Erdöl zum Beispiel. In der
Folge könnten viele Menschen sterben. Sehr viele. Fragt sich nur, wie viele?
Und wie würden sie sterben? Wen würde es treffen?
Worte wie
“mangelnde Nachhaltigkeit”, “Klimawandel” oder “Überbevölkerung” konnten uns
keine Vorstellung davon geben, was uns vielleicht bald erwarten würde:
Wirtschaftskrisen, Hungerkatastrophen, Seuchen, und Kriege… Das hörte sich mehr
nach apokalyptischen Reitern an als nach besserer Zukunft!
Warum redete nur
keiner davon? War da nichts dran? Oder war es wirklich so schlimm? So schlimm,
dass man nicht darüber sprechen konnte? So schlimm, dass keiner daran denken
und lieber noch die verbleibende Zeit so gut wie möglich auskosten wollte – bis
zum “Tag X”? Ich konnte es gar nicht glauben. Die Wirtschaft schien noch lange
nicht am Ende. Doch es gab auch Hinweise, dass es große Probleme gab. Und die
häuften sich – leider! War der Tag X vielleicht schon gekommen – mit der
Covid-19 Pandemie?
Im Grunde
hätten wir schon Anfang der 70er Jahre wissen können, was uns bevorstand. Doch
wir haben es verdrängt. 1972 machte ein Buch mit dem Titel “Limits to Growth”[4] Furore. Angesichts der begrenzten Ressourcen
des Planeten sagte es mittels eines einfachen Computermodells voraus, dass uns
im 21. Jahrhundert unweigerlich ein Zusammenbruch der Wirtschaft erwarten würde
– und ein Massensterben. Etwa ein Drittel der Menschheit, mehr oder weniger,
würde vorzeitig sterben. Eine schreckliche Vorstellung!
Konnte das wirklich sein? Das fragte sich auch US-Präsident Jimmy Carter, der am 23. Mai 1977 eine detaillierte Studie in Auftrag gab, an der hochkarätige Wissenschaftler arbeiteten. Ihr Name hieß: “Global 2000”.[5] Am 24. Juli 1980 wurde der Bericht der Öffentlichkeit vorgestellt. Er war beachtliche 2000 Seiten stark. 1.5 Millionen Exemplare wurden verkauft. Ein Bestseller also. Er stand auch bei mir im Regal als ich zur Schule ging. Ich hatte ihn von meinem eigenen Taschengeld gekauft – und die 150-seitige Zusammenfassung komplett gelesen. Die Schlussfolgerung war: Ja, wir hatten ein Problem – und zwar ein gewaltiges! Denn da stand:
“If present trends continue, the world in 2000 will be more crowded, and more vulnerable to disruption than the world we live in now. Serious stresses involving population, resources, and environment are clearly visible ahead. Despite greater material output, the world’s people will be poorer in many ways than they are today.“
Wahrlich keine guten Aussichten!
Sie können sich
vorstellen, dass sich da diverse Think Tanks Gedanken machten, wie das Problem
am besten zu lösen sei, und das Militär ohnehin. Der Dritte Weltkrieg war keine
wirkliche Option. Er barg unabsehbare Risiken für die Menschheit und den
Planeten. Was konnte man also tun? Würde man bestimmte Menschen töten, um
andere zu retten?
Genau diesen
Eindruck bekam ich – aber erst allmählich. Denn ich konnte es lange nicht
glauben. Anfang Oktober 2015 wurde mir ein wissenschaftliches Paper zugesandt.
“AAAI 2016 senior member track assignment”, das musste etwas Wichtiges sein.
“AAAI” bedeutet “Association for the Advancement of Artificial Intelligence”.
Offenbar lag der Gesellschaft für Künstliche Intelligenz daran, meine
Einschätzung zu einer Sache erfahren.
Es ging um das
sogenannte “Trolley Problem”.[6] Bei diesem ethischen Dilemma werden Sie
vor die Frage gestellt: Angenommen, Sie sind Weichenwärter an einem Bahngleis
und es rast ein Zug heran. Auf dem freigegebenen Gleis befinden sich 5
Bauarbeiter, die überfahren würden, wenn Sie die Weiche nicht umstellen. Wenn
Sie es aber tun, dann stirbt jemand anders, beispielsweise ein Kind, das gerade
auf dem anderen Gleis spielt. Was werden Sie tun? Oder was sollte man tun?
Egal, was man
macht, es ist falsch. Ein Dilemma eben! Doch was war das kleinere Übel?
Das
Gedankenexperiment ist so angelegt, dass es plausibel zu sein scheint, besser
einen Menschen zu opfern als fünf Menschen sterben zu lassen. Doch es führt zu
einer moralischen Entgleisung, da suggeriert wird, dass es unausweichlich zum
Tod eines Menschen kommen müsse.
Die Diskussion um
das Trolley Problem wurde im Zusammenhang mit selbstfahrenden Autos zu einem
Megathema. Am Ende diskutierte fast jeder darüber. Sie konnten es in “Nature”[7] und allen großen Zeitungen lesen. Da
autonome Fahrzeuge mit Kameras ausgestattet sind, die Personen erkennen können,
stellten sich ganz neue Fragen. Etwa diese: Wenn zu entscheiden ist zwischen
einer alten Frau und einem Kind, wer soll sterben? Wenn zu entscheiden ist
zwischen einem 60-jährigen Milliardär und einer Studentin, wer soll sterben? Wenn
zu entscheiden ist zwischen einem armen Gesunden und einem reichen Kranken, wer
soll sterben? Wenn zu entscheiden ist zwischen einer Angestellten und einem
arbeitslosen Lottogewinner, wer soll sterben? Wenn zu entscheiden ist zwischen
Robin Hood und einem Priester, wer soll sterben? Sehen
Sie, da kommt man schnell in Teufels Küche!
Das
Gedankenexperiment ist eine Falle. Es führt auf Abwege, während die Position
des Bundesverfassungsgerichts völlig klar ist: es dürfen keine Menschen getötet
werden. Doch das Militär ließ nicht locker. Was, wenn ein Flugzeug auf ein
Hochhaus zuraste? Durfte – oder musste – es nicht abgeschossen werden, damit
sich eine Tragödie wie am 11. 9. 2001 in New York nicht wiederholen konnte? Man
wollte Rechtssicherheit, keine Gewissensentscheidung. Und das wurde schließlich
im Fernsehen verhandelt...
Am 17. Oktober 2018 war „Das Fernsehereignis“ angekündigt.[8] Ein Film auf der Basis eines Theaterstücks des Schriftstellers und Juristen Ferdinand von Schirach. Der Titel: „Terror“.[9] Die Story: Ein Flugzeug, das von mutmaßlichen Terroristen gesteuert wird, welches durch einen herbeigeführten Absturz ein vollbesetztes Fußballstadion in ein Blutbad verwandeln wird. So vermutet man. Abfangjäger steigen auf. Ein Pilot wartet auf den Befehl, das Flugzeug abzuschießen. Doch dieser bleibt aus. Am Ende schießt er das entführte Flugzeug ab, um den befürchteten Terroranschlag abzuwenden. Die Insassen des Flugzeugs sterben.
In der Folge wird der Pilot vor Gericht gestellt. Soll er freigesprochen werden oder ist er schuldig? Das ist die Frage. Und zwar an die Zuschauer. Gewissermaßen an Sie!
Es ergeht schließlich ein Urteil „im Namen des Fernsehvolkes“.[10] Zeitgleich in Deutschland, in Österreich und in der Schweiz! Denn in allen drei Ländern wurde das Fernseh-Tribunal parallel ausgestrahlt. Am kommenden Tag fragte Thomas Fischer in der ZEIT unter dem Titel „’Terror’ – Ferdinand von Schirach auf allen Kanälen!“:[11] „Darf das Fernsehen elementare Rechtsfragen so lange verdrehen, bis ein Film daraus wird?“
Doch die Zuschauer hatten entschieden: für Freispruch! Obwohl der Pilot klar gegen die Verfassung verstoßen hatte – und gegen den Befehl des Vorgesetzten. Und obwohl er die Insassen des Flugzeugs getötet hatte. Wie konnte man einen so gut aussehenden, intelligenten und tapferen Soldaten, der Traumschwiegersohn der halben Nation, ins Gefängnis stecken?!
Erst hinterher wurde klar, in welche Falle die Zuschauer gelockt worden waren. In der anschließenden Diskussion forderte ein Bundeswehrgeneral sogar, das Grundgesetz müsse geändert werden. Doch Rechtsanwalt Gerhard Baum, ehemals Bundesinnenminister, hielt dagegen.[12] Sonst wäre die Diskussion womöglich noch völlig entgleist, mit unabsehbaren Folgen. Für das Grundgesetz und für uns alle.
Wieso veranstaltete man im deutschsprachigen Raum ein Fernsehgericht „im Namen des Volkes“? Ich kann mich nicht daran erinnern, dass es so etwas zuvor gegeben hat. So beschlich mich eine ungeheure Ahnung. Hatten man sich eine Art Zustimmung geholt für etwas, das uns in Zukunft selber betreffen würde? Hatten die Fernsehzuschauer ihr eigenes Urteil gesprochen, indem sie akzeptiert hatten, dass unter gewissen Umständen, auch in Friedenszeiten, Menschen getötet werden durften?
Denn die Situation würde sich völlig ändern, wenn dieselben Regeln, die gerade zum Retten von Menschen bei unvermeidlichen Unfällen von autonomen Fahrzeugen entwickelt wurden, irgendwann auf Sachlagen angewandt würden, in denen die Ressourcen der Welt nicht mehr für alle reichten. Situationen also, wie sie für unseren Planeten vorausgesagt waren. Dann würde aus dem KI-basierten Rettungsalgorithmus nämlich ein Killeralgorithmus.[13] Im Unterschied zu heute würde die Ressourcenknappheit nicht nur Länder der Dritten Welt treffen, was schon schlimm genug war, sondern alle Länder.
Tatsächlich entdeckte ich irgendwann Prognosen, wie groß die Bevölkerung verschiedener Länder in Zukunft einmal sein wird, basierend auf ihrer Wirtschaftsleistung, ihrer „Tragfähigkeit“. Die Zahlen waren schockierend. Musste man das ernst nehmen? Oder war das unseriös? Womöglich Panikmache?
Das Damoklesschwert
Im März 2016 hatten wir bei uns eine Professorin zu Gast. Sie arbeitet im Gebiet „Künstliche Intelligenz“. Ich merkte recht schnell, dass sie ein Thema bedrückte: „KI-basierte Euthanasie“. Offenbar hatten Journalisten vor Jahren mehrfach ihre Meinung zu diesem Thema in Erfahrung zu bringen versucht.
Ich traute meinen Ohren nicht. Euthanasie? Dann wären wir ja wieder im Faschismus angelangt! Was hatte das zu bedeuten? Hatte man tatsächlich vor, Künstliche Intelligenz über Leben und Tod entscheiden zu lassen?[14] Da wären die verantwortlichen Politiker und Militärs ja fein raus! Sie wären es dann nicht gewesen, die die Menschen zum Tode verurteilt hätten. Vermeintlich zumindest. Die Verantwortung hätte dann ja eine Künstliche Intelligenz, die autonom über Leben und Tod entscheiden würde. Im Krankenhausalltag würde sie ganz diskret und unauffällig ihr unheilvolles Werk vollbringen – und hier und da ein paar Lebensjahre abziehen...[15]
Ich bat die Professorin, nach Material zum Thema „KI und Euthanasie“ zu suchen. Gab es irgendwelche Zeitungsartikel oder Publikationen? Irgendwelche Evidenz? Es dauerte eine Weile, doch dann wurden wir fündig. Zunächst konnten wir zwei Forschungsarbeiten zum Thema aufspüren. Die eine stammte aus dem Jahr 2005 und trug den Titel: „Een computermodel voor het ondersteunen van euthanasiebeslissingen“ („Ein Computermodell zur Unterstützung von Sterbehilfeentscheidungen“).[16] Die andere stammte aus dem Jahr 2010: „Ethische modellen voor euthanasiebeslissingen“ („Ethische Modelle für Sterbehilfeentscheidungen“).[17]
Ende 2017 dann konnte man über Software lesen, die über Leben und Tod entscheidet.[18] Big Data würde nun verwendet, um Kosten im Gesundheitssystem zu sparen, etwa um zu entscheiden, wer noch eine teure Operation bezahlt bekommt und wer nicht. Begann nun also ein kommerzielles Softwaretool über Leben und Tod von Patienten zu entscheiden, nicht mehr der Arzt? War das mit der Menschenwürde und dem hippokratischen Eid der Ärzte noch vereinbar? Und wie verlässlich war das Ganze überhaupt? Die Frage war berechtigt! Denn der Algorithmus, der die eigene Lebenszeit voraussagte und verwaltete, konnte sich erheblich irren.[19] Dann hatte man womöglich doppelt Pech!
Mit Gerechtigkeit hatte das alles nichts zu tun. Vielleicht noch nicht einmal mit Wissenschaftlichkeit. Es war einfach nur ein neues Businessmodell. Ein Business mit dem Tod. Wo man Geld sparte, indem man Leute einfach etwas früher sterben ließ. Das hätte man freilich auch ohne Big Data haben können. Aber die Ärzte wollten das nicht. Für solche Entscheidungen wollten sie nicht verantwortlich sein. Waren sie „zu menschlich“? Fehlte Ihnen die Argumente für die Verweigerung von Behandlungen? Lieferten nun Algorithmen die Argumente?
Sicher ist jedenfalls, dass Algorithmen suboptimales, defensives Entscheiden fördern. Schließlich kann die Verantwortung stets auf den Algorithmus geschoben werden. Würden also bald Algorithmen entscheiden, wann unsere Zeit abgelaufen war, um das Problem der „Überbevölkerung“ zu lösen? Schwebte ein Damoklesschwert über uns, ohne dass wir es ahnten? ENDE VON TEIL 1
[7] The Moral Machine experiment: https://www.nature.com/articles/s41586-018-0637-6
[8] https://www.daserste.de/specials/ueber-uns/terror-von-schirach-interaktives-fernsehereignis-hart-aber-fair-100.html
[9] https://de.wikipedia.org/wiki/Terror_–_Ihr_Urteil
https://www.daserste.de/unterhaltung/film/terror-ihr-urteil/index.html
[11] https://www.zeit.de/gesellschaft/zeitgeschehen/2016-10/ard-fernsehen-terror-ferdinand-von-schirach-fischer-im-recht
[14] Tatsächlich arbeitet man am “Turing Triage Test”, d.h. KI-Systemen, die Triage-Entscheidungen ununterscheidbar von Menschen treffen können (R. Sparrow, The Turing Triage Test, Ethics and Information Systems 6, 203-213 (2004) https://link.springer.com/article/10.1007/s10676-004-6491-2). Die Firma “Babylon Health” scheint solche KI-Lösungen bereits kommerziell anzubieten (Entscheiden am Ende Algorithmen über Leben und Tod? DIE WELT, 24.12.2020, S. 14). Bereits am 23. April 2020 war im “MIT Technology Review” zu lesen: “Doctors are using AI to triage covid-19 patients. The tools may be here to stay” (https://www.technologyreview.com/2020/04/23/1000410/ai-triage-covid-19-patients-health-care/)
[15] Was Sie wissen müssen, wenn Dr. Big-Data bald über Leben und Tod entscheidet: „Wir sollten Maschinen nicht blind vertrauen“, https://deutsch.medscape.com/artikelansicht/4906802 (der vorherige Titel schien übrigens zu sein: „Todes-Algorithmen“ diktieren Therapie und Kosten); Der Todesalgorithmus: Computer berechnet Lebenserwartung
https://daserste.ndr.de/panorama/archiv/2017/Der-Todesalgorithmus-Computer-berechnet-Lebenserwartung,todesalgorithmus112.html (man lese insbesondere die Abschnitte „Todesurteil per Mausklick“ und „Berechnungen, die über Leben und Tod entscheiden“); Künstliche Intelligenz: Der Todesalgorithmus
https://www.zeit.de/kultur/2017-09/kuenstliche-intelligenz-algorithmus-spam-autonomes-fahren
[16] https://www.boekwinkeltjes.nl/b/153342874/Een-computermodel-voor-het-ondersteunen/
https://www.bol.com/be/f/computermodel-voor-ondersteunen-van-euthanasiebeslissingen/37129233/
https://books.google.de/books/about/Een_computermodel_voor_het_ondersteunen.html?id=eXqX0Ls4wGQC
[18]https://web.archive.org/web/20171222135350/http://www.zdf.de/nachrichten/heute/software-soll-ueber-leben-und-tod-entscheiden-100.html
No comments:
Post a Comment
Note: only a member of this blog may post a comment.