Wednesday, 17 February 2021

ES GEHT UM IHR LEBEN! Warum wir eine neue Gesellschaft brauchen

TEIL 2 [1]

Wenn wir davon sprechen, dass die Wirtschaft nicht nachhaltig ist, dann bedeutet es vor allem das: es geht um Leben und Tod. Besonders in dieser Corona-erfüllten Zeit macht sich Endzeitstimmung breit. Vielerorts liest man von Triage. Krankenhaus-Betten werden knapp. Es könne nicht jeder gerettet werden, heißt es. Für manche bedeutet das ein Todesurteil.

... Würden jetzt also Algorithmen entscheiden, wann unsere Zeit abgelaufen war, um das Problem der „Überbevölkerung“ zu lösen? Schwebte ein Damoklesschwert über uns, ohne dass wir es ahnten?

Um das herauszufinden fühlte ich mehreren Leuten auf den Zahn. Leuten, die es wissen mussten...

Am 13. August 2017, nach einer Diskussionsveranstaltung, schrieb ich eine zusammenfassende Email:

„Lieber ...

ich habe es am 11.8. aus berufenem Munde verifiziert bekommen:

[Ein wissenschaftlicher Referent einer Bundesbehörde] „bestaetigte die Zahl, dass durch die mangelnde Nachhaltigkeit 3 Milliarden Menschen fruehzeitig eines unnatuerlichen Todes sterben koennten.“

[Ein Professor, der die Bundesregierung beriet, merkte an] „die gesetzlichen und ethischen Vorgaben koenne man in Zukunft nicht mehr vollstaendig erfuellen. Er meinte, die kommenden Herausforderungen liessen sich nicht ohne Zwangsmassnahmen loesen. ...“

Solche Äußerungen musste man leider ernst nehmen!

Am 18. Januar 2019 interviewte mich ein wissenschaftlicher Mitarbeiter für die Studie einer Umweltbehörde. Als ich erwähnte, dass es bei den Nachhaltigkeits-Herausforderungen für viele Menschen um Leben und Tod ginge, rief er aus: „Ja, genau!“ Mit einer so emotionalen Reaktion hatte ich gar nicht gerechnet.

Wie konnten es Politik und Wirtschaft nur so schrecklich vermasselt haben? Die vielleicht schockierendste Begegnung hatte ich mit einem der weltweit führenden Roboterexperten und Roboterethiker. In dem Treffen am 5. Mai 2018 ging es um die Zukunftsprobleme der Menschheit und wie mit ihnen umzugehen sei. Der Professor versuchte mich mit seinem umfangreichen Wissen zu beeindrucken, bis ich sagte, ich hätte leider wenig Zeit. Er erklärte mir das Prinzip der Triage,[2] das im Krieg und in Katastrophensituationen angewandt wird. Demzufolge werden die Opfer in drei Klassen eingeteilt: in die hoffnungslosen Fälle, um die man sich mangels Ressourcen nicht kümmern konnte, die Fälle, die dringende Hilfe brauchten und bei denen Rettungsmassnahmen erfolgversprechend waren, und eine dritte Klasse, die an die Reihe kommt, wenn die priorisierten Fälle versorgt waren und Kapazität für sie verfügbar wurde. Unter Umständen bekamen Letztere also Hilfe, aber möglicherweise auch nicht, doch vielleicht würden sie auch ohne Hilfe überleben.

Diese Kriegs- und Effizienzlogik wurde nun offenbar der Planung unserer zukünftigen Zivil-Gesellschaft zugrunde gelegt! Es wurden also Leute ausgesiebt, für die es keine Hoffnung geben würde. Andere wurden „auserwählt“ und bekamen eine Vorzugsbehandlung. Und dann gab es noch jene, die sich vielleicht noch irgendwie am Leben halten könnten.

Diese Hölle sollte die Zukunft unserer Gesellschaft sein? Das nannte sich Fortschritt? Nein, Danke! Ich protestierte und sagte, dass ich es nicht in Ordnung fände, dass man uns über die Lage nicht informierte. Denn so könnten wir auch keine Maßnahmen treffen, uns selber und uns gegenseitig zu helfen. Wenn man etwa in die dritte Gruppe einsortiert würde, in der man irgendwann vielleicht Hilfe bekäme oder auch nicht, sei es nicht in Ordnung zu sagen, es werde schon alles gut werden. Denn in ein paar Stunden könne es dafür zu spät sein. Wenn man hingegen gesagt bekäme, dass wahrscheinlich keine Hilfe zu erwarten sei, so könne man Freunde anrufen, und diese könnten vielleicht zur Hilfe kommen oder zumindest Hilfe organisieren. Und damit helfen, die Krise zu bewältigen – durch gegenseitige Unterstützung und Solidarität.

Das Meeting endete mit dem Ergebnis, dass dann wohl eine „Disruption for Good“ nötig sei. Das heutige Wirtschaftssystem, das unsere Gesellschaft mit Karacho auf den Abgrund zutrieb, müsste durch etwas Besseres ersetzt werden, das die Überlebenschancen der Menschen erhöhte. Es sei nicht genug, einen Teil der Menschen einfach auszusortieren. Eine solche militärische Logik sei einer modernen Gesellschaft nicht angemessen. Es sei Aufgabe der Politik, Krisensituationen zu verhindern und, soweit das nicht möglich war, sie so gut wie möglich abzumildern.

Kurz zuvor hatten Kollegen und ich ein Paper zum „Trolley Problem“[3] geschrieben, das zufällig durch eine Diskussion während unseres Team Retreats angestoßen wurde. Der Beitrag trug den Titel „An Extension of Asimov’s Robotic Laws“.[4]

Wer Science Fiction Fan ist, weiss, dass der Physiker Isaac Asimov schon über Roboter philosophiert und im Kriegsjahr 1942 (!) mehrere Grundprinzipien für den Umgang von Robotern mit Menschen aufgestellt hatte:

1.    Ein Roboter darf die Menschheit nicht schädigen oder durch         Passivität zulassen, dass die Menschheit zu Schaden kommt. 

2.    Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das vorige Gesetz.

3.    Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zu den vorhergehenden Gesetzen.

4.    Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht den ersten drei Gesetzen widerspricht.


Mit Blick auf das ethische Dilemma des „Trolley Problems“ sollten diesen Regeln zwei weitere hinzugefügt werden, argumentierten wir:
 

5.    Menschen und Roboter müssen alles dafür tun, damit das Auftreten von ethischen Dilemmas minimiert wird. 

6.    Falls die Regeln (1)-(4) zu ethischen Dilemmas führen und diese nicht vermieden werden können, wie es Regel (5) verlangt, dann sollten allen Menschen die gleichen Chancen zukommen und Entscheidungen erforderlichenfalls nach einem Zufallsprinzip getroffen werden.


Natürlich wollten wir damit nicht sagen, dass Menschen jetzt nach dem Zufallsprinzip getötet werden sollten. Vielmehr sollten die Chancen und Risiken fair auf alle verteilt werden, damit wir alle einen Anreiz hätten, das Auftreten ethischer Dilemmas und das Sterberisiko zu reduzieren. Falls es Künstlicher Intelligenz (KI) nicht möglich wäre, alle Wünsche gleichzeitig zu erfüllen, falls also trotz aller Bemühungen, Regeln (1)-(5) zu erfüllen, ethische Dilemmas bzw. Ressourcen- oder Zielkonflikte unvermeidbar wären, dann sollte das Prinzip der Chancengleichheit angewandt werden. Sie können sich das vielleicht so vorstellen, dass wir im Leben 100 Joker hätten, die wir dann zum Einsatz bringen könnten, wenn uns Hilfe besonders wichtig wäre.

Der oben formulierte Ansatz verbietet es jedenfalls, Umstände zu schaffen – oder durch Untätigkeit entstehen zu lassen – die ein ethisches Dilemma erzeugen. Denn solche Umstände könnten dann – im Sinne des „geringeren Übels“ – Dinge legitim erscheinen lassen, die unter normalen Umständen absolut verboten sind. Ließe man ethische Dilemmas als Entschuldigung zu, so könnte am Ende auch die Beseitigung von Demokratie und Menschenrechten als geringeres Übel gelten. Es könnte sogar unter extremen Umständen legitim erscheinen, Zivilpersonen gezielt zu töten, obwohl das eigentlich streng verboten ist – selbst nach dem Kriegsrecht!

Unpeace

Als ich unser Paper zum Trolley-Problem dem früheren CEO eines weithin bekannten IT-Unternehmens aus dem Silicon Valley schickte, antwortete er mir am 15. Oktober 2017:
 

"Hi Dirk.

Thanks so much for this article – I now refer to your extensions as Helbing’s 5th & 6th Law of Robotics (see slide #11 of attached presentation)! ...“


Er war bereits in Rente, aber damit beschäftigt, die Welt zu verbessern – im Rahmen seines Engagements für eine Nicht-Government Organisation in Genf.

Er hatte mir schon einmal am 28. Juni 2016 geschrieben:

"Hi Dirk – I hope you are well, and I look forward to catching up with you sometime over this summer.  

The area of driverless cars and connected traffic is surely of great interest [to] you, and is getting much media coverage. I will send you what comes on my radar screen, assuming that you are not capturing it all, beginning with the following article: 

http://news.mit.edu/2016/driverless-cars-safety-issues-0623

Best personal regards..."


Noch am gleichen Tag, um 20:01, antwortete ich:

"... thanks for the interesting article. 

I know the debate and I believe there is more behind it. 

It seems there are people who want to make it legal to kill people under certain circumstances, or to allow AI-based systems to kill people. 

Why? Because they say there is an overpopulation problem on this planet, and it would have to be "fixed". The "fixes" apparently discussed include WW3, induced diseases and euthanasia. 

Current law would not allow this, not even in a situation of emergency.

According to law:

1) everyone is equal, so your own life should not be counted higher compared to everyone else's life 

2) it is not allowed to kill a person to save n>1 lives.  

There are attempts to change this legal setting, and it would allow certain elites to survive a humanitarian crises while other people would be killed. This is exactly, what is not acceptable. The leaders (captains, e.g.) have to bear the greatest risks to save everyone else, otherwise moral hazards are created. 

However, the law also demands that actions must be taken to maximize *chances* of survival, i.e. to minimize death probabilities/rates. 

How to do this is described in my last contributions at ResearchGate, entitled "Why we need democracy 2.0 and capitalism 2.0 to survive"[5] and "Society 4.0: Upgrading society, but how?".[6]

Seine Antwort ließ einige Tage auf sich warten. Ich machte mir Sorgen. Hatte ich womöglich übertrieben, gar etwas Falsches gesagt? Lag ich mit meiner Analyse völlig daneben? Doch dann, am 6. Juli 2016 erhielt ich endlich seine Antwort. Sie lautete:

"Hi Dirk - that's a good analysis..."

Nun verstehen Sie vielleicht auch, warum globale Initiativen wie jene, die autonome Waffen einschließlich Killerroboter stoppen wollten, bisher keinen politischen Erfolg hatten, obwohl sie von über 4500 KI- und Robotik-Experten unterschrieben wurde, und von zehntausenden von Ärzten.[7] Zwischenzeitlich machten Videos zum Thema „Slaughterbots“ die Runde. Das sind Drohnen, die per Gesichtserkennung Personen identifizieren und diese mit einer kleinen Sprengladung töten können.[8] Technisch ist das heute schon möglich. Das Militär kann bereits ganze Drohnenschwärme entfesseln.[9] Da gibt es praktisch kein Entrinnen mehr. Ob das gegen die Bevölkerung je zum Einsatz kommen wird, ist natürlich eine andere Frage. Ich vermute, eher nicht. Denn es gibt inzwischen wesentlich subtilere Methoden, um Menschen zu töten. Doch wie weit sind wir noch von Szenarien entfernt, in denen Algorithmen Todesurteile vollstrecken? Drohte uns ein digitaler Holocaust?

Für jene, die es immer noch nicht glauben können, was sich da hinter dem Rücken der ahnungslosen Öffentlichkeit zusammenbraut, füge ich noch eine weitere Begebenheit an. Im Herbst 2018 traf ich mich mit zwei Wissenschaftlern. Das Gespräch drehte sich schließlich um die Konferenz „Emerging Trends Reshaping the International Security“.[10] Die Konzepte, die dort vorgeschlagen wurden, erschütterten uns alle.

Einer der Redner referierte über einen neuen gesellschaftlichen Zustand: nicht Krieg, nicht Frieden, sondern „Unpeace“ – frei übersetzt also „Unfrieden“. Die Idee schien zu sein, dass man verlustreiche Kriege zwischen Staaten, wie sie früher stattgefunden hatten, wenn Ressourcen knapp wurden, vermeiden wollte – eben mit der neuen Regierungsform des „Unfriedens“. Dann würden Konflikte nicht zwischen Staaten ausgetragen, sondern Probleme wie die Überbevölkerung wären lokal zu lösen. Das erinnerte zweifelsohne an George Orwell’s „1984“, wo Kriege nicht dazu geführt wurden, um sie zu gewinnen, sondern um die Menschen einzuschüchtern und einen permanenten Notstand zu rechtfertigen.

Zurück zu meinen Notizen. Diese sprechen von einem „hybriden Krieg“ (der verschiedene kriegerische Methoden miteinander kombinieren und sicher auch einen Informationskrieg gegen die eigene Bevölkerung mit einschließen würde – also Propaganda und Desinformation[11]). Doch es wäre naiv zu glauben, dass es dabei bliebe. Meine Notizen beinhalten nämlich auch das Zitat: „Maybe we should kill just a few people.“ Das Töten von Menschen war also explizit vorgesehen – außerhalb des Kriegszustands! War nun zu erwarten, dass die Gesellschaft von jenen Menschen „befreit“ wurde, die „nicht systemrelevant“ waren? Dann könnte man mit Fug und Recht von einem mörderischen Plan sprechen!

ENDE VON TEIL 2

[1] Fortsetzung von http://futurict.blogspot.com/2021/01/es-geht-um-ihr-leben-warum-wir-eine.html

[2] https://de.wikipedia.org/wiki/Triage

[3] https://de.wikipedia.org/wiki/Trolley-Problem

[4]https://www.researchgate.net/publication/319205931_An_Extension_of_Asimov%27s_Robotics_Laws

[5] https://www.researchgate.net/publication/303684254

[6] https://www.researchgate.net/publication/304352735

[7] https://futureoflife.org/open-letter-autonomous-weapons/

[8] https://www.youtube.com/watch?v=6Ipkq-BASaM

[9] https://www.youtube.com/watch?v=CGAk5gRD-t0

[10] https://www.zeit.de/kultur/2017-09/kuenstliche-intelligenz-algorithmus-spam-autonomes-fahren

[11] https://www.militairespectator.nl/thema/operaties/artikel/behavioural-change-core-warfighting

Tuesday, 2 February 2021

Who is to blame: The fish or the farmer?

In many places of the world, our environment and climate are in big trouble. Who could deny this fact? It has existential implications, indeed. But who is to blame?

Often, we hear that humans are too selfish. They would be a serious threat for the future of our planet. “Indeed, humans are enemies of humanity”, we are told.[1] But is this really true, or is it propaganda?

For the sake of illustration, let us assume that you are a farmer and that you own all kinds of land, meadows and forests, creeks and lakes. And let us also assume that you fertilise your meadows, perhaps a little too much....

Then, the following will probably happen: Fertilizer will eventually end up in the lake. Hence, the algae will grow like crazy, and the fish population will explode. At least for some time. Eventually, however, the lake will run out of oxygen. The fish will swim in droves at the surface – belly up.[2] So, many of them will die! This is well-known.

Figure 1: Fish dying of oxygen depletion[3] (Image credit: Oregon State University).

Now, the crucial question is: Who is to blame for this disaster? The fish or the farmer? Of course, the farmer! No one would ever think of accusing the fish for multiplying. It was the farmer who over-fertilised the lake. The fatal outcome was entirely foreseeable. And there are applicable laws to punish such behavior.[4]

Figure 2: Development of the population size as a function of the carrying capacity[5] (Image credit: Mississippi State University).

When it comes to humanity, however, we find that it is not the "farmers" (representing business [wo]men) who are being blamed, but the "fish" (standing for the people). Strictly speaking, the "farmers" often accuse the "fish". This is, of course, absurd!

            
Figure 3: Projected developments for the world according to the Limits to Growth[6] (Image credit: The Oildrum). 
 
It is wrong to scapegoat us, the ordinary people, who largely do what we are told, for the world's crises. For example, we are blamed for buying cheap plane tickets – not the airlines that sell those tickets! And not the advertising companies that hammered these products into our brains – using psychological tricks that are close to psychological abuse.

We have already consumed less during the financial crisis. But the economy learned to manipulate us more effectively through personalised information. They didn't shy away from using “mind control methods.[7] They hacked our brains to boost consumption and the economy. And now we are being blamed for this? Seriously? 

Figure 4: Carrying capacity of the world over time[8] (Source: M. Wackernagel et al.[9]).

Why shouldn't those be punished for environmental crimes, who have done the same to humanity as the farmers above have done to the fish?! Mainly for profit, they have over-fertilised the planet, by boosting a carbon-based economy. It was entirely predictable that this would cause over-population (see Fig. 52). Without the irresponsible global expansion of the oil-based economy, such "population explosion" would never have happened

Figure 5: Correlation between energy consumption and world population10 (Image credit: Penn State University).

The predicted sustainability crisis is nothing else than a crisis of the oil-based economy – and the petrodollar, in a sense. In the early 1970s, when the Limits to Growth report appeared, the ecological footprint of humanity was still in balance with the planet (see Fig. 4). But afterwards, energy consumption around the world was irresponsibly expanded – even per capita![10] This is reckless!

 Figure 6: Energy consumption per person over time10 (Image credit: Penn State University).


END OF PART 1



Friday, 29 January 2021

ES GEHT UM IHR LEBEN! Warum wir eine neue Gesellschaft brauchen

Wenn wir davon sprechen, dass die Wirtschaft nicht nachhaltig ist, dann bedeutet es vor allem das: es geht um Leben und Tod. Besonders in dieser Corona-erfüllten Zeit macht sich Endzeitstimmung breit. Vielerorts liest man von Triage. Krankenhaus-Betten werden knapp. Es könne nicht jeder gerettet werden, heißt es. Für manche bedeutet das ein Todesurteil. Auch andere fundamentale demokratische Grundrechte wanken. Zunehmend wird klar: wir brauchen ein neues System. Eine Kreislaufwirtschaft, eine Sharing Economy, und ein transparentes, partizipatives Informationsökosystem.   

Bei den Diskussionen über die Zukunftsherausforderungen der Menschheit hatte ich gelegentlich mit einem englischen Professor zu tun, der irgendwann von einem Kollegen ins Spiel gebracht worden war. Eines Tages erzählte er mir, dass er für die Regierung arbeitete. Einst war seine Dienststelle nur einen Steinwurf vom Buckingham Palast entfernt. Man musste seine Äußerungen ernst nehmen. Sie konnten Aufschluss über politische Erwägungen und Strategien geben.

Eines Tages, es war der 13. März 2016, machte er mich auf ein Buch mit dem Titel “Learning to Die in the Anthropocene: Reflections on the End of a Civilization” von Roy Scranton aufmerksam.[1] Das war der Moment, an dem ich aufwachte! Ich verstand, dass wir ein Problem hatten. Ein RIESIGES Problem! Ein Problem, das manche Leute als “Truthahn-Illusion”[2] bezeichnen: die Illusion, dass alles doch ganz gut ist, wie es ist. Jeden Tag ist man versorgt. Bis schließlich Thanksgiving[3] vor der Tür steht – und alles ist vorbei…

Auch wir bekommen jeden Tag gesagt, es sei doch alles gut. Ja, es würde doch vieles sogar besser werden! Aber gilt das auch für das ganze 21. Jahrhundert? Oder gilt das nur bis zum “Tag X”, an dem das Welt-System überfordert ist, die Menschheit zu versorgen?

Ich schaute auf das Buch. Im Zeitalter des “Anthropozäns,” wo das Geschehen auf unserem “überbevölkerten” Planeten zunehmend von Menschen geprägt wird, drohten wichtige Ressourcen knapp zu werden. Wasser oder Erdöl zum Beispiel. In der Folge könnten viele Menschen sterben. Sehr viele. Fragt sich nur, wie viele? Und wie würden sie sterben? Wen würde es treffen?

Worte wie “mangelnde Nachhaltigkeit”, “Klimawandel” oder “Überbevölkerung” konnten uns keine Vorstellung davon geben, was uns vielleicht bald erwarten würde: Wirtschaftskrisen, Hungerkatastrophen, Seuchen, und Kriege… Das hörte sich mehr nach apokalyptischen Reitern an als nach besserer Zukunft!

Warum redete nur keiner davon? War da nichts dran? Oder war es wirklich so schlimm? So schlimm, dass man nicht darüber sprechen konnte? So schlimm, dass keiner daran denken und lieber noch die verbleibende Zeit so gut wie möglich auskosten wollte – bis zum “Tag X”? Ich konnte es gar nicht glauben. Die Wirtschaft schien noch lange nicht am Ende. Doch es gab auch Hinweise, dass es große Probleme gab. Und die häuften sich – leider! War der Tag X vielleicht schon gekommen – mit der Covid-19 Pandemie?

Im Grunde hätten wir schon Anfang der 70er Jahre wissen können, was uns bevorstand. Doch wir haben es verdrängt. 1972 machte ein Buch mit dem Titel “Limits to Growth”[4] Furore. Angesichts der begrenzten Ressourcen des Planeten sagte es mittels eines einfachen Computermodells voraus, dass uns im 21. Jahrhundert unweigerlich ein Zusammenbruch der Wirtschaft erwarten würde – und ein Massensterben. Etwa ein Drittel der Menschheit, mehr oder weniger, würde vorzeitig sterben. Eine schreckliche Vorstellung!

Konnte das wirklich sein? Das fragte sich auch US-Präsident Jimmy Carter, der am 23. Mai 1977 eine detaillierte Studie in Auftrag gab, an der hochkarätige Wissenschaftler arbeiteten. Ihr Name hieß: “Global 2000”.[5] Am 24. Juli 1980 wurde der Bericht der Öffentlichkeit vorgestellt. Er war beachtliche 2000 Seiten stark. 1.5 Millionen Exemplare wurden verkauft. Ein Bestseller also. Er stand auch bei mir im Regal als ich zur Schule ging. Ich hatte ihn von meinem eigenen Taschengeld gekauft – und die 150-seitige Zusammenfassung komplett gelesen. Die Schlussfolgerung war: Ja, wir hatten ein Problem – und zwar ein gewaltiges! Denn da stand:

 “If present trends continue, the world in 2000 will be more crowded, and more vulnerable to disruption than the world we live in now. Serious stresses involving population, resources, and environment are clearly visible ahead. Despite greater material output, the world’s people will be poorer in many ways than they are today.“

Wahrlich keine guten Aussichten!

Sie können sich vorstellen, dass sich da diverse Think Tanks Gedanken machten, wie das Problem am besten zu lösen sei, und das Militär ohnehin. Der Dritte Weltkrieg war keine wirkliche Option. Er barg unabsehbare Risiken für die Menschheit und den Planeten. Was konnte man also tun? Würde man bestimmte Menschen töten, um andere zu retten?

Genau diesen Eindruck bekam ich – aber erst allmählich. Denn ich konnte es lange nicht glauben. Anfang Oktober 2015 wurde mir ein wissenschaftliches Paper zugesandt. “AAAI 2016 senior member track assignment”, das musste etwas Wichtiges sein. “AAAI” bedeutet “Association for the Advancement of Artificial Intelligence”. Offenbar lag der Gesellschaft für Künstliche Intelligenz daran, meine Einschätzung zu einer Sache erfahren.

Es ging um das sogenannte “Trolley Problem”.[6] Bei diesem ethischen Dilemma werden Sie vor die Frage gestellt: Angenommen, Sie sind Weichenwärter an einem Bahngleis und es rast ein Zug heran. Auf dem freigegebenen Gleis befinden sich 5 Bauarbeiter, die überfahren würden, wenn Sie die Weiche nicht umstellen. Wenn Sie es aber tun, dann stirbt jemand anders, beispielsweise ein Kind, das gerade auf dem anderen Gleis spielt. Was werden Sie tun? Oder was sollte man tun?

Egal, was man macht, es ist falsch. Ein Dilemma eben! Doch was war das kleinere Übel?

Das Gedankenexperiment ist so angelegt, dass es plausibel zu sein scheint, besser einen Menschen zu opfern als fünf Menschen sterben zu lassen. Doch es führt zu einer moralischen Entgleisung, da suggeriert wird, dass es unausweichlich zum Tod eines Menschen kommen müsse.

Die Diskussion um das Trolley Problem wurde im Zusammenhang mit selbstfahrenden Autos zu einem Megathema. Am Ende diskutierte fast jeder darüber. Sie konnten es in “Nature”[7] und allen großen Zeitungen lesen. Da autonome Fahrzeuge mit Kameras ausgestattet sind, die Personen erkennen können, stellten sich ganz neue Fragen. Etwa diese: Wenn zu entscheiden ist zwischen einer alten Frau und einem Kind, wer soll sterben? Wenn zu entscheiden ist zwischen einem 60-jährigen Milliardär und einer Studentin, wer soll sterben? Wenn zu entscheiden ist zwischen einem armen Gesunden und einem reichen Kranken, wer soll sterben? Wenn zu entscheiden ist zwischen einer Angestellten und einem arbeitslosen Lottogewinner, wer soll sterben? Wenn zu entscheiden ist zwischen Robin Hood und einem Priester, wer soll sterben? Sehen Sie, da kommt man schnell in Teufels Küche!

Das Gedankenexperiment ist eine Falle. Es führt auf Abwege, während die Position des Bundesverfassungsgerichts völlig klar ist: es dürfen keine Menschen getötet werden. Doch das Militär ließ nicht locker. Was, wenn ein Flugzeug auf ein Hochhaus zuraste? Durfte – oder musste – es nicht abgeschossen werden, damit sich eine Tragödie wie am 11. 9. 2001 in New York nicht wiederholen konnte? Man wollte Rechtssicherheit, keine Gewissensentscheidung. Und das wurde schließlich im Fernsehen verhandelt...

Am 17. Oktober 2018 war „Das Fernsehereignis“ angekündigt.[8] Ein Film auf der Basis eines Theaterstücks des Schriftstellers und Juristen Ferdinand von Schirach. Der Titel: „Terror“.[9] Die Story: Ein Flugzeug, das von mutmaßlichen Terroristen gesteuert wird, welches durch einen herbeigeführten Absturz ein vollbesetztes Fußballstadion in ein Blutbad verwandeln wird. So vermutet man. Abfangjäger steigen auf. Ein Pilot wartet auf den Befehl, das Flugzeug abzuschießen. Doch dieser bleibt aus. Am Ende schießt er das entführte Flugzeug ab, um den befürchteten Terroranschlag abzuwenden. Die Insassen des Flugzeugs sterben.

In der Folge wird der Pilot vor Gericht gestellt. Soll er freigesprochen werden oder ist er schuldig? Das ist die Frage. Und zwar an die Zuschauer. Gewissermaßen an Sie!

Es ergeht schließlich ein Urteil „im Namen des Fernsehvolkes“.[10] Zeitgleich in Deutschland, in Österreich und in der Schweiz! Denn in allen drei Ländern wurde das Fernseh-Tribunal parallel ausgestrahlt. Am kommenden Tag fragte Thomas Fischer in der ZEIT unter dem Titel „’Terror’ – Ferdinand von Schirach auf allen Kanälen!“:[11] „Darf das Fernsehen elementare Rechtsfragen so lange verdrehen, bis ein Film daraus wird?“

Doch die Zuschauer hatten entschieden: für Freispruch! Obwohl der Pilot klar gegen die Verfassung verstoßen hatte – und gegen den Befehl des Vorgesetzten. Und obwohl er die Insassen des Flugzeugs getötet hatte. Wie konnte man einen so gut aussehenden, intelligenten und tapferen Soldaten, der Traumschwiegersohn der halben Nation, ins Gefängnis stecken?!

Erst hinterher wurde klar, in welche Falle die Zuschauer gelockt worden waren. In der anschließenden Diskussion forderte ein Bundeswehrgeneral sogar, das Grundgesetz müsse geändert werden. Doch Rechtsanwalt Gerhard Baum, ehemals Bundesinnenminister, hielt dagegen.[12] Sonst wäre die Diskussion womöglich noch völlig entgleist, mit unabsehbaren Folgen. Für das Grundgesetz und für uns alle. 

Wieso veranstaltete man im deutschsprachigen Raum ein Fernsehgericht „im Namen des Volkes“? Ich kann mich nicht daran erinnern, dass es so etwas zuvor gegeben hat. So beschlich mich eine ungeheure Ahnung. Hatten man sich eine Art Zustimmung geholt für etwas, das uns in Zukunft selber betreffen würde? Hatten die Fernsehzuschauer ihr eigenes Urteil gesprochen, indem sie akzeptiert hatten, dass unter gewissen Umständen, auch in Friedenszeiten, Menschen getötet werden durften?

Denn die Situation würde sich völlig ändern, wenn dieselben Regeln, die gerade zum Retten von Menschen bei unvermeidlichen Unfällen von autonomen Fahrzeugen entwickelt wurden, irgendwann auf Sachlagen angewandt würden, in denen die Ressourcen der Welt nicht mehr für alle reichten. Situationen also, wie sie für unseren Planeten vorausgesagt waren. Dann würde aus dem KI-basierten Rettungsalgorithmus nämlich ein Killeralgorithmus.[13] Im Unterschied zu heute würde die Ressourcenknappheit nicht nur Länder der Dritten Welt treffen, was schon schlimm genug war, sondern alle Länder.

Tatsächlich entdeckte ich irgendwann Prognosen, wie groß die Bevölkerung verschiedener Länder in Zukunft einmal sein wird, basierend auf ihrer Wirtschaftsleistung, ihrer „Tragfähigkeit“. Die Zahlen waren schockierend. Musste man das ernst nehmen? Oder war das unseriös? Womöglich Panikmache?

Das Damoklesschwert

Im März 2016 hatten wir bei uns eine Professorin zu Gast. Sie arbeitet im Gebiet „Künstliche Intelligenz“. Ich merkte recht schnell, dass sie ein Thema bedrückte: „KI-basierte Euthanasie“. Offenbar hatten Journalisten vor Jahren mehrfach ihre Meinung zu diesem Thema in Erfahrung zu bringen versucht.

Ich traute meinen Ohren nicht. Euthanasie? Dann wären wir ja wieder im Faschismus angelangt! Was hatte das zu bedeuten? Hatte man tatsächlich vor, Künstliche Intelligenz über Leben und Tod entscheiden zu lassen?[14] Da wären die verantwortlichen Politiker und Militärs ja fein raus! Sie wären es dann nicht gewesen, die die Menschen zum Tode verurteilt hätten. Vermeintlich zumindest. Die Verantwortung hätte dann ja eine Künstliche Intelligenz, die autonom über Leben und Tod entscheiden würde. Im Krankenhausalltag würde sie ganz diskret und unauffällig ihr unheilvolles Werk vollbringen – und hier und da ein paar Lebensjahre abziehen...[15]

Ich bat die Professorin, nach Material zum Thema „KI und Euthanasie“ zu suchen. Gab es irgendwelche Zeitungsartikel oder Publikationen? Irgendwelche Evidenz? Es dauerte eine Weile, doch dann wurden wir fündig. Zunächst konnten wir zwei Forschungsarbeiten zum Thema aufspüren. Die eine stammte aus dem Jahr 2005 und trug den Titel: „Een computermodel voor het ondersteunen van euthanasiebeslissingen“ („Ein Computermodell zur Unterstützung von Sterbehilfeentscheidungen“).[16] Die andere stammte aus dem Jahr 2010: „Ethische modellen voor euthanasiebeslissingen“ („Ethische Modelle für Sterbehilfeentscheidungen“).[17]

Ende 2017 dann konnte man über Software lesen, die über Leben und Tod entscheidet.[18] Big Data würde nun verwendet, um Kosten im Gesundheitssystem zu sparen, etwa um zu entscheiden, wer noch eine teure Operation bezahlt bekommt und wer nicht. Begann nun also ein kommerzielles Softwaretool über Leben und Tod von Patienten zu entscheiden, nicht mehr der Arzt? War das mit der Menschenwürde und dem hippokratischen Eid der Ärzte noch vereinbar? Und wie verlässlich war das Ganze überhaupt? Die Frage war berechtigt! Denn der Algorithmus, der die eigene Lebenszeit voraussagte und verwaltete, konnte sich erheblich irren.[19] Dann hatte man womöglich doppelt Pech!

Mit Gerechtigkeit hatte das alles nichts zu tun. Vielleicht noch nicht einmal mit Wissenschaftlichkeit. Es war einfach nur ein neues Businessmodell. Ein Business mit dem Tod. Wo man Geld sparte, indem man Leute einfach etwas früher sterben ließ. Das hätte man freilich auch ohne Big Data haben können. Aber die Ärzte wollten das nicht. Für solche Entscheidungen wollten sie nicht verantwortlich sein. Waren sie „zu menschlich“? Fehlte Ihnen die Argumente für die Verweigerung von Behandlungen? Lieferten nun Algorithmen die Argumente?

Sicher ist jedenfalls, dass Algorithmen suboptimales, defensives Entscheiden fördern. Schließlich kann die Verantwortung stets auf den Algorithmus geschoben werden. Würden also bald Algorithmen entscheiden, wann unsere Zeit abgelaufen war, um das Problem der „Überbevölkerung“ zu lösen? Schwebte ein Damoklesschwert über uns, ohne dass wir es ahnten? ENDE VON TEIL 1



[14] Tatsächlich arbeitet man am “Turing Triage Test”, d.h. KI-Systemen, die Triage-Entscheidungen ununterscheidbar von Menschen treffen können (R. Sparrow, The Turing Triage Test, Ethics and Information Systems 6, 203-213 (2004) https://link.springer.com/article/10.1007/s10676-004-6491-2). Die Firma “Babylon Health” scheint solche KI-Lösungen bereits kommerziell anzubieten (Entscheiden am Ende Algorithmen über Leben und Tod? DIE WELT, 24.12.2020, S. 14). Bereits am 23. April 2020 war im “MIT Technology Review” zu lesen: “Doctors are using AI to triage covid-19 patients. The tools may be here to stay” (https://www.technologyreview.com/2020/04/23/1000410/ai-triage-covid-19-patients-health-care/)

[15] Was Sie wissen müssen, wenn Dr. Big-Data bald über Leben und Tod entscheidet: „Wir sollten Maschinen nicht blind vertrauen“, https://deutsch.medscape.com/artikelansicht/4906802 (der vorherige Titel schien übrigens zu sein: „Todes-Algorithmen“ diktieren Therapie und Kosten); Der Todesalgorithmus: Computer berechnet Lebenserwartung

https://daserste.ndr.de/panorama/archiv/2017/Der-Todesalgorithmus-Computer-berechnet-Lebenserwartung,todesalgorithmus112.html (man lese insbesondere die Abschnitte „Todesurteil per Mausklick“ und „Berechnungen, die über Leben und Tod entscheiden“); Künstliche Intelligenz: Der Todesalgorithmus

https://www.zeit.de/kultur/2017-09/kuenstliche-intelligenz-algorithmus-spam-autonomes-fahren