Wednesday, 17 February 2021

Es geht um Ihr Leben! Warum wir eine neue Gesellschaft brauchen. TEIL 2

LINKS 

Teil 1

Teil 2

Teil 3

Teil 4

TEIL 2 [1]


Wenn wir davon sprechen, dass die Wirtschaft nicht nachhaltig ist, dann bedeutet es vor allem das: es geht um Leben und Tod. Besonders in dieser Corona-erfüllten Zeit macht sich Endzeitstimmung breit. Vielerorts liest man von Triage. Krankenhaus-Betten werden knapp. Es könne nicht jeder gerettet werden, heißt es. Für manche bedeutet das ein Todesurteil.

... Würden jetzt also Algorithmen entscheiden, wann unsere Zeit abgelaufen war, um das Problem der „Überbevölkerung“ zu lösen? Schwebte ein Damoklesschwert über uns, ohne dass wir es ahnten?

Um das herauszufinden fühlte ich mehreren Leuten auf den Zahn. Leuten, die es wissen mussten...

Am 13. August 2017, nach einer Diskussionsveranstaltung, schrieb ich eine zusammenfassende Email:

„Lieber ...

ich habe es am 11.8. aus berufenem Munde verifiziert bekommen:

[Ein wissenschaftlicher Referent einer Bundesbehörde] „bestaetigte die Zahl, dass durch die mangelnde Nachhaltigkeit 3 Milliarden Menschen fruehzeitig eines unnatuerlichen Todes sterben koennten.“

[Ein Professor, der die Bundesregierung beriet, merkte an] „die gesetzlichen und ethischen Vorgaben koenne man in Zukunft nicht mehr vollstaendig erfuellen. Er meinte, die kommenden Herausforderungen liessen sich nicht ohne Zwangsmassnahmen loesen. ...“

Solche Äußerungen musste man leider ernst nehmen!

Am 18. Januar 2019 interviewte mich ein wissenschaftlicher Mitarbeiter für die Studie einer Umweltbehörde. Als ich erwähnte, dass es bei den Nachhaltigkeits-Herausforderungen für viele Menschen um Leben und Tod ginge, rief er aus: „Ja, genau!“ Mit einer so emotionalen Reaktion hatte ich gar nicht gerechnet.

Wie konnten es Politik und Wirtschaft nur so schrecklich vermasselt haben? Die vielleicht schockierendste Begegnung hatte ich mit einem der weltweit führenden Roboterexperten und Roboterethiker. In dem Treffen am 5. Mai 2018 ging es um die Zukunftsprobleme der Menschheit und wie mit ihnen umzugehen sei. Der Professor versuchte mich mit seinem umfangreichen Wissen zu beeindrucken, bis ich sagte, ich hätte leider wenig Zeit. Er erklärte mir das Prinzip der Triage,[2] das im Krieg und in Katastrophensituationen angewandt wird. Demzufolge werden die Opfer in drei Klassen eingeteilt: in die hoffnungslosen Fälle, um die man sich mangels Ressourcen nicht kümmern konnte, die Fälle, die dringende Hilfe brauchten und bei denen Rettungsmassnahmen erfolgversprechend waren, und eine dritte Klasse, die an die Reihe kommt, wenn die priorisierten Fälle versorgt waren und Kapazität für sie verfügbar wurde. Unter Umständen bekamen Letztere also Hilfe, aber möglicherweise auch nicht, doch vielleicht würden sie auch ohne Hilfe überleben.

Diese Kriegs- und Effizienzlogik wurde nun offenbar der Planung unserer zukünftigen Zivil-Gesellschaft zugrunde gelegt! Es wurden also Leute ausgesiebt, für die es keine Hoffnung geben würde. Andere wurden „auserwählt“ und bekamen eine Vorzugsbehandlung. Und dann gab es noch jene, die sich vielleicht noch irgendwie am Leben halten könnten.

Diese Hölle sollte die Zukunft unserer Gesellschaft sein? Das nannte sich Fortschritt? Nein, Danke! Ich protestierte und sagte, dass ich es nicht in Ordnung fände, dass man uns über die Lage nicht informierte. Denn so könnten wir auch keine Maßnahmen treffen, uns selber und uns gegenseitig zu helfen. Wenn man etwa in die dritte Gruppe einsortiert würde, in der man irgendwann vielleicht Hilfe bekäme oder auch nicht, sei es nicht in Ordnung zu sagen, es werde schon alles gut werden. Denn in ein paar Stunden könne es dafür zu spät sein. Wenn man hingegen gesagt bekäme, dass wahrscheinlich keine Hilfe zu erwarten sei, so könne man Freunde anrufen, und diese könnten vielleicht zur Hilfe kommen oder zumindest Hilfe organisieren. Und damit helfen, die Krise zu bewältigen – durch gegenseitige Unterstützung und Solidarität.

Das Meeting endete mit dem Ergebnis, dass dann wohl eine „Disruption for Good“ nötig sei. Das heutige Wirtschaftssystem, das unsere Gesellschaft mit Karacho auf den Abgrund zutrieb, müsste durch etwas Besseres ersetzt werden, das die Überlebenschancen der Menschen erhöhte. Es sei nicht genug, einen Teil der Menschen einfach auszusortieren. Eine solche militärische Logik sei einer modernen Gesellschaft nicht angemessen. Es sei Aufgabe der Politik, Krisensituationen zu verhindern und, soweit das nicht möglich war, sie so gut wie möglich abzumildern.

Kurz zuvor hatten Kollegen und ich ein Paper zum „Trolley Problem“[3] geschrieben, das zufällig durch eine Diskussion während unseres Team Retreats angestoßen wurde. Der Beitrag trug den Titel „An Extension of Asimov’s Robotic Laws“.[4]

Wer Science Fiction Fan ist, weiss, dass der Physiker Isaac Asimov schon über Roboter philosophiert und im Kriegsjahr 1942 (!) mehrere Grundprinzipien für den Umgang von Robotern mit Menschen aufgestellt hatte:

1.    Ein Roboter darf die Menschheit nicht schädigen oder durch         Passivität zulassen, dass die Menschheit zu Schaden kommt. 

2.    Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das vorige Gesetz.

3.    Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zu den vorhergehenden Gesetzen.

4.    Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht den ersten drei Gesetzen widerspricht.


Mit Blick auf das ethische Dilemma des „Trolley Problems“ sollten diesen Regeln zwei weitere hinzugefügt werden, argumentierten wir:
 

5.    Menschen und Roboter müssen alles dafür tun, damit das Auftreten von ethischen Dilemmas minimiert wird. 

6.    Falls die Regeln (1)-(4) zu ethischen Dilemmas führen und diese nicht vermieden werden können, wie es Regel (5) verlangt, dann sollten allen Menschen die gleichen Chancen zukommen und Entscheidungen erforderlichenfalls nach einem Zufallsprinzip getroffen werden.


Natürlich wollten wir damit nicht sagen, dass Menschen jetzt nach dem Zufallsprinzip getötet werden sollten. Vielmehr sollten die Chancen und Risiken fair auf alle verteilt werden, damit wir alle einen Anreiz hätten, das Auftreten ethischer Dilemmas und das Sterberisiko zu reduzieren. Falls es Künstlicher Intelligenz (KI) nicht möglich wäre, alle Wünsche gleichzeitig zu erfüllen, falls also trotz aller Bemühungen, Regeln (1)-(5) zu erfüllen, ethische Dilemmas bzw. Ressourcen- oder Zielkonflikte unvermeidbar wären, dann sollte das Prinzip der Chancengleichheit angewandt werden. Sie können sich das vielleicht so vorstellen, dass wir im Leben 100 Joker hätten, die wir dann zum Einsatz bringen könnten, wenn uns Hilfe besonders wichtig wäre.

Der oben formulierte Ansatz verbietet es jedenfalls, Umstände zu schaffen – oder durch Untätigkeit entstehen zu lassen – die ein ethisches Dilemma erzeugen. Denn solche Umstände könnten dann – im Sinne des „geringeren Übels“ – Dinge legitim erscheinen lassen, die unter normalen Umständen absolut verboten sind. Ließe man ethische Dilemmas als Entschuldigung zu, so könnte am Ende auch die Beseitigung von Demokratie und Menschenrechten als geringeres Übel gelten. Es könnte sogar unter extremen Umständen legitim erscheinen, Zivilpersonen gezielt zu töten, obwohl das eigentlich streng verboten ist – selbst nach dem Kriegsrecht!

Unpeace

Als ich unser Paper zum Trolley-Problem dem früheren CEO eines weithin bekannten IT-Unternehmens aus dem Silicon Valley schickte, antwortete er mir am 15. Oktober 2017:
 

"Hi Dirk.

Thanks so much for this article – I now refer to your extensions as Helbing’s 5th & 6th Law of Robotics (see slide #11 of attached presentation)! ...“


Er war bereits in Rente, aber damit beschäftigt, die Welt zu verbessern – im Rahmen seines Engagements für eine Nicht-Government Organisation in Genf.

Er hatte mir schon einmal am 28. Juni 2016 geschrieben:

"Hi Dirk – I hope you are well, and I look forward to catching up with you sometime over this summer.  

The area of driverless cars and connected traffic is surely of great interest [to] you, and is getting much media coverage. I will send you what comes on my radar screen, assuming that you are not capturing it all, beginning with the following article: 

http://news.mit.edu/2016/driverless-cars-safety-issues-0623

Best personal regards..."


Noch am gleichen Tag, um 20:01, antwortete ich:

"... thanks for the interesting article. 

I know the debate and I believe there is more behind it. 

It seems there are people who want to make it legal to kill people under certain circumstances, or to allow AI-based systems to kill people. 

Why? Because they say there is an overpopulation problem on this planet, and it would have to be "fixed". The "fixes" apparently discussed include WW3, induced diseases and euthanasia. 

Current law would not allow this, not even in a situation of emergency.

According to law:

1) everyone is equal, so your own life should not be counted higher compared to everyone else's life 

2) it is not allowed to kill a person to save n>1 lives.  

There are attempts to change this legal setting, and it would allow certain elites to survive a humanitarian crises while other people would be killed. This is exactly, what is not acceptable. The leaders (captains, e.g.) have to bear the greatest risks to save everyone else, otherwise moral hazards are created. 

However, the law also demands that actions must be taken to maximize *chances* of survival, i.e. to minimize death probabilities/rates. 

How to do this is described in my last contributions at ResearchGate, entitled "Why we need democracy 2.0 and capitalism 2.0 to survive"[5] and "Society 4.0: Upgrading society, but how?".[6]

Seine Antwort ließ einige Tage auf sich warten. Ich machte mir Sorgen. Hatte ich womöglich übertrieben, gar etwas Falsches gesagt? Lag ich mit meiner Analyse völlig daneben? Doch dann, am 6. Juli 2016 erhielt ich endlich seine Antwort. Sie lautete:

"Hi Dirk - that's a good analysis..."

Nun verstehen Sie vielleicht auch, warum globale Initiativen wie jene, die autonome Waffen einschließlich Killerroboter stoppen wollten, bisher keinen politischen Erfolg hatten, obwohl sie von über 4500 KI- und Robotik-Experten unterschrieben wurde, und von zehntausenden von Ärzten.[7] Zwischenzeitlich machten Videos zum Thema „Slaughterbots“ die Runde. Das sind Drohnen, die per Gesichtserkennung Personen identifizieren und diese mit einer kleinen Sprengladung töten können.[8] Technisch ist das heute schon möglich. Das Militär kann bereits ganze Drohnenschwärme entfesseln.[9] Da gibt es praktisch kein Entrinnen mehr. Ob das gegen die Bevölkerung je zum Einsatz kommen wird, ist natürlich eine andere Frage. Ich vermute, eher nicht. Denn es gibt inzwischen wesentlich subtilere Methoden, um Menschen zu töten. Doch wie weit sind wir noch von Szenarien entfernt, in denen Algorithmen Todesurteile vollstrecken? Drohte uns ein digitaler Holocaust?

Für jene, die es immer noch nicht glauben können, was sich da hinter dem Rücken der ahnungslosen Öffentlichkeit zusammenbraut, füge ich noch eine weitere Begebenheit an. Im Herbst 2018 traf ich mich mit zwei Wissenschaftlern. Das Gespräch drehte sich schließlich um die Konferenz „Emerging Trends Reshaping the International Security“.[10] Die Konzepte, die dort vorgeschlagen wurden, erschütterten uns alle.

Einer der Redner referierte über einen neuen gesellschaftlichen Zustand: nicht Krieg, nicht Frieden, sondern „Unpeace“ – frei übersetzt also „Unfrieden“. Die Idee schien zu sein, dass man verlustreiche Kriege zwischen Staaten, wie sie früher stattgefunden hatten, wenn Ressourcen knapp wurden, vermeiden wollte – eben mit der neuen Regierungsform des „Unfriedens“. Dann würden Konflikte nicht zwischen Staaten ausgetragen, sondern Probleme wie die Überbevölkerung wären lokal zu lösen. Das erinnerte zweifelsohne an George Orwell’s „1984“, wo Kriege nicht dazu geführt wurden, um sie zu gewinnen, sondern um die Menschen einzuschüchtern und einen permanenten Notstand zu rechtfertigen.

Zurück zu meinen Notizen. Diese sprechen von einem „hybriden Krieg“ (der verschiedene kriegerische Methoden miteinander kombinieren und sicher auch einen Informationskrieg gegen die eigene Bevölkerung mit einschließen würde – also Propaganda und Desinformation[11]). Doch es wäre naiv zu glauben, dass es dabei bliebe. Meine Notizen beinhalten nämlich auch das Zitat: „Maybe we should kill just a few people.“ Das Töten von Menschen war also explizit vorgesehen – außerhalb des Kriegszustands! War nun zu erwarten, dass die Gesellschaft von jenen Menschen „befreit“ wurde, die „nicht systemrelevant“ waren? Dann könnte man mit Fug und Recht von einem mörderischen Plan sprechen!

ENDE VON TEIL 2

[1] Fortsetzung von http://futurict.blogspot.com/2021/01/es-geht-um-ihr-leben-warum-wir-eine.html

[2] https://de.wikipedia.org/wiki/Triage

[3] https://de.wikipedia.org/wiki/Trolley-Problem

[4]https://www.researchgate.net/publication/319205931_An_Extension_of_Asimov%27s_Robotics_Laws

[5] https://www.researchgate.net/publication/303684254

[6] https://www.researchgate.net/publication/304352735

[7] https://futureoflife.org/open-letter-autonomous-weapons/

[8] https://www.youtube.com/watch?v=6Ipkq-BASaM

[9] https://www.youtube.com/watch?v=CGAk5gRD-t0

[10] https://www.zeit.de/kultur/2017-09/kuenstliche-intelligenz-algorithmus-spam-autonomes-fahren

[11] https://www.militairespectator.nl/thema/operaties/artikel/behavioural-change-core-warfighting

No comments:

Post a Comment

Note: only a member of this blog may post a comment.