Code projiziert über Frau
Deep Tech and Data Science

Wie ethisch ist künstliche Intelligenz?

Stellen Sie sich Folgendes vor: Eine Straßenbahn kommt auf fünf Personen zu, die auf den Gleisen feststecken. Sie befinden sich in einer Position, in der Sie leicht den Hebel erreichen können, um den Wagen auf das Nebengleis umzuleiten und ihr Leben zu retten. Aber: Dabei werden Sie eine Person töten, die mit viel Pech auf den Nebengleisen festsitzt. Was tun Sie nun? In der heutigen Welt steht die künstliche Intelligenz vor dem gleichen Problem, wenn es zum Beispiel um autonomes Fahren geht. Wie ethisch ist es, die KI über das menschliche Überleben entscheiden zu lassen?

Stellen Sie sich die folgende Situation vor: Ein Trolley kommt auf fünf gefesselte Personen zu, die auf den Gleisen festsitzen. Sie stehen an einem Ort, an dem Sie leicht den Hebel erreichen können, um die Richtung des Wagens zu ändern und ihn auf das Nebengleis umzuleiten. Wenn Sie dies tun, retten Sie das Leben von fünf Menschen. Auf dem Abstellgleis befindet sich jedoch eine Person, die ebenfalls gefesselt ist und sich nicht bewegen kann. Wenn du den Wagen umleitest, musst du dich damit abfinden, diese Person zu töten.

Stellen Sie sich nun die gleiche Situation mit einer KI auf dem Fahrersitz vor: Wie würde ihre Entscheidung aussehen? Und wie ethisch ist künstliche Intelligenz?‍

Das Comeback des Trolley-Problems

Wenn Sie mit philosophischen Theorien vertraut sind, können Sie sich wahrscheinlich an das Gedankenexperiment erinnern, das in letzter Zeit mit dem Aufkommen der KI, insbesondere im Zusammenhang mit dem autonomen Fahren, wieder ins öffentliche Interesse gerückt ist. Warum sollten Sie es noch einmal analysieren, wenn es bereits von so vielen Autoren in Ethik und Philosophie behandelt wurde?

In Wirklichkeit ist dieses Experiment nicht so abstrakt, wie wir denken. Es gibt viele Beispiele aus dem wirklichen Leben, in denen eine Person eine ähnliche Entscheidung treffen musste, bei der Menschenleben in Gefahr waren - und es keine Möglichkeit gab, alle Beteiligten zu retten. Wenn ein Mensch eine solche Entscheidung trifft, beruht sie auf einer schnellen Einschätzung der Situation, aber auch auf Emotionen, Stress und moralischer Beurteilung. Man könnte argumentieren, dass es sich nicht um eine Entscheidung, sondern um eine Reaktion auf die gegebene Situation handelt. Aber wie soll man bei einem von einem autonomen Auto verursachten Unfall entscheiden, welche Person gerettet werden soll, wenn das Auto selbst nicht über die moralische Urteilskraft eines Menschen verfügt und die Entscheidung auf einem Computeralgorithmus beruht?

Wie ethisch kann künstliche Intelligenz sein?

Menschliche und künstliche Verarbeitung

Unsere letzte wattx insight session drehte sich um das Bewusstsein von KI. Tobias, ein wattx Business Development-Praktikant und Psychologie-Masterstudent, hat die Unterschiede zwischen menschlicher und künstlicher Verarbeitung vorgestellt. Als Menschen lernen wir aus Erfahrung und durch den Vergleich von vergangenen Reaktionen und Konsequenzen. Wir vergleichen die Art und Weise, wie wir reagiert haben, mit den Konsequenzen, die wir bekommen haben.

Dies ist der künstlichen Verarbeitung sehr ähnlich, bei der wir Datenpunkte und Antworten zu einem bestimmten Thema in die Maschine eingeben, die diese analysiert und auf der Grundlage dieser Erkenntnisse die nächste Entscheidung trifft. Um auf unser Trolley-Experiment und das Beispiel des autonomen Fahrens zurückzukommen, können wir das Problem ganz einfach darauf reduzieren, dass wir der KI die Entscheidung überlassen, ob wir ihr vertrauen: Sollen wir darauf vertrauen, dass der Algorithmus fair zu allen ist? Oder sollten wir darauf vertrauen, dass er vor allem uns gegenüber fair ist? Wie können wir sicherstellen, dass die KI eine ethische Entscheidung trifft?

Fehlen eines moralischen Urteils und einer nicht diskriminierenden Regel

Die Befürworter der KI argumentieren, dass sie so konzipiert ist, dass sie ein sichereres Umfeld schafft, indem sie menschliche Fehler ausschließt. Wir sind jedoch nicht in der Lage, zufällige Unfälle zu vermeiden, die der Maschine die Verantwortung für eine Entscheidung übertragen würden. Stellen Sie sich vor, Sie sitzen in einem Auto, das in einen Unfall verwickelt ist. Sie haben keine Kontrolle über das Auto, aber der Algorithmus des Autos entscheidet selbst, ob er Ihr Leben oder das der Menschen in der nächsten Reihe retten soll. Auf welche Fakten und Daten wird sich diese Entscheidung stützen? Werden Sie gerettet, weil es Ihr Auto ist, oder werden die Informationen über Sie und die anderen Fahrgäste so verarbeitet, dass diese Entscheidung getroffen werden kann? Wie vermeiden wir Diskriminierung bei der Erstellung dieses Algorithmus? Auf welchen Entscheidungskriterien sollen die Entscheidungen beruhen? Und vor allem: Wer soll die endgültige Entscheidung treffen - Sie, der Wissenschaftler oder die Regierung?

Weitere Bedrohungen

Bislang haben wir uns nur auf autonome Autos konzentriert. Aber es gibt weit mehr Anwendungsfälle und damit potenzielle Bedrohungen als nur das Thema KI. Sie berührt fast jeden Aspekt des menschlichen Lebens - Sicherheit, das Risiko einer böswilligen Nutzung, die Frage der Automatisierung und des Verlusts von Arbeitsplätzen, die Bürgerrechte, die Auswirkungen auf den Umgang der Menschen miteinander usw. Es ist ziemlich sicher, dass KI in kurzer Zeit eingesetzt werden wird, um unser Leben in fast allen denkbaren Bereichen zu verbessern. Deshalb ist es umso wichtiger, über ihre Sicherheit zu sprechen. Wir müssen einfach sicherstellen, dass die KI keinen Schaden zulässt oder verursacht.

Anpassung

Ein weiterer Aspekt, der zu berücksichtigen ist, ist die menschliche Anpassung. Sie ist Teil unserer Natur und hat sich im Laufe der Evolution entwickelt. Wir wissen einfach, wie wir uns an unsere Umgebung anpassen können. Wir können KI also auch als etwas betrachten, das sich weiterentwickelt und höchstwahrscheinlich nicht aufhören wird, sich weiterzuentwickeln. In diesem Szenario werden die Menschen lernen, mit und um KI-Anwendungen herum zu leben, so wie sie gelernt haben, mit Zügen, Staubsaugern oder den Gesetzen des Landes, in dem sie leben wollen, zu leben. Die einzige Sorge ist, diesen Silberstreif zu finden.

Wenn dieses Thema Ihr Interesse geweckt hat und Sie darüber weiter diskutieren möchten, schreiben Sie uns eine Nachricht an simon@wattx.io oder lesen Sie weitere Themen zum Thema Deep Tech in unserem Blog


Header image by Thisisengineering

Weitere Artikel
Vier relevante Problembereiche bei Carbon Capturing Projekten
Die Ergebnisse unserer Marktanalyse im Bereich Carbon Capturing
read the ARTICLE →
Interview mit Stryza
In diesem exklusiven Interview sprechen wir mit Max Steinhoff, dem Gründer von Stryza, einem vielversprechenden Venture von wattx.
read the ARTICLE →
Wie durch Investitionen in UX Geld und Zeit gespart werden können
Nutzerforschung und -gestaltung kann Geld sparen und den Zeitrahmen des Projekts verkürzen. Beim Aufbau eines neuen Unternehmens kann eine durchdachte UX-Strategie den Prozess erleichtern.
read the ARTICLE →
Wie der deutsche Mittelstand Vorreiter eines neuen Spiels sein kann
Hybride Ökosysteme entstehen durch das Eindringen der digitalen Technologie in die physische Welt - eine große Chance für Deutschlands Rückgrad
read the ARTICLE →
Die Probleme, die das IoT lösen muss
Moderne IoT-Lösungen haben mit einigen sehr ernsten Problemen zu kämpfen. Damit das IoT halten kann, was es verspricht, müssen diese Probleme zuerst gelöst werden.
read the ARTICLE →
Ihr Werkzeugkasten der Empathie: So entwerfen Sie ein Produkt, das die Nutzer brauchen
Wie können Sie sich als Designer von Menschen inspirieren lassen? In diesem Artikel stellen wir Ihnen 7 UX-Forschungsmethoden vor, mit denen Sie ein Verständnis für Ihre Nutzer entwickeln können.
read the ARTICLE →