Google Home AI Google 8 Min Lesezeit 33 Kommentare

Bedeutet KI das Ende unserer persönlichen Verantwortung?

Nicholas Montegriffo

AI war einst der Stoff für Science Fiction und die theoretische Forschung, bevor sie hinter den Kulissen von Online-Diensten arbeitete. Jetzt beginnen wir zu sehen, wie sich die frühen Stadien der künstlichen Intelligenz in unserem Alltag ausbreiten. Werden unsere alten Vorstellungen von Eigenverantwortung auch weiterhin Sinn ergeben, wenn wir unser tägliches Leben mehr und mehr den Algorithmen überlassen?

Die Auswirkungen der Technologie auf Kultur und Gesellschaft können subtil sein. Wenn wir ein neues Spielzeug oder eine neue Dienstleistung erhalten, die unser Leben einfacher macht, können wir es schnell annehmen und normalisieren, ohne über mögliche Konsequenzen nachzudenken, die erst nach Jahren entstehen.

Die Privatsphäre war das erste Opfer

Nehmen wir zum Beispiel die Privatsphäre. Als Facebook durch den Cambridge-Analytica-Skandal erschüttert wurde, mag die Story die Schlagzeilen dominiert haben. Aber außerhalb der Sphäre von Medienexperten und Technik-Enthusiasten ist mir als häufigste Reaktion aufgefallen: Gleichgültigkeit.

Aber warum zuckten die Leute mit den Schultern und fragen "na und?" zu einem so massiven Leck unserer persönlichen Informationen? Zu seiner Verwendung in der schäbigen Werbung und zur Manipulation der Ergebnisse wichtiger Wahlen?

Facebook-Boss Mark Zuckerberg. / © Frederic Legrand - COMEO / Shutterstock.com

Vielleicht, weil die technischen Prozesse dahinter zu komplex sind, als dass die meisten Menschen eine klare Vorstellung davon haben könnten, wie es genau passiert ist. Die Benutzer-Lizenzvereinbarungen für all die verschiedenen Dienste, die eine Person nutzen kann, sind selbst undurchsichtig, und wir haben nicht die Zeit, sie alle zu lesen, geschweige denn zu verstehen. Tatsächlich hat eine Studie gezeigt, dass wir, um alle Datenschutzrichtlinien zu lesen, jedes Jahr einen Monat Urlaub von der Arbeit nehmen müssten.

Doch viele von uns stimmen diesen Vereinbarungen trotzdem zu und geben unsere Privatsphäre auf, weil z.B. Facebook oder die Dienste von Google (unter anderem) zu gut sind, um sie nicht zu nutzen. Plus, alle unsere Freunde (oder unsere Konkurrenten, in einem Geschäftskontext) verwenden es, und wer möchte zurückfallen?

Die Frage, wie wir hierher gekommen sind, wird immer noch erforscht, aber die Tatsache bleibt: Die Privatsphäre im Jahr 2018 ist nicht mehr das, was sie einmal war. Die Erwartungen sind anders und viele von uns geben gerne Informationen an Unternehmen auf einer Ebene der Intimität weiter, die frühere Generationen schockiert hätte. Das ist der Preis, den wir für den Einstieg in die Welt der Technik zahlen, und das tun wir zum größten Teil gerne.

Wir können die Leute dazu drängen, VPNs zu benutzen und auf Signal zu chatten, so viel wir wollen, aber in den meisten Fällen ist der kulturelle Wandel bereits eingetreten: Der Schutz der Privatsphäre ist für die meisten Menschen kein Thema. Nicht genug für sie, um aktive Schritte zu unternehmen, so viel wie man sich beschweren könnte.

Persönliche Verantwortung wird das nächste Opfer sein, dank AI

KI-Horrorgeschichten rufen normalerweise Ängste hervor, weil sie ein eigenes Bewusstsein entwickeln und sich üblicherweise gegen die Menschheit wenden. Aber es ist realistischer, dass die "Intelligenz" der Maschine uns nicht wirklich respektieren kann. Wie jedes Werkzeug dient es dazu, eine Aufgabe einfacher, schneller und effizienter zu machen. Aber je weiter sich dieses Werkzeug von einer führenden menschlichen Hand entfernt, desto unschärfer wird die Frage der persönlichen Verantwortung.

Datenschutz ist eine Sache, aber Verantwortung ist ernst und kann buchstäblich eine Frage von Leben und Tod sein. Wenn etwas mit künstlicher Intelligenz schief geht und Schaden anrichtet, wer trägt dann die Verantwortung? Die Software-Ingenieure, auch wenn die Maschine ihre Methoden unabhängig von ihnen "gelernt" hat? Die Person, die den "Ein"-Knopf gedrückt hat? Der Benutzer, der einen jetzt allgegenwärtigen Strom von dichtem Juristenjargon unterschrieben hat, ohne ihn zu lesen, um einen schnellen Zugang zu einem Dienst zu erhalten?

Selbstfahrende Autos stehen an der Spitze dieses ethischen Dilemmas. Beispielsweise lernt ein von Nvidia entwickeltes autonomes Fahrzeug das Fahren - mit Hilfe Deep-Learning-Technologien und Trainingsdaten eines menschlichen Fahrers. Und die Technologie ist erstaunlich. Es kann in seiner Spur bleiben, Kurven fahren, Schilder erkennen und so weiter.

Alles gut, solange es tut, was es soll. Aber was ist, wenn ein autonomes Auto sich plötzlich entscheidet, in eine Mauer oder in einen See zu fahren? Was ist, wenn es ausweichen muss, um nicht in einen Fußgänger zu stürzen, aber dabei seinen Beifahrer tötet? Wird das Auto seinen Tag vor Gericht haben?

Im selbstfahrenden Auto kann man sich einfach mal fallen lassen. / © AndroidPIT

Aus heutiger Sicht könnte es unmöglich sein, herauszufinden, warum oder wie Unfälle passieren. Denn die KI kann uns ja ihre Entscheidungen nicht erklären. Selbst die Entwickler sind vielleicht nicht immer in der Lage, den Prozess hinter jeder spezifischen Entscheidung zu verfolgen.

Es könnte sein, dass dieses Problem autonome Fahrzeuge vom Markt fernhält, bis es wirklich gelöst ist. Oder es könnte sein, dass die Technologie so spannend, so komfortabel und so profitabel wird, dass wir sie sofort haben wollen und später die schwierigen Fragen stellen.

Die Vorstellung einer KI, die in einen Autounfall verwickelt ist, ist ein dramatisches Beispiel. Aber es wird mehr Bereiche unseres Lebens geben, in denen wir versucht sein werden, der Maschine die Verantwortung zu übertragen. Die KI wird unsere Krankheiten diagnostizieren und vielleicht gar "entscheiden", wer lebt oder stirbt. Sie wird Multi-Millionen-Dollar-Handelsgespräche führen und taktische Entscheidungen in Kriegsgebieten treffen. Wir hatten bereits Fälle, in denen z.B. Menschen mit Asthma von einer KI, die eine Lungenentzündung vorhersagen soll, fälschlicherweise als risikoarm eingestuft wurden.

Gerade in der Medizin ist es wichtig, die richtigen Antworten zu bekommen. / © Screenshot: AndroidPIT

Wenn die KI weiter fortgeschritten ist, wird sie wahrscheinlich die besten Entscheidungen treffen. In 99,99 Prozent der Fälle. Die anderen 0,01 Prozent werden wir vielleicht einfach mit den Achseln wegzucken, wie wir es mit dem Facebook-Privatsphäre-Skandal getan haben.

Intelligente Assistenten und Apps übernehmen mehr Verantwortung

Lasst uns die Folgen für das Individuum genauer beleuchten. Auf der Google I/O zeigte Google ein paar Möglichkeiten für die KI, unser Leben ein wenig einfacher zu machen. Virtuelle Assistenten sind in den vergangenen zwei Jahren in den Mainstream eingetreten und haben sich zu einem wichtigen Bestandteil vieler amerikanischer Häuser entwickelt.

Googles Duplex-Demo zeigte, wie wir Terminabsprachen an den Assistant delegieren können. Der Assistant telefoniert für uns und vereinbart einen Termin für einen neuen Haarschnitt oder bucht eine Restaurantreservierung. Google will Duplex auch für automatisierte Callcenter nutzen und ein amüsantes Szenario heraufbeschwören, in dem zwei Roboter ein Gespräch in menschlicher Sprache führen.

AI stand im Mittelpunkt des Google-I/O-Events. / © Screenshot: AndroidPIT

Klingt cool, oder? Außer, nun ja, es gibt ein gewisses Maß an Vertrauen, das wir unserem virtuellen Assistenten entgegenbringen müssen - zumal wenn er als unser Agent fungiert. Die Kommunikation über diese Aufgaben mag einfach klingen, ist aber mit potenziellen Problemen behaftet.

Wenn wir zum Beispiel miteinander sprechen, nehmen wir subtile Hinweise in unseren Stimmen wahr, um einen Idee davon zu bekommen, mit wem wir reden und wie wir uns angemessen verhalten sollten. Und selbst mit diesem Wissen ist es immer noch recht einfach, jemanden versehentlich zu beleidigen und einen Streit oder eine Empörung auszulösen.

Wer aber trägt die Verantwortung, wenn ein virtueller Assistent etwas als beleidigend oder peinlich empfundenes sagt? Wenn virtuelle Assistenten irgendwie daran gehindert werden, potenziell beleidigende Dinge zu sagen, vielleicht nur ironisch oder als Witz oder Kritik, wird dann Eure Stimme zensiert? Es wird viel mehr als "ähms" brauchen, damit KI wirklich für uns sprechen kann.

Google Duplex in Aktion auf der Google I/O 2018

Ein weiteres großes Thema, sowohl bei Google I/O als auch bei Apples WWDC in diesem Jahr, war Software, die ihre eigene Nutzung im Namen des "digitalen Wohlbefindens" verwaltet. Die Idee ist, dass wir unsere Geräte nicht hergeben, um draußen die Rosen zu riechen, es sei denn, unser Gerät erinnert uns daran.

Die Benutzer können Präferenzen dafür selbstverständlich einstellen. Dennoch glaube ich, dass unser Wohlbefinden und Zeitmanagement bald durch eine KI verwaltet wird. Dann steuert ein Programm unsere Gesundheit, unser Arbeiten und die Unterhaltung so, wie sie es von uns gelernt hat. Filter-Bubble hoch zwei!

Und es könnte für viele sehr positiv sein, obwohl ich persönlich diese Ebene des Mikromanagements für einen Alptraum halten würde.

Natürlich werden sich die Menschen dagegen wehren, die Verantwortung an die KI abzugeben, es sei denn, es gibt einen echten Vorteil. Und es wird Vorteile geben - in Bezug auf Komfort, Produktivität, Unterhaltung und so weiter. Die Vorteile werden zu gut sein, um sich dagegen zu wehren. Wir werden die KI-Technologie für ihre Vorteile nutzen und dann unsere sozialen Erwartungen an die Realität anpassen.

Ob es uns gefällt oder nicht, unsere Gesellschaft wird einen Platz für KI finden

Die klassische KI-Horrorgeschichte beschreibt normalerweise eine superintelligente Maschine, die selbstbewusst wird und ihre Schöpfer vernichten möchte. Während die böse KI ungefähr so realistisch ist wie Vampire oder Werwölfe oder anderes Horrorfutter, wird unser Kampf mit der KI real. Der Kompromiss zwischen Bequemlichkeit und Verantwortung in unzähligen Aspekten unseres täglichen Lebens - das ist die Konfliktlinie, die wir mit der KI ausfechten müssen.

Aber es gibt kein Bewusstsein hinter der künstlichen Intelligenz, wie wir sie heute kennen, kein Selbst oder Verstand. Wir bauen keine KI-Götter, sondern Phänomene, die den komplexen, aber gedankenlosen Systemen in der Natur ähnlicher sind. Dinge, auf die wir angewiesen sind und die wir nutzen, aber nicht kontrollieren.

Im schlimmsten Fall kann es genauso absurd sein, sich über die Methoden der Algorithmen zu beschweren oder sie in Frage zu stellen, wie die Gezeiten oder den Wind. Im besten Fall werden verantwortungsbewusste Entwicklung und Konsum die letztendliche Verantwortung in den Händen von Menschen halten, die sich gegenseitig vertrauen können, anstatt auf den Blackbox-Algorithmus zu verweisen.

Was haltet Ihr von der Rolle, die KI in unserem täglichen Leben spielen wird? Trauen wir Algorithmen bereits zu viel Verantwortung zu?

MEHR ANZEIGEN

Kommentare

Kommentare

Beim Laden der Kommentare ist ein Fehler aufgetreten.