Im Rahmen unserer Websites setzen wir Cookies ein. Informationen zu den Cookies und wie Ihr der Verwendung von Cookies jederzeit widersprechen bzw. deren Nutzung beenden könnt, findet Ihr in unserer Datenschutzerklärung.

8 Min Lesezeit 33 Kommentare

Bedeutet KI das Ende unserer persönlichen Verantwortung?

AI war einst der Stoff für Science Fiction und die theoretische Forschung, bevor sie hinter den Kulissen von Online-Diensten arbeitete. Jetzt beginnen wir zu sehen, wie sich die frühen Stadien der künstlichen Intelligenz in unserem Alltag ausbreiten. Werden unsere alten Vorstellungen von Eigenverantwortung auch weiterhin Sinn ergeben, wenn wir unser tägliches Leben mehr und mehr den Algorithmen überlassen?

Die Auswirkungen der Technologie auf Kultur und Gesellschaft können subtil sein. Wenn wir ein neues Spielzeug oder eine neue Dienstleistung erhalten, die unser Leben einfacher macht, können wir es schnell annehmen und normalisieren, ohne über mögliche Konsequenzen nachzudenken, die erst nach Jahren entstehen.

Die Privatsphäre war das erste Opfer

Nehmen wir zum Beispiel die Privatsphäre. Als Facebook durch den Cambridge-Analytica-Skandal erschüttert wurde, mag die Story die Schlagzeilen dominiert haben. Aber außerhalb der Sphäre von Medienexperten und Technik-Enthusiasten ist mir als häufigste Reaktion aufgefallen: Gleichgültigkeit.

Aber warum zuckten die Leute mit den Schultern und fragen "na und?" zu einem so massiven Leck unserer persönlichen Informationen? Zu seiner Verwendung in der schäbigen Werbung und zur Manipulation der Ergebnisse wichtiger Wahlen?

Zuckerberg
Mehrere Datenschutzskandale reichen nicht aus, um Facebook zu Fall zu bringen. / © Leah Millis/Reuters

Vielleicht, weil die technischen Prozesse dahinter zu komplex sind, als dass die meisten Menschen eine klare Vorstellung davon haben könnten, wie es genau passiert ist. Die Benutzer-Lizenzvereinbarungen für all die verschiedenen Dienste, die eine Person nutzen kann, sind selbst undurchsichtig, und wir haben nicht die Zeit, sie alle zu lesen, geschweige denn zu verstehen. Tatsächlich hat eine Studie gezeigt, dass wir, um alle Datenschutzrichtlinien zu lesen, jedes Jahr einen Monat Urlaub von der Arbeit nehmen müssten.

Doch viele von uns stimmen diesen Vereinbarungen trotzdem zu und geben unsere Privatsphäre auf, weil z.B. Facebook oder die Dienste von Google (unter anderem) zu gut sind, um sie nicht zu nutzen. Plus, alle unsere Freunde (oder unsere Konkurrenten, in einem Geschäftskontext) verwenden es, und wer möchte zurückfallen?

Die Frage, wie wir hierher gekommen sind, wird immer noch erforscht, aber die Tatsache bleibt: Die Privatsphäre im Jahr 2018 ist nicht mehr das, was sie einmal war. Die Erwartungen sind anders und viele von uns geben gerne Informationen an Unternehmen auf einer Ebene der Intimität weiter, die frühere Generationen schockiert hätte. Das ist der Preis, den wir für den Einstieg in die Welt der Technik zahlen, und das tun wir zum größten Teil gerne.

Wir können die Leute dazu drängen, VPNs zu benutzen und auf Signal zu chatten, so viel wir wollen, aber in den meisten Fällen ist der kulturelle Wandel bereits eingetreten: Der Schutz der Privatsphäre ist für die meisten Menschen kein Thema. Nicht genug für sie, um aktive Schritte zu unternehmen, so viel wie man sich beschweren könnte.

Persönliche Verantwortung wird das nächste Opfer sein, dank AI

KI-Horrorgeschichten rufen normalerweise Ängste hervor, weil sie ein eigenes Bewusstsein entwickeln und sich üblicherweise gegen die Menschheit wenden. Aber es ist realistischer, dass die "Intelligenz" der Maschine uns nicht wirklich respektieren kann. Wie jedes Werkzeug dient es dazu, eine Aufgabe einfacher, schneller und effizienter zu machen. Aber je weiter sich dieses Werkzeug von einer führenden menschlichen Hand entfernt, desto unschärfer wird die Frage der persönlichen Verantwortung.

Datenschutz ist eine Sache, aber Verantwortung ist ernst und kann buchstäblich eine Frage von Leben und Tod sein. Wenn etwas mit künstlicher Intelligenz schief geht und Schaden anrichtet, wer trägt dann die Verantwortung? Die Software-Ingenieure, auch wenn die Maschine ihre Methoden unabhängig von ihnen "gelernt" hat? Die Person, die den "Ein"-Knopf gedrückt hat? Der Benutzer, der einen jetzt allgegenwärtigen Strom von dichtem Juristenjargon unterschrieben hat, ohne ihn zu lesen, um einen schnellen Zugang zu einem Dienst zu erhalten?

Selbstfahrende Autos stehen an der Spitze dieses ethischen Dilemmas. Beispielsweise lernt ein von Nvidia entwickeltes autonomes Fahrzeug das Fahren - mit Hilfe Deep-Learning-Technologien und Trainingsdaten eines menschlichen Fahrers. Und die Technologie ist erstaunlich. Es kann in seiner Spur bleiben, Kurven fahren, Schilder erkennen und so weiter.

Alles gut, solange es tut, was es soll. Aber was ist, wenn ein autonomes Auto sich plötzlich entscheidet, in eine Mauer oder in einen See zu fahren? Was ist, wenn es ausweichen muss, um nicht in einen Fußgänger zu stürzen, aber dabei seinen Beifahrer tötet? Wird das Auto seinen Tag vor Gericht haben?

MVIMG 20180227 181609
Im selbstfahrenden Auto kann man sich einfach mal fallen lassen. / © AndroidPIT

Aus heutiger Sicht könnte es unmöglich sein, herauszufinden, warum oder wie Unfälle passieren. Denn die KI kann uns ja ihre Entscheidungen nicht erklären. Selbst die Entwickler sind vielleicht nicht immer in der Lage, den Prozess hinter jeder spezifischen Entscheidung zu verfolgen.

Es könnte sein, dass dieses Problem autonome Fahrzeuge vom Markt fernhält, bis es wirklich gelöst ist. Oder es könnte sein, dass die Technologie so spannend, so komfortabel und so profitabel wird, dass wir sie sofort haben wollen und später die schwierigen Fragen stellen.

Die Vorstellung einer KI, die in einen Autounfall verwickelt ist, ist ein dramatisches Beispiel. Aber es wird mehr Bereiche unseres Lebens geben, in denen wir versucht sein werden, der Maschine die Verantwortung zu übertragen. Die KI wird unsere Krankheiten diagnostizieren und vielleicht gar "entscheiden", wer lebt oder stirbt. Sie wird Multi-Millionen-Dollar-Handelsgespräche führen und taktische Entscheidungen in Kriegsgebieten treffen. Wir hatten bereits Fälle, in denen z.B. Menschen mit Asthma von einer KI, die eine Lungenentzündung vorhersagen soll, fälschlicherweise als risikoarm eingestuft wurden.

google i o 2018 12
Gerade in der Medizin ist es wichtig, die richtigen Antworten zu bekommen. / © Screenshot: AndroidPIT

Wenn die KI weiter fortgeschritten ist, wird sie wahrscheinlich die besten Entscheidungen treffen. In 99,99 Prozent der Fälle. Die anderen 0,01 Prozent werden wir vielleicht einfach mit den Achseln wegzucken, wie wir es mit dem Facebook-Privatsphäre-Skandal getan haben.

Intelligente Assistenten und Apps übernehmen mehr Verantwortung

Lasst uns die Folgen für das Individuum genauer beleuchten. Auf der Google I/O zeigte Google ein paar Möglichkeiten für die KI, unser Leben ein wenig einfacher zu machen. Virtuelle Assistenten sind in den vergangenen zwei Jahren in den Mainstream eingetreten und haben sich zu einem wichtigen Bestandteil vieler amerikanischer Häuser entwickelt.

Googles Duplex-Demo zeigte, wie wir Terminabsprachen an den Assistant delegieren können. Der Assistant telefoniert für uns und vereinbart einen Termin für einen neuen Haarschnitt oder bucht eine Restaurantreservierung. Google will Duplex auch für automatisierte Callcenter nutzen und ein amüsantes Szenario heraufbeschwören, in dem zwei Roboter ein Gespräch in menschlicher Sprache führen.

google i o 2018 136
AI stand im Mittelpunkt des Google-I/O-Events. / © Screenshot: AndroidPIT

Klingt cool, oder? Außer, nun ja, es gibt ein gewisses Maß an Vertrauen, das wir unserem virtuellen Assistenten entgegenbringen müssen - zumal wenn er als unser Agent fungiert. Die Kommunikation über diese Aufgaben mag einfach klingen, ist aber mit potenziellen Problemen behaftet.

Wenn wir zum Beispiel miteinander sprechen, nehmen wir subtile Hinweise in unseren Stimmen wahr, um einen Idee davon zu bekommen, mit wem wir reden und wie wir uns angemessen verhalten sollten. Und selbst mit diesem Wissen ist es immer noch recht einfach, jemanden versehentlich zu beleidigen und einen Streit oder eine Empörung auszulösen.

Wer aber trägt die Verantwortung, wenn ein virtueller Assistent etwas als beleidigend oder peinlich empfundenes sagt? Wenn virtuelle Assistenten irgendwie daran gehindert werden, potenziell beleidigende Dinge zu sagen, vielleicht nur ironisch oder als Witz oder Kritik, wird dann Eure Stimme zensiert? Es wird viel mehr als "ähms" brauchen, damit KI wirklich für uns sprechen kann.

Google Duplex in Aktion auf der Google I/O 2018

Ein weiteres großes Thema, sowohl bei Google I/O als auch bei Apples WWDC in diesem Jahr, war Software, die ihre eigene Nutzung im Namen des "digitalen Wohlbefindens" verwaltet. Die Idee ist, dass wir unsere Geräte nicht hergeben, um draußen die Rosen zu riechen, es sei denn, unser Gerät erinnert uns daran.

Die Benutzer können Präferenzen dafür selbstverständlich einstellen. Dennoch glaube ich, dass unser Wohlbefinden und Zeitmanagement bald durch eine KI verwaltet wird. Dann steuert ein Programm unsere Gesundheit, unser Arbeiten und die Unterhaltung so, wie sie es von uns gelernt hat. Filter-Bubble hoch zwei!

Und es könnte für viele sehr positiv sein, obwohl ich persönlich diese Ebene des Mikromanagements für einen Alptraum halten würde.

Natürlich werden sich die Menschen dagegen wehren, die Verantwortung an die KI abzugeben, es sei denn, es gibt einen echten Vorteil. Und es wird Vorteile geben - in Bezug auf Komfort, Produktivität, Unterhaltung und so weiter. Die Vorteile werden zu gut sein, um sich dagegen zu wehren. Wir werden die KI-Technologie für ihre Vorteile nutzen und dann unsere sozialen Erwartungen an die Realität anpassen.

Ob es uns gefällt oder nicht, unsere Gesellschaft wird einen Platz für KI finden

Die klassische KI-Horrorgeschichte beschreibt normalerweise eine superintelligente Maschine, die selbstbewusst wird und ihre Schöpfer vernichten möchte. Während die böse KI ungefähr so realistisch ist wie Vampire oder Werwölfe oder anderes Horrorfutter, wird unser Kampf mit der KI real. Der Kompromiss zwischen Bequemlichkeit und Verantwortung in unzähligen Aspekten unseres täglichen Lebens - das ist die Konfliktlinie, die wir mit der KI ausfechten müssen.

Aber es gibt kein Bewusstsein hinter der künstlichen Intelligenz, wie wir sie heute kennen, kein Selbst oder Verstand. Wir bauen keine KI-Götter, sondern Phänomene, die den komplexen, aber gedankenlosen Systemen in der Natur ähnlicher sind. Dinge, auf die wir angewiesen sind und die wir nutzen, aber nicht kontrollieren.

Im schlimmsten Fall kann es genauso absurd sein, sich über die Methoden der Algorithmen zu beschweren oder sie in Frage zu stellen, wie die Gezeiten oder den Wind. Im besten Fall werden verantwortungsbewusste Entwicklung und Konsum die letztendliche Verantwortung in den Händen von Menschen halten, die sich gegenseitig vertrauen können, anstatt auf den Blackbox-Algorithmus zu verweisen.

Was haltet Ihr von der Rolle, die KI in unserem täglichen Leben spielen wird? Trauen wir Algorithmen bereits zu viel Verantwortung zu?

Dank ist diese Seite frei von Werbebannern

Top-Kommentare der Community

  • Michael K. vor 3 Monaten

    Ich sehe keine so grundsätzen Probleme wie der Autor. KI ist letztlich Technologie, und Technik als solche kennt keine Verantwortung. Sie kennt aber ein Restrisiko. Auch jetzt, ohne KI in Betracht zu ziehen, kann Technik mit fatalen Folgen versagen, ohne dass es einen Verantwortlichen gibt.
    Hierbei muss man zwischen zivilrechtlicher Haftung und strafrechtlicher Schuld unterscheiden.
    Zivilrechtliche Haftung setzt gar kein schuldhaftes Verhalten voraus, und passt nicht recht zum Thema, weshalb ich mich auf strafrechtliche Schuld, und die damit verbundene Verantwortung beschränken will.
    Wurde ein Reaktor in einer Chemiefabrik nach geltenden Vorschriften entwickelt und produziert, also entsprechend dem Stand von Technik und Forschung, liegen keine Material- oder Produktionsfehler vor, und wurden die Prüfzyklen eingehalten, so kann diese Technik dennoch versagen mit fatalen Folgen. Ihr Restrisiko mag klein sein, ein Restrisiko von Null ist aber nicht zu erreichen.
    Eine Verantwortung oder Schuld gibt es in dem Fall nicht.
    Die Technik wurde im Rahmen der Gesetzgebung und damit im Rahmen eines gesellschaftlichen Konsens trotz des unvermeidlichen Restrisikos in Betrieb genommen, und wenn dieser Restrisikofall nun eintritt, wem will man die Verantwortung dafür zuschieben, wer soll einsitzen?
    In diesem Sinn unterscheidet sich KI nicht grundlegend von herkömmlicher Technik, auch wenn das Zustandekommen von Entscheidungen nicht immer nachvollzogen werden kann.
    Wenn KI medizinische Diagnostik oder Therapie entscheidend verbessern kann, so bleibt dennoch ein Restrisiko, oder neue Restrisiken entstehen.
    Ein Patient hat zunächst eine höhere Genesungswahrscheinlichkeit, könnte aber natürlich auch Opfer eines neuen Restrisikos werden, das es zuvor nicht gab.
    Eine Schuld oder Verantwortung kann ich auch hier nicht sehen. Der Patient hatte nur Superpech, trotz des verringerten Restrisikos hat es ihn getroffen.
    Ähnlich sehe ich es mit autonomen Fahren. Wenn die Technik insgesamt weniger Verkehrstote mit sich bringt, weil die KI Verkehrsregeln besser einhält, schneller reagiert und nicht ermüdet, so ist das ja positiv, und es gibt sicher einen gesellschaftlichen Konsens, die Technik zu nutzen. Trotzdem bleibt die Möglichkeit, dass fatale Fehlentscheidungen gefällt werden, mit Opfern, die es mit einem menschlichem Fahrer vielleicht nicht gegeben hätte. Rechtfertigen diese bedauernswerten Opfer nun, auf die Technik zu verzichten, und dadurch vielmehr andere Opfer in Kauf zu nehmen?
    Auch Airbags haben schon Opfer gefordert, die es ohne sie nicht gegeben hätte, trotzdem haben sie insgesamt viel mehr Leben gerettet.
    Letztlich kann man die Frage, ob man neue Techniken einsetzen soll, also an der pragmatischen Frage festmachen, ob der Einsatz insgesamt vorteilhaft ist, und man dafür bekannte und möglicherweise unbekannte Restrisiken in Kauf nimmt. Findet man darüber einen gesellschaftlichen Konsens, so muss man keine Verantwortung an KI deligieren. Man vertraut der Technik wie jeder anderen, nimmt aber ihr inhärentes Restrisiko in Kauf, wie bei jeder anderen Technik auch.

  • Tim vor 3 Monaten

    Man sollte sich aber schon heute mit sowas beschäftigen. In Zukunft könnte es dafür nämlich sonst zu spät sein.

33 Kommentare

Neuen Kommentar schreiben:
Alle Änderungen werden gespeichert. Änderungen werden nicht gespeichert!

  • Welche Verantwortung denn bitte? Viele kennen das Wort doch gar nicht ..... Die Überschrift ist jedenfalls nicht mein Geschmack. KI ... Künstliche Intelligenz gibt es meiner Ansicht nach nicht, noch nicht und das ist auch gut so. Menschliche Intelligenz gibt es zwar, sie ist aber auch nicht immer zur Stelle, wenn sie hilfreich wäre ... :D


  • Als Beispiel für funktionierende KI nun ausgerechnet das Google Duplex Fake vorzustellen, ist eigentlich nur ein Beispiel dass KI (noch ?) nicht funktioniert.
    Dort wurde nur ein Audiofile abgespielt, ohne dass auch nur ansatzweise erklärt wurde, wie, mit wem und unter welchen Bedingungen es entstanden ist. Nur eines ist sicher - alltägliche reale Bedingungen waren das nicht.
    Würde es schon funktionierende KI geben, warum wird sie beispielsweise nicht in sowas ungefährlichem wie Spielen eingesetzt, wo man KI-gesteuerte Mit- oder Gegenspieler gebrauchen könnte ? Strategiespiele, Simulationen oder Shooter würden sich doch bestens dafür eigenen. Dort laufen aber bis dato immer nur irgendwelche Dumm-Bots rum oder es läuft gescripteter Mist ab, den du nach 2-3 mal zocken durchschaut hast.
    Auch das sogenannte autonome Fahren ist bisher nur eine Sammlung von Fahrhilfen (Assistent wäre schon zu viel gesagt).
    Ergo, bisher ist von echter KI nicht viel zu sehen.


  • Da "KI" schlichtweg noch gar nicht existiert, sind die Fragen müsig, weil fehlgeleitet. De facto gibt es nur ein "Machine-based Learning".

    Aber hey, "KI" verkauft sich halt besser als "fortgeschrittener Eliza-Bot" ;)

    cu, w0lf.


  • Bis die KI unsere Verantwortung übernimmt wird es noch dauern.zumindest würde ich nicht mein Hund,ein Kind,eine zu pflegende Person in die Verantwortung irgendeiner Maschine geben die Entscheidung trifft.Nicht einmal eine OP wenn der Mensch es besser kann durch Erfahrung.Außerdem liegt es am Menschen selber wie abhängig uns Maschinen machen sollen.


  • Die Frage nach dem "WARUM" ist leicht zu beantworten.
    Die Menschen können sich schlicht und ergreifend nicht darunter vorstellen.

    Nachdem ich etliche Diskusionen geführt habe stellte ich folgendes fest: Die Gespräche verzetteln sich immer in technische Einzelheiten.
    Dann kommt von irgend einer Seite der Einwand "das kann ich mir nicht vorstellen" oder warum, wieso, weshalb sollte irgendweroderirgendwas dies oder jenes machen.

    Probiert es aus.


  • Die KI wird erkennen, dass die Menscheit überflüssig ist & dementsprechend handeln.
    Wer KI für ferne Zukunftsmusik hält: GOOGLE weiß nicht (mehr), wie die eigene Translator-KI Spachen übersetzt.


    • Das halte ich für völligen Quatsch. Diese Apokalypseutopien aus den fünfziger und sechziger Jahren des letzten Jahrhunderts sind doch längst überholt und taugen nur noch für schlechte Filme. Und selbst wenn, wer sagt dir denn, dass KI nicht die nächste Entwicklungsstufe der Menschheit sein wird?

      Peter


  • Vielen Dank für diesen wirklich sehr guten Artikel!


  • Zitat : Aber warum zuckten die Leute mit den Schultern und fragen "na und?" zu einem so massiven Leck unserer persönlichen Informationen? Zu seiner Verwendung in der schäbigen Werbung und zur Manipulation der Ergebnisse wichtiger Wahlen?

    Na ganz einfach : In meiner Jugend, deren Teenie-Alter so in den 80´er lag wären wir zusammengezuckt, hätte ein fremder Mann uns nach unserer Adresse gefragt, die Schule auf die wir gehen oder den Namen unserer kleinen Schwester, der Eltern oder Freunde. Wir hätten ihm auch nicht bereitwillig mitgeteilt wo wir den Abend zu verbringen gedenken und hätten eher daran gedacht sofort die Eltern oder die Polizei zu informieren.
    Heute geben wir in unseren Sozialen Profilen alle diese Daten sorglos Preis und es ist uns doch schon lange egal geworden wieviele "fremde Männer" diese Daten da abrufen können.

    Mir macht die KI nicht mehr Angst als ein schnelles Auto, das wird für mich auch nur gefährlich wenn ich den Bogen überspanne.

    Wer z.B. seine politische Ausrichtung nicht mitteilen will, der sollte es einfach lassen und nicht einen Wahl O Maten bestimmen lassen wer ihn regieren soll. Einfach selbst Gedanken machen statt sofort die Lösung der KI in Anspruch nehmen, wird unser Schlüssel in die selbstbestimmte Zukunft sein.
    Ob also in Zukunft wir die KI kontrollieren oder die KI uns, hängt eigentlich nur davon ab, wieviel Eigenverantwortung wir uns selbst noch zutrauen.


  •   15
    Gelöschter Account vor 3 Monaten Link zum Kommentar

    Nein, warum sollte es?! ;)


  • Die Frage in der Box ist falsch gestellt...

    "Eine Technologie, die unser Leben angenehmer macht, SOLLTE nicht gestoppt werden."

    Etwas das Menschen hilft und zur Verbesserung der Standards beiträgt, sollte im Interesse von jedem sein.

    Klar, es werden viele Jobs auf der Strecke bleiben... Stichwort die schlesischen Weber... Der Umstieg und das Handeln der Politik wird sehr schwer bis Katastrophal... Aber ab einen gewissen Punkt haben wir uns alle mit dem Wandel arrangiert und können die Vorteile genießen :)


    • Wo soll bei KI der Vorteil liegen? Für mich gibt es noch nichts an KI was ich nicht selber machen kann. Ich brauche keinen Kühlschrank der mir sagt das er leer ist. Und das was uns als KI verkauft wird hat mit Intelligenz nichts zu tun.


      • Du denkst nicht weit genug. Natürlich ist das, was es heute gibt, keine Intelligenz, sondern nur geschickt formulierte Algorithmen, die einigermaßen intelligent aussehen. Und natürlich kann die KI heute nichts nennenswert Nützliches. Aber das steckt ja alles noch in den Kinderschuhen. Gute KI, ausgestattet mit ein paar Sensoren kann zum Beispiel Blinden oder stummen Menschen das Leben wesentlich erleichtern. Auch im Bereich Kommunikation ist KI nützlich, um zu übersetzen und aus der Mimik des anderen alternative Bedeutung abzulesen. Unsere Gesellschaft (wie übrigens viele auf der Welt) überaltert. Wer denkst du kann sich um all die alten Menschen kümmern? Sich mit ihnen unterhalten? Warst du schon mal in einem Altenheim? Dann wüsstest du, wie wichtig ein paar Worte miteinander sein können. Da gibt es zig Möglichkeiten, wie man eine ausgereifte KI sinnvoll einsetzen kann.


      • <<< ausgestattet mit ein paar Sensoren kann zum Beispiel Blinden oder stummen Menschen das Leben wesentlich erleichtern >>>
        Das ist aber keine Intelligenz, sondern nur eine Erweiterung der vorhandenen Technologien. Intelligent wäre eine Maschine wenn sie wüsste was ich gerade fühle und was ich dazu an passender Musik hören möchte, und zwar ohne dass ich es ihr vorher beibringe.


      • Lefty vor 3 Monaten Link zum Kommentar

        Hm. Nach dieser Logik müsste ja z. B. alles wozu du deine Intelligenz benutzt von Anfang an in dir gewesen sein. Aber ich bin mir ziemlich sicher, dass du vieles auch erst später erlernt hast und dein Grad an Intelligenz bestimmt hat, wie schnell und wie effektiv du das Erlernte einsetzen konntest. Und, bestenfalls, aufgrund von Erfahrung dieses auch noch selbstständig erweitert hast. Und so sollte auch AI funktionieren. Wenn diese nicht nur eben Blinden oder Tauben dadurch das Leben erleichtert, indem sie in bestimmten Situationen einen, von uns programmierten, technischen Ablauf wiedergibt, sondern eben auch Situationen richtig interpretiert und dann dementsprechend reagiert.
        Also, wenn man so will, nicht nur KI (künstliche Intelligenz), sondern auch KI (künstliche Intuition).


      • Im Grunde stimmt das für mich, was Tenten sagt, aber ich weiß nicht wie das bei den "Alten" ankommen würde, bei denen, die das nicht mehr unterscheiden können, kann es vielleicht hiflreich sein, aber alle anderen brauchen Menschen zum Reden und Interagieren. Bestimmte Dinge in der Pflege könnten aber schon von besseren KI-ähnlichen Sytemen übernommen werden, doch auch hier bin ich mir nicht sicher ... Menschen solten immer da sein zumindest zum Überwachen und dem "menschlichen" Befteuen, die hätten dann aber vielleicht auch die Zeit dazu .... aber ist ja eh alles noch so ne Art Zukunftsmusik.


      • <<< sondern eben auch Situationen richtig interpretiert und dann dementsprechend reagiert >>>
        Und genau das kann die heutige "KI" noch nicht.


  • Ich sehe keine so grundsätzen Probleme wie der Autor. KI ist letztlich Technologie, und Technik als solche kennt keine Verantwortung. Sie kennt aber ein Restrisiko. Auch jetzt, ohne KI in Betracht zu ziehen, kann Technik mit fatalen Folgen versagen, ohne dass es einen Verantwortlichen gibt.
    Hierbei muss man zwischen zivilrechtlicher Haftung und strafrechtlicher Schuld unterscheiden.
    Zivilrechtliche Haftung setzt gar kein schuldhaftes Verhalten voraus, und passt nicht recht zum Thema, weshalb ich mich auf strafrechtliche Schuld, und die damit verbundene Verantwortung beschränken will.
    Wurde ein Reaktor in einer Chemiefabrik nach geltenden Vorschriften entwickelt und produziert, also entsprechend dem Stand von Technik und Forschung, liegen keine Material- oder Produktionsfehler vor, und wurden die Prüfzyklen eingehalten, so kann diese Technik dennoch versagen mit fatalen Folgen. Ihr Restrisiko mag klein sein, ein Restrisiko von Null ist aber nicht zu erreichen.
    Eine Verantwortung oder Schuld gibt es in dem Fall nicht.
    Die Technik wurde im Rahmen der Gesetzgebung und damit im Rahmen eines gesellschaftlichen Konsens trotz des unvermeidlichen Restrisikos in Betrieb genommen, und wenn dieser Restrisikofall nun eintritt, wem will man die Verantwortung dafür zuschieben, wer soll einsitzen?
    In diesem Sinn unterscheidet sich KI nicht grundlegend von herkömmlicher Technik, auch wenn das Zustandekommen von Entscheidungen nicht immer nachvollzogen werden kann.
    Wenn KI medizinische Diagnostik oder Therapie entscheidend verbessern kann, so bleibt dennoch ein Restrisiko, oder neue Restrisiken entstehen.
    Ein Patient hat zunächst eine höhere Genesungswahrscheinlichkeit, könnte aber natürlich auch Opfer eines neuen Restrisikos werden, das es zuvor nicht gab.
    Eine Schuld oder Verantwortung kann ich auch hier nicht sehen. Der Patient hatte nur Superpech, trotz des verringerten Restrisikos hat es ihn getroffen.
    Ähnlich sehe ich es mit autonomen Fahren. Wenn die Technik insgesamt weniger Verkehrstote mit sich bringt, weil die KI Verkehrsregeln besser einhält, schneller reagiert und nicht ermüdet, so ist das ja positiv, und es gibt sicher einen gesellschaftlichen Konsens, die Technik zu nutzen. Trotzdem bleibt die Möglichkeit, dass fatale Fehlentscheidungen gefällt werden, mit Opfern, die es mit einem menschlichem Fahrer vielleicht nicht gegeben hätte. Rechtfertigen diese bedauernswerten Opfer nun, auf die Technik zu verzichten, und dadurch vielmehr andere Opfer in Kauf zu nehmen?
    Auch Airbags haben schon Opfer gefordert, die es ohne sie nicht gegeben hätte, trotzdem haben sie insgesamt viel mehr Leben gerettet.
    Letztlich kann man die Frage, ob man neue Techniken einsetzen soll, also an der pragmatischen Frage festmachen, ob der Einsatz insgesamt vorteilhaft ist, und man dafür bekannte und möglicherweise unbekannte Restrisiken in Kauf nimmt. Findet man darüber einen gesellschaftlichen Konsens, so muss man keine Verantwortung an KI deligieren. Man vertraut der Technik wie jeder anderen, nimmt aber ihr inhärentes Restrisiko in Kauf, wie bei jeder anderen Technik auch.


  • Jana vor 3 Monaten Link zum Kommentar

    Es ist noch viel zu früh um sich mit sowas zu beschäftigen.

Zeige alle Kommentare

Empfohlene Artikel

Dank ist diese Seite frei von Werbebannern