B4B Schwaben

Holen Sie sich B4BSCHWABEN.de auf Ihr Smartphone.
Klicken Sie auf das Symbol zum „Teilen” in der Toolbar von Safari. Finden Sie die Option „Zum Home-Bildschirm”. Mit einem Klick auf „Hinzufügen” ist die Installation abgeschlossen! Schon ist die Website als App auf Ihrem iOS-Gerät installiert.

 / 
B4B Nachrichten  / 
Augsburg  / 
Wie Ethik Künstliche Intelligenz ins Stocken bringt
Anzeige

Wir benötigen Ihre Zustimmung zum Laden dieser Anzeige!

Wir verwenden einen Drittanbieterdienst, um Anzeigen darzustellen, die möglicherweise Daten über Ihre Aktivität sammeln. Bitte überprüfen Sie die Details und akzeptieren Sie den Dienst, um diese Anzeige zu sehen.

Dieser Inhalt darf aufgrund von Trackern, die dem Besucher nicht bekannt gegeben werden, nicht geladen werden. Der Website-Eigentümer muss die Website mit seinem CMP einrichten, um diesen Inhalt in die Liste der verwendeten Technologien aufzunehmen.

powered by Usercentrics Consent Management Platform
Kommentar

Wie Ethik Künstliche Intelligenz ins Stocken bringt

 Symbolbild. Künstliche Intelligenz. Foto: lassedesignen – stock.adobe.com

Dr. Andreas Kopton, Präsident der IHK Schwaben, plädierte auf der AI Convention Mitte Januar dafür, bei Fragen zur Ethik Künstlicher Intelligenz nicht deren Chancen außer Acht zu lassen. Wird ihr Risiko höher bewertet als ihr Potenzial?

Künstliche Intelligenz versucht den menschlichen Geist maschinell nachzuahmen. Autonom handeln, eigene Entscheidungen fällen und lernen, noch besser zu werden. Maschinen spielen Schach, lösen Rubik-Würfel, unterhalten sich mit uns und führen Befehle aus. Hand in Hand mit KI geht die Frage nach der Ethik – und die Diskussion darüber. Diese bremst die Zukunftstechnologie. Zu recht?

Ethik ist eine Disziplin, die menschliches Handeln bewertet. Handelt eine Maschine wie ein Mensch, unterliegt sie denselben Regeln. Oder? Dafür muss zunächst geklärt werden, wie eine Mensch wann handeln sollte. Das allein ist eine Mammutaufgabe, der sich Philosophen seit der Antike stellen, ohne auf einen allgemeingültigen Konsens zu kommen. Machen wir die Entwicklung Künstlicher Intelligenz an der Klärung jeder ethischen Problemstellung fest, können wir die Technik wohl gleich als gescheitert bezeichnen.

Anzeige

Wir benötigen Ihre Zustimmung zum Laden dieser Anzeige!

Wir verwenden einen Drittanbieterdienst, um Anzeigen darzustellen, die möglicherweise Daten über Ihre Aktivität sammeln. Bitte überprüfen Sie die Details und akzeptieren Sie den Dienst, um diese Anzeige zu sehen.

Dieser Inhalt darf aufgrund von Trackern, die dem Besucher nicht bekannt gegeben werden, nicht geladen werden. Der Website-Eigentümer muss die Website mit seinem CMP einrichten, um diesen Inhalt in die Liste der verwendeten Technologien aufzunehmen.

powered by Usercentrics Consent Management Platform

Natürlich gibt es Normen, an die sich jeder halten muss und die über Programmierung auch einer Maschine beigebracht werden können. Isaac Asimov stellte bereits 1942 in einer Kurzgeschichte die Robotergesetze (Three Laws of Robotics) vor. Nach diesen darf ein Roboter keinem Menschen Schaden zufügen, muss ihm gehorchen und seine eigene Existenz schützen. Alles drei aber nur, wenn dadurch kein Mensch verletzt wird. Wie 2004 im Hollywood-Streifen „I, Robot“ demonstriert: kein perfektes System. Hier kommt die KI zum Schluss, dass sie die Menschheit nur beschützen kann, wenn sie die Menschen vor sich selbst schützt.

Zugegeben, ein extremes Beispiel über Leib und Leben. Dennoch: KI, die beim autonomen Fahren eingesetzt wird, steht in bestimmten Situationen vor der Entscheidung, wen sie eher schützen sollte: Insassen, Kind oder Rentner? Gleichzeitig rechnen Verfechter der Künstlichen Intelligenz vor, wie viele tausende Verkehrstote jährlich verhindert werden könnten. Ist es also nicht eher ethisch verwerflich, diese Technik zurückzuhalten, als sie einzusetzen?

Künstliche Intelligenz lernt durch Daten. Sie sieht, hört und liest mit. Daraus leitet sie Handlungen ab. Aber wie gehen wir mit den erhobenen Daten um? Wem gehören sie? Wer profitiert davon? Christiane Woopen, Sprecherin der Daten-Ethikkommission der Bundesregierung, sagte in einem Interview vom 4. Dezember 2018 bei Deutschlandfunk, es gehe darum, „das Individuum zu schützen vor Eingriffen in die Privatsphäre, vor allzu tiefen Persönlichkeits-Profilbildungen, in die die Person vielleicht gar nicht eingewilligt hat. Und es geht natürlich auch darum, den gesellschaftlichen Wohlstand, aber auch die Gerechtigkeit nicht aus dem Blick zu verlieren“. Ethische Künstliche Intelligenz könnte das Markenzeichen Europas werden. Ein schöner Gedanke. Vielleicht als letzter im Ziel, aber ethisch bis auf den i-Punkt korrekt. Wollen wir hier etwas schützen, das viele gar nicht mehr so wichtig nehmen? Siehe Social Media Accounts, Sprachsteuerung im Wohnzimmer und Smartphone in der Tasche.

Anzeige

Wir benötigen Ihre Zustimmung zum Laden dieser Anzeige!

Wir verwenden einen Drittanbieterdienst, um Anzeigen darzustellen, die möglicherweise Daten über Ihre Aktivität sammeln. Bitte überprüfen Sie die Details und akzeptieren Sie den Dienst, um diese Anzeige zu sehen.

Dieser Inhalt darf aufgrund von Trackern, die dem Besucher nicht bekannt gegeben werden, nicht geladen werden. Der Website-Eigentümer muss die Website mit seinem CMP einrichten, um diesen Inhalt in die Liste der verwendeten Technologien aufzunehmen.

powered by Usercentrics Consent Management Platform

KI erstellt und wertet Daten nicht nur aus, sie kann sie auch gezielt einsetzen. Algorithmen geben Informationen preis oder halten sie zurück, ganz wie gewünscht. Suchergebnisse werden anders gerankt, Werbung immer spezifizierter angezeigt. Regulierungen sind gefordert, die jedoch – wenn sie zu weit gehen – Geschäftsmodelle gerade im Online-Marketing und damit Unternehmen zerstören. Heißt nicht, dass Zugriffsort oder verwendetes Endgerät über den Preis eines Produktes bestimmen dürfen.

Ethik braucht einen Platz am Tisch, wenn wir über Künstliche Intelligenz diskutieren. Sie darf aber nicht den Raum beherrschen. Ihre Aufgabe ist, Vertrauen in die Technologie zu schaffen, damit wir nicht auf eine „wohlgesinnte KI“ hoffen müssen.

Artikel zum gleichen Thema