Ethik Die Ethik der Künstlichen Intelligenz

Von Julia Krause Lesedauer: 8 min

Anbieter zum Thema

Der Begriff „Künstliche Intelligenz“ (KI) taucht erstmals 1956 in den USA auf. Was KI heute schon kann, ist faszinierend. Aber ethische Fragen bleiben bislang unterbelichtet. Markus Dohm beschäftigt sich mit den aktuelle Entwicklungen: Seiner Meinung nach ist KI ohne menschliche Intelligenz (noch) nicht möglich.

Menschliche Fähigkeiten können mit der steigenden Anzahl von Rechenoperationen moderner Prozessoren und schnelleren Speicherelementen simuliert werden. Aber was genau braucht es wirklich, um menschliche Intelligenz vollständig zu imitieren?
Menschliche Fähigkeiten können mit der steigenden Anzahl von Rechenoperationen moderner Prozessoren und schnelleren Speicherelementen simuliert werden. Aber was genau braucht es wirklich, um menschliche Intelligenz vollständig zu imitieren?
(Bild: gemeinfrei / Unsplash)

Schachprogramme waren es, die der amerikanische Informatiker John McCarthy 1956 auf seiner Tagung am Dartmouth College vorstellte. Inspiriert war er von Alan Turing, der den ersten Schachcomputer entwickelte und wenige Jahre zuvor mit einem Beitrag über „Computing Machinery and Intelligence“ brillierte. Bis zu seinem Tod im Jahr 1954 legte Turing die theoretischen Grundlagen für Computer, die den Menschen vollständig imitieren sollten. Er prognostizierte, dass es im Jahr 2000 soweit sein würde. Heute wissen wir, dass menschliche Fähigkeiten mit der steigenden Anzahl von Rechenoperationen moderner Prozessoren und schnelleren Speicherelementen simuliert werden können. Aber was genau braucht es wirklich, um menschliche Intelligenz vollständig zu imitieren?

Kognitive Leistungen des menschlichen Gehirns

Über die menschliche Intelligenz forscht die Wissenschaft seit Jahrhunderten und versucht, eine allgemein gültige Theorie zu formulieren. Sie wird sprachlich oft als Oberbegriff für kognitive Leistungen des menschlichen Gehirns verwendet. Stark verkürzt subsumieren Psychologen darunter die Fähigkeiten des Menschen, sich selber und seine Umwelt wahrzunehmen, Informationen zu identifizieren und zu differenzieren, sie zu verarbeiten und daraus logische Schlussfolgerungen, Erkenntnisse und Handlungsoptionen abzuleiten. Die Grundlagen für diese Fähigkeiten werden zum Teil angeboren und als fluide Intelligenz bezeichnet. Übertragen auf einen Computer bedeutet fluide Intelligenz praktisch die Verarbeitungsgeschwindigkeit und -kompetenz sowie die Speicherkapazität im Arbeitsgedächtnis.

Neben der fluiden unterscheiden Psychologen die kristalline Intelligenz, die im Laufe des Lebens durch Lernen erworben wird. Diese umfasst sowohl Faktenwissen als auch implizit Gelerntes. Darunter fallen Verhaltensweisen, trainierte Fähigkeiten wie Schwimmen oder Fahrradfahren. Mathematische oder sprachliche Begabungen sowie soziale und emotionale Kompetenzen sind Ergebnisse kulturell geprägter Lernprozesse. Intelligenz wird also als eine Fähigkeit beschrieben, das im Leben erworbene Wissen über seine Umwelt und sich selber anzuwenden, sich zu positionieren und eine Meinung zu bilden, sich adäquat zu verhalten sowie auf konkrete Fragen sinnvolle Lösungen zu finden. Dem Menschen stehen dafür ethische, moralische und soziale Kategorien zur Verfügung, wie er seine Meinung bildet und handelt. Diese Einflussfaktoren sind durch die Weltreligionen, die Aufklärung, durch Gesetze und allgemeinverbindliche Normen wie den kategorischen Imperativ von Immanuel Kant über Jahrhunderte entstanden. Sie bilden ein Wertegerüst, mit dem der Mensch über das rein Faktische hinweg sein Verhalten steuert und überprüft.

Wie funktioniert KI?

Künstliche Intelligenz orientiert sich am menschlichen Intelligenzbegriff und versucht, die Erkenntnis- und Entscheidungsfähigkeit des Menschen zu imitieren. Schon heute gelingt es zumindest, KI-Systeme intelligent erscheinen zu lassen. Sie sind in der Lage, große Datenmengen in kurzer Zeit mit von Menschen geschriebenen Algorithmen auf Muster hin zu analysieren. Den Algorithmen kommt hierbei eine Schlüsselfunktion zu. Darin sind Anweisungen definiert, um ein Problem systematisch zu lösen. Wie ein Bauplan oder eine Gebrauchsanweisung verfolgt der Algorithmus diesen einen und vorgegebenen Weg und führt zu einem eindeutigen Ergebnis. Um die Leistungsfähigkeit von KI zu steigern, entwickelten Neurowissenschaftler und Informatiker Künstliche Neuronale Netze (KNN), die sich am biologischen Vorbild der Vernetzung von Neuronen im Gehirn orientieren. KNN sind in der Lage, sich jederzeit durch neue Informationen, die sie bei Lernprozessen ähnlich wie das Gehirn verarbeiten, neu zu vernetzen oder alte Verbindungen höher oder geringer zu gewichten oder vollständig aufzulösen. Durch die KNN sind auch KI-Algorithmen heute in der Lage, bei ihrer Anwendung zu „lernen“, sich also selbständig weiterzuentwickeln. Dieser Prozess wird als Machine oder Deep Learning bezeichnet.

Was der Mensch als Erkenntnis speichert, jederzeit erinnern und wieder anwenden kann, bedeutet bei den Maschinen, dass sie ihren Algorithmus „umschreiben“, um die ihnen gestellten Aufgaben immer besser lösen zu können. Aber dabei verlassen sie nicht den vorgezeichneten Weg der Algorithmen ihrer Aufgabe. Zumindest bisher nur selten, wie das Beispiel aus dem Forschungslabor von Facebook zeigte. 2017 mussten die Facebook-Programmierer ein KI-System aus zwei Bots abschalten, als sie bemerkten, dass sich die beiden in einer selbsterfundenen Sprache „unterhielten“. Die Programmierer hatten vergessen, den Bots vorzuschreiben, in Englisch zu kommunizieren. Diese wollten ihre Kommunikation mutmaßlich effektiver gestalten und sprachen ein Kauderwelsch, den sie allerdings untereinander verstanden. Den KI-Experte war das nicht mehr geheuer und sie schalteten die Bob und Alice getauften Bots kurzerhand ab. Dhruv Batra, Gastwissenschaftler von Georgia Tech bei Facebook AI Research (FAIR), gab danach zu: „Es ist wichtig, sich daran zu erinnern, dass es keine zweisprachigen Sprecher von KI und menschlichen Sprachen gibt. Wir verstehen bereits im Allgemeinen nicht, wie komplexe KIs denken, weil wir nicht wirklich in ihren Denkprozess sehen können. Das Hinzufügen von KI-zu-KI-Gesprächen zu diesem Szenario würde dieses Problem nur noch verschärfen.“

Was kann KI heute?

Vielfach begegnen Internet- und vor allem Smartphone-Nutzern im Alltag KI-Systeme, ohne dass sie sie erkennen. Eine Studie des amerikanischen Softwareunternehmens Pega ergab beispielsweise, dass nur 33 Prozent der weltweit 6.000 Befragten bewusst ist, wenn sie KI-Lösungen nutzen. Defacto nutzen aber 77 Prozent KI-Systeme. Dies beginnt schon bei der Anfrage bei einer Suchmaschine oder beim Shoppen auf den großen Handelsplattformen, wo die Kaufempfehlungen längst einen beträchtlichen Umsatzanteil einbringen. Auch die Gesichtserkennung auf dem Smartphone oder bei einer Plauderei mit Siri, Cortana oder Alexa arbeiten im Hintergrund KI. Beeindruckende KI-Lösungen stehen hinter Übersetzungs- und Diktierprogramme sowie solche, die natürliche Sprache in Text umwandeln sowie umgekehrt selber in natürlicher Sprache Unterhaltungen führen können. Solche Chatbots genannten Programme geben telefonische Auskunft, arbeiten auf Webseiten, um eine menschliche Interaktion zu simulieren.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Auch in Navigationsgeräten arbeiten im Hintergrund KI-Lösungen. Und im Auto von Morgen sorgt KI zusammen mit einer Unzahl von Sensorgen und Aktoren für ein autonomes Fahren. Segensreich sind KI heute schon in Wissenschaft, Medizin, Marketing und selbst für Juristen, wenn sie große Datenbestände durchforsten, um bei einem vorgegebenen Problem Lösungen zu finden. In der Krebstherapie analysieren KI Röntgen oder CT-Aufnahmen, um sie mit abertausenden Aufnahmen zu vergleichen und einen Tumor zu identifizieren. In vielen Forschungsgebieten kommen KI als Hilfswissenschaftler zum Einsatz, indem sie beispielsweise riesige Datenmengen wie bei der Genanalyse in Windeseile abgleichen. KI arbeiten als Anwaltsgehilfen und durchwühlen Urteilsdatenbanken. Und sogar einfache Texte können die ersten Text-KIs bereits schreiben, wenn sie etwas Börsen- oder Sportnachrichten automatisch zu Standardtexten zusammenfügen. Im Marketing analysieren KI Verbraucherverhalten; Datenanalysen ermitteln Umsatzpotenziale, liefern personalisierte Werbung aus und stellen den Marketern Grundlagen für deren Gestaltung zur Verfügung.

Was darf KI und wer kontrolliert bei Irrtümern?

Viele KI-Enthusiasten hoffen auf den Tag, der allerdings noch 20 bis 40 Jahre entfernt sein dürfte, bis eine KI intellektuelle Fähigkeiten haben wird. Vielleicht gelingt es mit Quantencomputern sogar schon früher, noch größere Datenbestände auszuwerten und mit Hilfe von KNN sogar mit einer menschlichen und ethisch orientierten Entscheidungsmatrix zu ertüchtigen. Davon abgesehen, stellen sich aber bei den heutigen Anwendungen mit schwacher KI schon ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Heute schon sind erste Lösungen für das Bewerbermanagement bei Recruiting-Prozessen im Einsatz. Bei Amazon soll es bereits vorgekommen sein, dass Frauen bei der Vorauswahl benachteiligt wurden. Auch bei Finanzdienstleistern sind KIs im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der „falschen Adresse“ oder einem Schufa-Eintrag kann es schon länger passieren, dass eine Versicherung oder ein Kredit verweigert werden.

Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine Ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitet das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI erzielen und gleichzeitig die geringst möglichen Risiken eingehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten („menschenzentrierten“) Ansatz für die KI.

Das Gremium hat auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider aber fehlen Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten. Denn eines ist klar: Eine wirtschaftlich oder aus Sicht von Behörden erfolgreiche KI werden die Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

KI-Systeme müssen mit offenem Visier agieren und überwacht werden

Hier muss die EU klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese sich zuvor als solche zu erkennen gibt. Im Zweifelsfall muss der menschliche Nutzer das Recht erhalten, eine natürliche Person des Betreibers oder einer externen Stelle mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre selbständig sich umschreibenden Algorithmen durch Testläufe zu überwachen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen regelmäßig vertiefen. Denkbar wäre auch, wenn sich große Unternehmen einen eigenen Ethikrat mit externen Experten geben, der sich Weiterentwicklung der Anwendungen überwacht. Auch und vor allem beim KI-Einsatz staatlicher Stellen sind Sicherheitslinien einzuziehen, die nicht überschritten werden dürfen. So sehr sich auch Verwaltungshandeln künftig mittels KI vereinfachen lassen dürfte, müssen staatliche Stellen ein enges Korsett erhalten, um die Freiheitsrechte der Bürger nicht schleichend einzuschränken.

Fazit: Ein starkes Werkzeug braucht Sicherheitsschalter

Wie mächtig die KI heute schon ist und in Zukunft erst noch werden wird, können momentan nur wenige Experten einschätzen. Klar ist, dass sie ein starkes Werkzeug in der Hand von Staat und Unternehmen aber auch künftig von Nicht Regierungsorganisationen und der Zivilgesellschaft ist. Wie früher bei der Dampfmaschine können verheerende Unfälle passieren, wenn zu viel Druck auf dem Kessel ist. Erst die regelmäßige Überprüfung durch unabhängige Sachverständige hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Bei der KI mag der Vergleich mit einem Atomkraftwerk vielleicht verwegen klingen. Aber ohne Überwachung wird es nicht gehen. Eine fehlgeleitete KI kann verheerende Wirkung entfalten, wie das Beispiel Facebook 2017 zeigte. Am Ende sollte es nicht so kommen wie in Goethes Zauberlehrling: „Ach, da kommt der Meister! Herr, die Not ist groß! Die ich rief, die Geister, werd ich nun nicht los.“

* Markus Dohm ist Leiter Academy & Life Care bei TÜV Rheinland.

(ID:46043241)