Künstliche Intelligenz

KI muss verständlich bleiben

| Autor / Redakteur: Dr. Kay Knoche / Georgina Bott

Denn wir wissen nicht, was sie tun - KI sollte verständlich bleiben
Denn wir wissen nicht, was sie tun - KI sollte verständlich bleiben (Bild: gemeinfrei / Unsplash)

Die Entscheidungsfindung von KI-Algorithmen ist oft so komplex, dass Menschen sie nicht mehr nachvollziehen können. Damit geht ein Kontrollverlust einher, der in vielen Fällen zu Problemen führt. Die Anbieter von KI-Plattformen sollten gegensteuern und ihre Systeme so aufbereiten, dass auch die jeweiligen Domänenexperten die Künstliche Intelligenz beherrschen können.

Mit der zunehmenden Verbreitung von Künstlicher Intelligenz wächst auch die Sorge vor dieser Technologie als großer, undurchschaubarer „Black Box“. KI, so die Befürchtung, werde irgendwann uns kontrollieren anstatt wir sie. Auch wenn man nicht so weit gehen muss wie Tesla-Chef Elon Musk das immer wieder tut, indem er etwa vor Künstlicher Intelligenz als „unsterblichem Diktator“ warnt: völlig unbegründet sind diese Sorgen nicht. Künstliche Intelligenz ist tatsächlich in vielen Fällen so intransparent, dass Menschen überhaupt nicht mehr oder nur noch sehr schwer nachvollziehen können, wie sie zu ihren Entscheidungen kommt – und das bedeutet in der Tat Kontrollverlust.

Das gilt insbesondere für die Methodik des Deep Learning, eine Teildisziplin des Machine Learning. Sie wird vor allem dazu genutzt, um aus besonders großen Datenbeständen Muster und Modelle zu erkennen und dann daraus Prognosen und Entscheidungen abzuleiten. Dabei kommen künstliche neuronale Netze zum Einsatz, die dem menschlichen Gehirn nachempfunden sind, und während des Lernvorgangs immer wieder neu verknüpft werden. Die Rolle des Menschen beschränkt sich dabei im Grunde darauf, die Daten für den Lernvorgang zur Verfügung zu stellen. Auf den Ablauf und die Ergebnisse des Vorgangs hat er keinen Einfluss mehr. Dadurch lässt sich auch am Ende nicht mehr durchgängig zurückverfolgen, anhand welcher Muster genau die KI eine konkrete Entscheidung getroffen hat.

Zukünftige Einsatzpotentiale Künstlicher Intelligenz

Geschäftsprozesse

Zukünftige Einsatzpotentiale Künstlicher Intelligenz

12.06.19 - Viele Unternehmen werden künftig beim Gestalten ihrer Geschäftsprozesse auch auf Künstliche Intelligenz setzen. Damit einher geht ein großer Change-Management-Bedarf in den Unternehmen, auf den sich beispielsweise die Beraterbranche einstellen muss. lesen

Intransparenz hat problematische Auswirkungen in der Praxis

Aber auch die übrigen Machine-Learning-Verfahren sind – zumindest für Normalsterbliche – meist nicht zu durchschauen. Zwar mögen vielleicht KI-Experten wie spezialisierte Entwickler oder Data Scientists noch eindeutig nachvollziehen können, wie diese Verfahren zu ihren Ergebnissen kommen; ihre Anwender können das in aller Regel aber nicht. Das ist in der Praxis durchaus problematisch.

Zum Beispiel beim Online-Shopping: Viele Internet-Händler bieten ihren Kunden die Möglichkeit, ihre Bestellungen per Rechnung zu bezahlen. Bevor ihnen dies gestattet wird, findet aber häufig im Hintergrund eine KI-basierte Bonitätsprüfung statt. Der Online-Händler prüft, beziehungsweise lässt von einem Dienstleister prüfen, ob der Käufer kreditwürdig ist. Sind Händler und Dienstleister als Anwender des entsprechenden Verfahrens nicht in der Lage nachzuvollziehen, wie diese Entscheidung gefällt wird und welche Faktoren für sie herangezogen werden, können sie auch nicht sicher ausschließen, dass dabei Diskriminierung stattfindet – etwa durch die Einbeziehung der Herkunft, des Alters oder des Geschlechts; und sie können es im Zweifelsfall auch nicht nachweisen.

Bleibt das so, wird dieses Problem mit der steigenden Verbreitung von Künstlicher Intelligenz immer mehr Lebensbereiche durchdringen. So ist etwa vorstellbar, dass Unternehmen Entscheidungen über Personaleinstellungen künftig von Machine-Learning-basierten Systemen treffen lassen; oder Grundschulen mit solchen Systemen die Übertrittsempfehlungen für die Schüler am Ende der vierten Klasse ermitteln; oder Gerichte die Sozialprognosen von Straftätern damit erstellen. Können die verantwortlichen Personaler, Lehrer oder Gutachter diese Entscheidungen nicht durchschauen, können sie sie auch nicht gegenüber den Bewerbern, den Schülern und ihren Eltern oder den Verurteilten und ihren Anwälten begründen – und im Streitfall auch nicht überprüfen, ob sie rechtmäßig zustande gekommen sind.

Aus diesen Gründen darf die Künstliche Intelligenz nicht weiterhin allein den IT-Firmen und IT-Fachexperten überlassen werden.

KI muss sich auch ohne IT-Expertise in folgenden Entscheidungen durchschauen lassen:

  • Gesetze
  • ethische Grundsätze
  • Werte und Ideale der freiheitlich-demokratischen Gesellschaft.

Die Domänenexperten in den Unternehmen und Behörden, in deren Verantwortungsgebiet die Anwendung der Künstlichen Intelligenz fällt, müssen steuern können, welche Faktoren bei der Entscheidungsfindung berücksichtigt werden; sie müssen wissen, wie die Entscheidungen grundsätzlich zustande kommen; und sie müssen im Zweifelsfall in der Lage sein, jede einzelne Entscheidung zu „re-engineeren“, sprich: zurückzuverfolgen.

Landkarte gibt Überblick zum Thema KI in Deutschland

Künstliche Intelligenz

Landkarte gibt Überblick zum Thema KI in Deutschland

03.06.19 - Wie weit ist die Forschung rund um Künstliche Intelligenz (KI) in Deutschland? Wo wird aktuellen zu den verschiedenen KI-Schwerpunkten geforscht? Und welche neuen KI-Anwendungen gibt es auf dem Markt? Eine interaktive Karte der Plattform Lernende Systeme gibt einen Überblick. lesen

KI-Plattformen müssen Domänenexperten Kontrolle bieten

Erreichen lässt sich das, indem die Anbieter ihre KI-Plattformen und -Lösungen entsprechend aufbereiten. Sie dürfen nicht einfach länger nur die blanke KI-Technologie liefern, sondern sollten sie um eine Management-Ebene erweitern, die es den Domänenexperten ermöglicht, die KI zu kontrollieren. Wie das konkret aussehen kann, zeigt das Beispiel einer „Next Best Action“-Engine für das Kundenmanagement. Sie schlägt Mitarbeitern und IT-Systemen bei jedem Kontakt mit Kunden automatisch diejenigen Aktionen vor, die für den Kunden und das Unternehmen gleichermaßen am besten sind.

Zu ihren Entscheidungen kommt die Engine dabei in einem dreistufigen Verfahren:

  • Der erste Schritt besteht in der Anwendung hart kodierter deterministischer Regeln a la: wenn X dann nicht Y. Sie dienen dazu, zunächst einmal all diejenigen Optionen herauszufiltern, die grundsätzlich nicht in Frage kommen, weil sie unsinnig sind. So lässt sich mit diesen Filterregeln beispielsweise von vornherein ausschließen, dass einem Rentner eine Berufsunfähigkeitsversicherung angeboten wird.
  • Im zweiten Schritt kommt dann ein analytisches Modell zum Einsatz, das alle verbliebenen Optionen mit Scoring-Werten versieht. Mit Hilfe eines Machine-Learning-Verfahrens ermittelt die Engine anhand der historischen Daten sämtlicher Kunden sowie der aktuellen, kontextuellen Daten des jeweiligen individuellen Kunden, wie gut die Aussicht der einzelnen Optionen auf Erfolg ist. Sie prognostiziert mit ihren Scoring-Werten, wie hoch erfahrungsgemäß die Wahrscheinlichkeit jeder noch möglichen Option ist, vom Kunden angenommen zu werden.
  • Der dritte Schritt schließlich besteht darin, Optionen mit gleichen Wahrscheinlichkeiten anhand der gewünschten Ziele zu priorisieren. In einem Verkaufsprozess beispielsweise schlägt die Engine im Falle von mehreren Angeboten mit identischen Scoring-Werten dasjenige vor, welches dem Unternehmen die höchste Marge bietet. Geht es in einem Call-Center-Gespräch um die Lösung eines Kundenproblems, schlägt die Engine dem Call-Center-Mitarbeiter die Antwort vor, die erfahrungsgemäß zur geringsten Bearbeitungszeit für den Mitarbeiter führt.

Der Knackpunkt in Sachen Transparenz liegt dabei natürlich im analytischen Modell des zweiten Schritts. Die Filterregeln des ersten Schritts und die Priorisierungen des dritten sind klar und eindeutig einstellbar und nachvollziehbar. Die zusätzlich nötige Transparenz über den zweiten Schritt stellt die „Next Best Action“-Engine durch modellierbare Entscheidungsstrategien her. Verantwortliche für Vertrieb und Kundenmanagement haben die Möglichkeit, die Entscheidungswege der Engine aus einzelnen Bausteinen selbst zusammenzustellen. Dabei zeigt ihnen die Software auf, welche Einflussfaktoren mit welcher Gewichtung in das analytische Modell einfließen, und können bei Bedarf einzelne Faktoren ausschließen. Dadurch sind sie auch in der Lage, jede von der Engine getroffene Entscheidung nachzuvollziehen und zu überprüfen, warum sie so ausgefallen ist und nicht anders. Dafür benötigen sie zwar Fachexpertise für Vertrieb und Kundenbeziehungen, aber keine dedizierte IT-Ausbildung. Den zugrunde liegenden Algorithmus müssen sich nicht verstehen.

Biased Algorithms – Wenn KI gefährlich wird

Künstliche Intelligenz und Ethik

Biased Algorithms – Wenn KI gefährlich wird

06.09.18 - Das Vertrauen in die Künstliche Intelligenz ist enorm. Doch was passiert, wenn die Algorithmen fehlerhaft sind, „verzerrt“ und die Datenauswahl einseitig? Und welche Folgen hat das für Freiheit, Demokratie, für soziale Gerechtigkeit und Frieden? Der Artikel thematisiert einige ethische Aspekte der KI. lesen

Transparente KI ist nicht gleich besser

Das verständliche Bedürfnis nach transparenter KI bedeutet aber nicht, dass sie per se die bessere KI ist. Ganz im Gegenteil: Intransparente KI kann in vielen Fällen bessere im Sinne von zutreffendere Ergebnisse liefern – ganz einfach deshalb, weil sie in den Methoden und Entscheidungskriterien, die sie verwendet, nicht eingeschränkt wird. Nur gibt es eben auch viele Fälle, in denen der Preis dafür zu hoch ist. Deshalb gilt es beim Einsatz von Künstlicher Intelligenz immer abzuwägen, was im konkreten Fall schwerer wiegt: Die möglicherweise besseren Ergebnisse oder die Kontrollierbarkeit der KI.

Bei Entscheidungen wie Kreditvergaben, Personaleinstellungen oder Schulübertritten ist die Antwort vermutlich eindeutig: Hier spricht vieles dafür, sich auf den Deal „weniger akkurate Ergebnisse zugunsten von Transparenz“ einzulassen. Bei einem Dating-Portal dagegen dürfte fehlende Durchschaubarkeit weniger schwer ins Gewicht fallen. Wer sich dort anmeldet, möchte vor allem eines: einen passenden Partner finden. Wie dieser Partner gefunden wird, dürfte den meisten ziemlich egal sein. Ähnlich verhält es sich im medizinischen Bereich. Bei schweren Krankheiten werden es die meisten Menschen vermutlich vorziehen, wenn eine Künstliche Intelligenz die bestmögliche Therapie für sie ermittelt; und sie werden dafür gerne darauf verzichten zu wissen, wie die KI auf diese Therapie gekommen ist.

Einen allgemeingültigen Maßstab, wo transparente KI zum Einsatz kommen sollte und wo intransparente KI die bessere Alternative ist, gibt es nicht. Diese Entscheidung müssen Politik, Gesellschaft und Domänenexperten für jeden Lebensbereich einzeln treffen; und diese Entscheidung kann ihnen Künstliche Intelligenz auch nicht abnehmen.

*Dr. Kay Knoche ist Solution Consultant Next Best Action Marketing bei Pegasystems.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46010493 / Data Marketing)