KI und Datenschutz KI is watching you? – Künstliche Intelligenz und Datenschutz im Einklang

Quelle: Pressemitteilung von Twilio 4 min Lesedauer

Anbieter zum Thema

In einer Welt, in der künstliche Intelligenz (KI) auch im B2B Marketing eine immer größere Rolle spielt, kommt früher oder später die Frage auf, wie Innovation und Datenschutz in Einklang gebracht werden können. Dieser Artikel gibt Unternehmen 4 praktische Hinweise dazu an die Hand.

KI is watching you? – Datenschutz ist im Umgang mit künstlicher Intelligenz ein wichtiger Faktor. (Bild:  frei lizenziert / Unsplash)
KI is watching you? – Datenschutz ist im Umgang mit künstlicher Intelligenz ein wichtiger Faktor.
(Bild: frei lizenziert / Unsplash)

Individuelle und einmalige Kundenerlebnisse in Echtzeit zu erschaffen ist eine Aufgabe, für die Unternehmen zunehmend auf Anwendungen mit künstlicher Intelligenz setzen. Dies ist nur eine Erkenntnis aus dem aktuellen „State of Personalization Report 2023“ von Twilio.

Wer jedoch durch KI wirksame Ergebnisse und ein erhöhtes Customer Engagement erwartet, muss zunächst in die Datenqualität investieren und sollte dazu verstärkt First-Party-Daten nutzen. In diesem Zusammenhang melden immerhin schon 97 Prozent der befragten Organisationen, dass sie die Bedenken der Verbraucher hinsichtlich des Datenschutzes ernst nehmen.

Welche Anforderungen im Datenschutz sollten Unternehmen jedoch konkret beachten, wenn sie KI-Lösungen für eine individuelle Kundenansprache in Marketing, Vertrieb oder Service verwenden möchten?

Folgende Aspekte sind besonders relevant:

Die Bedeutung von Datenschutz im Bereich der KI

Der Datenschutz im KI-Umfeld betrifft den Umgang mit personenbezogenen und sensiblen Daten beim Einsatz von KI-Algorithmen. Um sicherzustellen, dass KI-Systeme die Rechte des Einzelnen auf Datenschutz respektieren, müssen Praktiken wie Datenanonymisierung, sichere Datenspeicherung und transparente Richtlinien zur Datennutzung eingeführt werden. Das Sammeln, Analysieren und Speichern von persönlichen Kundendaten ist jedoch grundsätzlich für die Effektivität von KI-Algorithmen unerlässlich. Der Umgang mit derartig sensiblen Daten beinhaltet jedoch ebenfalls Risiken.

Beispielsweise könnte ein Fehler im Code dazu führen, dass ein Chatbot die Bestellhistorie eines Benutzers während eines Livechats einem anderen Benutzer anzeigt. Das wiederum wäre ein schwerwiegender Verstoß gegen den Datenschutz.

Voreingenommenheit

KI-Systeme werden anhand riesiger Datenmengen trainiert und zur Erstellung von Vorhersagen verwendet. Diese Vorhersagen werden dazu genutzt, die Interaktion mit dem Kunden zu steuern oder ihm Empfehlungen auszusprechen. Was würde jedoch passieren, wenn die Trainingsdaten Verzerrungen enthalten? Wie würde diese Unwucht das resultierende Modell falsch beeinflussen?

Beispiel: Ein KI-Chatbot wird im Kundendienst eingesetzt und ist hauptsächlich für die Bearbeitung von Produktanfragen entwickelt worden. Er wurde mehrheitlich auf Daten von Kunden trainiert, die hochwertige, teure Produkte gekauft haben. Erkundigt sich ein Kunde aber nach einem preisgünstigen Produkt, gibt der Chatbot weniger detaillierte Antworten oder leitet den Kunden auf eine Produktseite weiter, anstatt persönliche Hilfe anzubieten.

Es zeigt sich, dass der Chatbot eine Voreingenommenheit gegenüber Käufern von High-End-Produkten entwickelt hat und ihnen mehr Aufmerksamkeit und personalisierten Service zukommen lässt. Diese Art von Voreingenommenheit wirkt sich negativ auf das Kundenerlebnis aus. Das Verhalten des Chatbots zeigt zudem, dass er Kunden je nach ihrer Kaufhistorie besser oder schlechter behandelt.

Sicherheit

Das gravierendste Datenschutzrisiko liegt jedoch in der grundlegenden IT-Sicherheit. Problematisch ist beispielsweise, wenn die gespeicherten Kundendaten nicht verschlüsselt sind oder keine Zugriffskontrolle für die Daten eingerichtet wurde. Es ist also kein Wunder, dass 42 Prozent der Marken sagen, dass die größte Herausforderung bei der Kundenbindung im Jahr 2023 darin besteht, ein Gleichgewicht zwischen Sicherheit und Kundenerlebnis zu finden.

Die folgenden Best Practices zeigen auf, wie ein sicherer und vertrauenswürdiger KI-gesteuerter Kundenservice aufzubauen ist:

1. Daten anonymisieren

Die Anonymisierung von Daten beinhaltet das Entfernen oder Ändern von persönlichen Identifikatoren in den Datensätzen. Dadurch wird verhindert, dass Personen identifiziert oder mit den Daten in Verbindung gebracht werden können. Wenn diese Daten für das Training von KI-Modellen verwendet werden, haben Anwender auch dann nützliche Daten zur Verfügung, ohne die Privatsphäre der Kunden zu gefährden. Selbst bei einem Verstoß können die durchgesickerten Daten nicht bestimmten Kunden zugeordnet werden.

Eine Möglichkeit, den Umgang mit Daten innerhalb von KI-Modellen zu regeln, ist die Privacy Ladder. Für jedes KI-gesteuerte Produkt oder Feature, das Kunden verwenden möchten, zeigt diese Leiter (und ihre Stufen) die Art der vom Modell verwendeten Daten und ob das Modell ausschließlich für sie selbst oder für mehrere Kunden bestimmt ist. Während einige es vorziehen, nur isolierte Modelle zu verwenden, sind andere durchaus offen dafür, Daten zu teilen und von Modellen zu profitieren, die breitere, repräsentativere Datensätze verwenden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

2. Menschliche Aufsicht integrieren

Unternehmen müssen menschliche Faktoren in alle KI-Entscheidungsprozesse einbeziehen. Ein menschlicher Vorgesetzter sollte die von KI-Systemen getroffenen Entscheidungen überprüfen und validieren, um eine zusätzliche Kontrollebene zu schaffen. Auf diese Weise werden Fehler oder Verzerrungen erkannt, die die KI möglicherweise übersehen hat.

3. Richtlinien zur Datenaufbewahrung implementieren

Kundendaten haben ein Verfallsdatum und müssen nicht ewig vorgehalten werden. Anwender sollten sie daher nur so lange aufbewahren, wie sie für wichtige Prozesse notwendig sind, und sie dann löschen. Indem die Aufbewahrungsdauer von Kundendaten begrenzt wird, verringern Unternehmen das Risiko eines unbefugten Zugriffs oder von Datenschutzverletzungen.

Richtlinien zur Datenaufbewahrung legen darüber hinaus fest, wie lange Daten zu speichern und wann sie zu löschen sind. Dadurch wird nicht nur der Datenschutz verbessert, sondern auch die Einhaltung verschiedener Datenschutzgesetze wie DSGVO, HIPAA, CCPA usw. sichergestellt.

4. Transparenz schaffen

Transparenz gegenüber Kunden ist wichtig, um deren Vertrauen zu gewinnen. Entsprechend haben Kunden ein Recht darauf zu erfahren, wie Unternehmen ihre Daten verwenden. Eine Möglichkeit besteht in der Verwendung einer KI-Nährwertkennzeichnung. Diese Etiketten bieten einen klaren und präzisen Überblick darüber, wie ein KI-Modell Daten verwendet, sowie über den Grad des Datenschutzes. Da ein Großteil der modernen KI-Nutzung eher undurchsichtig ist, ist ein hohes Maß an Transparenz für die Kunden eine vertrauensfördernde Maßnahme, die den Charakter eines Wettbewerbsvorteils bekommt.

Fazit

Der Einsatz von KI im Kundenservice wird vielen Unternehmen langfristig große Vorteile bringen. Allerdings ist es wichtig, sensiblen Kundendaten angemessen zu behandeln und den Datenschutz zu gewährleisten. Falsch gehandhabte Daten, Modellverzerrungen oder unsichere Praktiken können den Ruf eines Unternehmens schädigen oder sogar rechtliche oder finanzielle Konsequenzen nach sich ziehen.

(ID:49859733)