Wir müssen die Kontrolle behalten

Wir müssen die Kontrolle behalten
John C. Havens und Tom Gauld (Illustrationen)

Wir brauchen eine Ethik für alle Produkte und Dienstleistungen, die auf künstlicher Intelligenz (KI) basieren. Doch das funktioniert nur, wenn wir auch Kontrolle über die Daten bekommen, die Unternehmen über uns sammeln.

Liebes Europäisches Parlament: Ich danke dir – für die Datenschutz-Grundverordnung, auch DSGVO genannt, die seit Mai 2016 in Kraft ist. Diese Verordnung regelt EU-weit, wie Unternehmen und öffentliche Hand mit Daten von Privatpersonen umgehen dürfen.

Sie erweitert die Rechte der Bürger und sieht hohe Bußgelder vor für den Fall, dass ein Unternehmen gegen die Vorschriften verstößt – bis zu vier Prozent des weltweiten Umsatzes. Der neue EU-Datenschutz verpflichtet Unternehmen unter anderem dazu, Geräte mit Voreinstellungen auszuliefern, die eine Erhebung persönlicher Daten minimieren oder ausschließen. Zudem müssen die Unternehmen künftig die Folgen von automatisierter Datenverarbeitung abschätzen und sie den Behörden mitteilen. Die Behörden können bestimmte Methoden der Datenerhebung auch untersagen.
Manche finden diese Verordnung zu restriktiv. Ich finde sie befreiend. Andere finden sie zu kostspielig für Unternehmen. Ich finde, sie ist von unschätzbarem Wert. Mehr noch: Sie ist sogar die größte Chance für wirtschaftliche Innovation und persönliches Wohlergehen in der heutigen Gesellschaft. Vor allem, wenn es um die Verbindung von Datenschutz und künstlicher Intelligenz geht.

Ich habe bei Google gerade „GDPR Compliance“ (GDPR ist die englische Abkürzung der neuen Verordnung) eingegeben – und mehr als eine Viertelmillion Treffer erhalten. Ich bin auf Lösungen verschiedener Unternehmen gestoßen, die Kundendaten schützen sollen. Und auf eine Fülle von Dienstleistungen, die dabei helfen, die Rechenschaftspflichten der Verordnung einzuhalten. Der neue EU-Datenschutz hat bereits eine neue Industrie geschaffen.
Die Bußgelder werden erst ab 2018 greifen. Doch viele Unternehmen machen sich schon jetzt Gedanken darüber, wie sich die neuen Regeln für sie auswirken werden. Einer Umfrage zufolge geht mehr als die Hälfte der europäischen Unternehmen davon aus, dass sie unter der neuen Verordnung Geldstrafen zahlen müssten.

Die häufig beschworene „Personalisierung“ von Produkten und Dienstleistungen ist aus meiner Sicht eine völlig irreführende Bezeichnung. Ich finde zwar gut, dass Amazon durch den Einsatz künstlicher Intelligenz weiß, dass ich keine Horrorromane mag und dass ein smartes Thermostat meine Wohlfühltemperatur erkennt. Doch sind solche Dienste letztlich immer darauf ausgelegt, den Konsum weiter zu erhöhen. Dass ich ein Produkt kaufe, ist wichtiger als die Frage, wie ich es nutze. Und die Unternehmen verwenden intelligente Algorithmen, also künstliche Intelligenz, hauptsächlich deshalb, weil sie weitere Produkte und weiteres Zubehör verkaufen wollen und nicht, weil sie unser Leben verbessern möchten. Ethische Überlegungen zum Datenschutz spielen dabei keine oder nur eine untergeordnete Rolle.

Eine mögliche Lösung für unsere Probleme im Bereich Datenschutz und künstliche Intelligenz könnten sogenannte persönliche Datenökosysteme sein – im Englischen auch unter „Personal Information Management Service“ bekannt, kurz PIMS. Das sind Lösungen, die jedem Einzelnen erlauben, seine Daten sicher und eigenverantwortlich zu organisieren, zu kontrollieren und zu verbreiten. Der Nutzer kann seine Daten mithilfe solch eines PIMS ganz gezielt und sicher an Dienstleister wie etwa Onlineshops und Banken weitergeben. Beispiele für solche Dienste sind das britische HAT-Projekt und die australische Plattform Meeco.
 

Eine moralische Abwärtsspirale

Bevor Dienstleistungen wie Meeco zum Alltag gehören, ist die „Personalisierung“ durch Algorithmen nur dann von Nutzen, wenn wir Geld ausgeben und Produkte kaufen. Wenn Werte vor allem auf Basis von Käufen bemessen werden, befinden wir uns in einer moralischen Abwärtsspirale. Daran können wir als Gesellschaft kein Interesse haben. Hinzu kommt: Intelligente Algorithmen, die zum Beispiel in sozialen Medien Nachrichten filtern oder die Kommunikation autonom fahrender Autos steuern, können negative gesellschaftliche Konsequenzen nach sich ziehen.

Wie aber ist es möglich, ethische Werte in Systeme einzuspeisen, die mithilfe vieler Daten und hoch entwickelter künstlicher Intelligenz gesellschaftlich relevante Entscheidungen treffen?

Der MIT-Forscher Iyad Rahwan hat passend dazu den Begriff der „Society-in-the-Loop“ (SITL) geprägt. Er basiert auf dem etablierten Konzept „Human-in-the-Loop“ (HITL), das Systeme mit KI-Beteiligung bezeichnet, die der menschlichen Interaktion bedürfen. Ein einfaches Beispiel für HITL ist die lernfähige Spam-Erkennung von Diensten wie Google Mail. Diese verbessert sich unter anderem dadurch, dass Nutzer einzelne E-Mails als Spam markieren.

SITL geht nun noch einen Schritt weiter: Hier ist eine gesellschaftliche Interaktion vorgesehen, wenn intelligente und komplexe Algorithmen die Gesellschaft beeinflussen. Um zu verhindern, dass die an immer mehr heiklen Punkten eingesetzte künstliche Intelligenz sich negativ auf Demokratie und Gesellschaft auswirkt, schwebt Rahwan ein neuer „algorithmischer Gesellschaftsvertrag“ vor. Dieser soll vor allem Übersetzungen ermöglichen: von ethischen Werten, Normen und politischen Zielen in einen Programmcode. Er soll eine Schnittstelle schaffen zwischen dem Gemeinwillen und der künstlichen Intelligenz, die unser Leben immer stärker beeinflusst.

Rahwans Gedanken gehen genau in die richtige Richtung. Es steht aber momentan noch nicht fest, wie genau der „algorithmische Gesellschaftsvertrag“ aussehen könnte und welche Werkzeuge uns wirklich dabei helfen könnten, negative Auswirkungen der künstlichen Intelligenz zu vermindern. Um sich vom irrigen Paradigma der modernen „Personalisierung“ abzugrenzen, müssen wir das Recht an den eigenen Daten möglichst weit auslegen. Damit sich Plattformen wie HAT und Meeco weiter verbreiten. Auch der neue EU-Datenschutz könnte ein wichtiger Schritt in Richtung eines „algorithmischen Gesellschaftsvertrags“ sein.
 

Klare Spielregeln für den Datenzugriff

Wir als Bürger brauchen Plattformen, auf denen wir eigenverantwortlich unsere Daten speichern und uns mit selbst ausgewählten Daten als die Person darstellen können, die wir gern sein möchten. Aber auch in Bezug auf die Daten, die Unternehmen über uns gespeichert haben, brauchen wir eine konkrete Handhabe. Sonst nützen alle Grundrechte und ethischen Normen zum Thema Datenschutz und künstliche Intelligenz wenig.
Ich hoffe, dass der neue EU-Datenschutz uns genau so eine Handhabe gibt. Indem wir eine Auswahl treffen und sagen können: Ihr wollt Zugriff auf meine Daten? Könnt ihr haben. Aber nur nach meinen Spielregeln.
 

 

 

Meilensteine der künstlichen Intelligenz

Vom Schachtürken bis AlphaGo

Bereits 1769 sorgte der erste „Schachcomputer“ für Aufsehen. Im Inneren der Maschine saß jedoch ein Mensch, der die Züge steuerte. Richtig Fahrt nahm die Entwicklung erst 1950 auf, als der Mathematiker Alan Turing sich in einem Aufsatz fragte, ob Maschinen denken können. 1956 folgte in den USA die erste wissenschaftliche Konferenz zum Thema. 1966 entwickelte ein deutsch-amerikanischer Informatiker das Programm „ELIZA“, das scheinbar eine Unterhaltung führen konnte. Allerdings reagierte es nur auf einige wenige Schlüsselwörter. Ein Durchbruch dagegen war 1997 der Sieg des IBM-Computers „Deep Blue“ gegen den damaligen Schachweltmeister Garri Kasparow. 2011 besiegte das Programm „Watson“ einen Jeopardy-Champion, 2016 gewann Googles „AlphaGo“ gegen einen Meister im Go, das noch komplexer als Schach ist.

 

Digitale Identitäten

„Alles muss digital möglich sein“

Cyberkriminalität

Der Dieb, der aus der Nähe kam

Was Unternehmen bei erfolgreichen Cyberangriffen machen können – auch wenn der Dieb aus der Nähe kommt

Digitale Sicherheit

Für ein Quantum Sicherheit

Verschlüsselungstechnik: Warum „PQCRYPTO“ die alles knackenden Quantencomputer aushebeln soll