Realität braucht Regeln

Die künstliche Intelligenz ist schon längst da. Sie schlägt uns Produkte vor, beschleunigt Prozesse und trifft Entscheidungen. Manchen Menschen macht das Angst, viele verstehen die Mechanismen dahinter nicht. Damit die Maschinen uns nicht unbewusst beeinflussen oder manipulieren, hat eine Expertengruppe im Auftrag der EU die „Ethik-Leitlinien für eine vertrauenswürdige KI“ vorgestellt.
 
In einer anderen Zeit, in einer anderen Welt hat der Schriftsteller Isaac Asimov Anfang der 1940er-Jahre die drei Gesetze der Robotik aufgestellt. Es war reine Science-Fiction und wurde Grundlage unzähliger Filme, Bücher und Comics dieses Genres. Heute sind die ersten beiden Gesetze aktueller denn je. Erstens: Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen. Zweitens: Ein Roboter muss den Befehlen der Menschen gehorchen.
 
Längst dringt die künstliche Intelligenz (KI) in immer mehr Bereiche vor – und kann hier von großem Nutzen sein: Gesundheitsversorgung, Energieverbrauch, Sicherheit von Kraftfahrzeugen, Landwirtschaft, Erforschung des Klimawandels oder Management finanzieller Risiken. KI kann auch helfen, Betrug und Bedrohungen der Cybersicherheit zu erkennen, und versetzt die Strafverfolgungsbehörden in die Lage, Kriminalität wirksamer zu bekämpfen.
 
„KI und Machine Learning bieten großartige Chancen zum Wohle der Menschen. Gesundheitsdaten können sinnvoll zusammengeführt werden, was einen erheblichen Nutzen für die Versicherten haben kann“, erklärt Frank Meißner, Abteilungsleiter Kompetenz-Center Controlling und KI-Experte bei der AOK Systems. Allerdings bringt KI auch neue Herausforderungen für die Zukunft der Arbeit mit sich und wirft rechtliche und ethische Fragen auf. Stichworte sind hier intelligente Waffensysteme, Citizen Scoring, wie es bereits in China eingesetzt wird, automatische Gesichtserkennung im öffentlichen Raum oder die Beeinflussung in sozialen Netzwerken.
 
Eine vertrauenswürdige KI
Die EU-Kommission hat die Bedeutung von KI für politische Institutionen, Unternehmen, die Bürgerinnen und Bürger sowie die Verbraucherinnen und Verbraucher längst erkannt und investiert viel Geld und Anstrengungen, damit KI den Menschen dient und die Grundrechte respektiert – so der Tenor der 40-seitigen „Ethik-Leitlinien für eine vertrauenswürdige KI“, die die „High Level Expert Group von AI“ im Auftrag der EU-Kommission in neun Monaten formuliert hat. Damit soll das Vertrauen in KI gestärkt und sichergestellt werden, dass die ethischen Leitlinien für die Entwicklung und Nutzung der KI in der Praxis umgesetzt werden können. Im Kern beinhalten die Leitlinien sieben Punkte:

Vorrang menschlichen Handelns und menschlicher Aufsicht: Systeme künstlicher Intelligenz sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen – keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten.
Robustheit und Sicherheit: Eine vertrauenswürdige künstliche Intelligenz setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des Systems künstlicher Intelligenz zu bewältigen.
Privatsphäre und Datenqualitätsmanagement: Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.
Transparenz: Die Rückverfolgbarkeit von Systemen künstlicher Intelligenz muss sichergestellt werden.
Vielfalt, Nichtdiskriminierung und Fairness: Systeme künstlicher Intelligenz sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.
Gesellschaftliches und ökologisches Wohlergehen: Systeme künstlicher Intelligenz sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.
Rechenschaftspflicht: Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für Systeme künstlicher Intelligenz und deren Ergebnisse gewährleisten.
 
Dreiteilige Strategie der EU
Die Leitlinien sind Bestandteil der im April 2018 vorgestellten KI-Strategie der EU. Diese zielt darauf ab, die öffentlichen und privaten Investitionen in den nächsten zehn Jahren auf mindestens 20 Milliarden jährlich zu steigern, mehr Daten verfügbar zu machen, Talente zu fördern und Vertrauen in die Technologie zu schaffen. Die Kommission fordert die Industrie, Forschungseinrichtungen und Behörden auf, die von der hochrangigen Expertengruppe erstellte detaillierte Bewertungsliste zu testen und die Leitlinien zu ergänzen. Gleichzeitig sind die Leitlinien nur ein Teil eines dreiteiligen Ansatzes.
KI muss geregelt werden
Erstens: die Festlegung von Kernanforderungen an eine vertrauenswürdige künstliche Intelligenz, die Einleitung einer groß angelegten Pilotphase, um Rückmeldungen von den Interessenträgern einzuholen, und die Arbeit an einem internationalen Konsens über den Aufbau einer menschenzentrierten künstlichen Intelligenz. Zweitens: Im Sommer 2019 wird die EU-Kommission eine Pilotphase unter Beteiligung eines breiten Spektrums von Interessenträgern einleiten. Unternehmen, öffentliche Verwaltungen und Organisationen können schon jetzt der Europäischen KI-Allianz beitreten.
 
Darüber hinaus stehen die Mitglieder der Expertengruppe bereit, um den Interessenträgern in allen Mitgliedstaaten die Leitlinien näherzubringen und zu erläutern. Drittens: Schaffung eines internationalen Konsenses über eine menschenzentrierte künstliche Intelligenz. Die EU-Kommission möchte dies auch weltweit zur Geltung bringen, denn Technologien, Daten und Algorithmen kennen keine Grenzen. Zu diesem Zweck wird die Zusammenarbeit mit gleichgesinnten Partnern wie Japan, Kanada oder Singapur intensiviert und das Thema aktiv bei internationalen Diskussionen und Initiativen wie der G7 und G20 eingebracht.
 
Technologie kennt keine Grenzen
 
Wenn alle sich committen, kann KI Vertrauen schaffen
Die Reaktionen auf die Leitlinien sind erwartungsgemäß unterschiedlich. Grundsätzliche Kritik besteht bereits an der Zusammensetzung der Expertengruppe, die vielen zu industrielastig ist. Von den 52 Vertretern kommen 23 aus Unternehmen, drei weitere vertreten die Interessen von Lobbyverbänden. Dagegen sitzen in dem Gremium nur vier Fachleute für Ethik, zehn Vertreter von Organisationen, die sich für Verbraucherschutz und Bürgerrechte einsetzen. Experten für Datenschutz sind überhaupt nicht vertreten. Kritisch wird auch der Begriff „vertrauenswürdige KI“ gesehen, da man einer Maschine nicht vertrauen könne. Vertrauen sei eine rein menschliche Eigenschaft.
 
Des Weiteren wird bemängelt, dass es keine roten Linien gäbe, im Prinzip könnte alles verhandelt werden. Gefordert wurden aber gerade von Bürgerrechtsseite ethische Grundnormen, ähnlich wie im Grundgesetz, die nicht verhandelbar seien. Eine Schwächung der Leitlinien ist auch, dass es eben nur Leitlinien und keine Vorschriften sind. Man kann sich daran halten – oder auch nicht, Sanktionen muss keiner befürchten. Gleichwohl ist es „das Beste und Substanziellste, was wir derzeit auf dem Planeten zu diesem Thema haben“, sagte Thomas Metzinger, Ethikforscher an der Uni Mainz und Mitglied der Expertengruppe, in einem Beitrag von Netzpolitik.org. Weitreichende Wirkung können die Leitlinien allerdings nur dann erzielen, wenn auch die KI-Supermächte USA und China mitmachen – denn Technologie kennt keine Grenzen.
 
Die Herausforderung des nächsten Jahrzehntes
Die Leitlinien liefern aber auch handfeste Vorschläge, wie das Wohl der Menschen im Mittelpunkt bleibt und die Technologie der Gesellschaft dienen soll: Schon vor der Entwicklung sollen Abschätzungen vorgenommen werden, inwieweit Grundrechte oder die Meinungsfreiheit eingeschränkt werden könnten, definierte Baupläne und möglichst diverse Entwicklungsteams sollen für Transparenz und faire Software sorgen. Eine weitere Forderung: Die Wirkungsweisen von Algorithmen sollen durchschau- und erklärbar sein. Also: Warum bekommt jemand eine bestimmte Gesundheitsleistung vorgeschlagen, einen Kredit genehmigt oder einen Post in sozialen Medien angezeigt?
 
Dies ist aber selbst für Experten bisher noch nicht immer so einfach zu erklären, hier muss erst einmal noch viel verbraucherfreundliches Know-how aufgebaut werden. „Das Thema ist ein außerordentlich schwergewichtiges gesellschaftliches Thema, das kontrovers diskutiert werden wird. Diese Diskussion wird höchstwahrscheinlich das nächste Jahrzehnt maßgeblich prägen. Aber das ist notwendig und auch gut so. Ich kann dazu die Bücher ‚Eine kurze Geschichte der Menschheit‘ und ‚Homo Deus‘ empfehlen. Und man darf gespannt sein, was passiert, wenn europäische Ethik-Richtlinien auf internationale Realität treffen“, sagt Frank Meißner.