Stichwort: Vertrauenswürdige künstliche Intelligenz

Gerhard Endres (Freier Journalist, Berufsschullehrer und Theologe, München)

Vorbemerkung:

Unser Text ist die offizielle Darstellung der Inhalte aus der Sicht der EU Kommission, auch die Einteilung der Risikogruppen und deren Bewertung. Wir halten es für sinnvoll, darüber zu informieren. Klar freuen wir uns über weitergehende Einschätzungen und Hinweise. Eine kritische Diskussion über die offiziellen Texte ist notwendig und wichtig.

Roland Koponoc vom Gesamtbetriebsrat von Siemens hat das Stichwort „Vertrauenswürdige Intelligenz“ mehrmals erwähnt. Eine kritische Diskussion der Regulierungsvorschläge der Europäischen Kommission findet sich in dem Beitrag von Thorben Albrecht und Julia Görlitz.

Die EU Kommission hat im Juni 2018 eine unabhängige Expertengruppe für künstliche Intelligenz eingesetzt, die am 8.4.2019 ihren Bericht vorgelegt hat:

Ethikleitlinien für eine vertrauenswürdige KI
ISBN 978-92-76-11987-6
Doi:10.2759/22710
KK-02-19-841-DE-N

Kontakt: Nathalia Smuha -Koordination für die HEG-KI
Mail: CNECT-HLG-AI@ec.europa.eu

Von Seite 32 bis Seite 41 des Dokuments wird eine Bewertungsliste für vertrauenswürdige KI (Pilotversuch) vorgestellt:

Über 130 Fragen sind in diesen Kapiteln formuliert:

1. Vorrang menschlichen Handelns und menschliche Aufsicht

Grundrechte
Vorrang menschlichen Handelns
Menschliche Aufsicht

2. Technische Robustheit und Sicherheit

Schutz gegen Angriffe und Sicherheit
Auffangplan und allgemeine Sicherheit
Präzision
Zuverlässigkeit und Wiederholbarkeit

3. Schutz der Privatsphäre und Datenqualitätsmanagement

Achtung der Privatsphäre und Gewährleistung des Datenschutzes
Qualität und Integrität der Daten
Datenzugriff

4. Transparenz

Rückverfolgbarkeit
Erklärbarkeit
Kommunikation

5. Vielfalt, Nichtdiskriminierung und Fairness

Vermeidung unfairer Verrungen
Barrierefreiheit und universeller Entwurf
Beteiligung der Interessenträger

6. Gesellschaftliches und ökologisches Wohlergehen

Nachhaltige und umweltfreundliche KI
Soziale Auswirkungen
Gesellschaft und Demokratie

7. Rechenschaftspflicht

Nachprüfbarkeit
Minimierung und Meldung negativer Auswirkungen
Dokumentation von Kompromissen
Rechtsschutz

Auf der Grundlage der Rückmeldungen sollte Anfang 2020 eine überarbeitete Fassung der Bewertungsliste für vertrauenswürdige KI unterbreitet werden. Ob sie existiert, konnte ich nicht feststellen.

Aus Deutschland arbeiteten in der Kommission (Seite 51) Wilhelm Bauer (Fraunhofer), Sami Haggadin (Munic School of Robotics and Machine Intelligenz), Eric Hilgendorf (Universität Würzburg), Christoph Pylo (Bosch), Philipp Slusallek (Deutsche Fortschungszentrum für künstliche Intelligenz (DFKI)), Saskia Steinacker (Bayer), Aimee von Wysnberghe – Mitberichterstatterin (TU Delft) Diese Person erwähne ich, da es von Deutschland sehr gute Kontakte nach Delft gibt, Thiebaut Weber (EGB)

Am 19.2.2020 wurde das Weißbuch Künstliche Intelligenz der EU vorgelegt.
((COM (202) 65 final

Am 21.4.2021 hat die EU Kommission einen Rechtsrahmen für Künstliche Intelligenz vorgelegt und verschiedene Risikoklassen formuliert: Unannehmbares Risiko, hohes Risiko (hier müssen strenge Vorgaben gelten), geringes Risiko und minimales Risiko. Eingebettet ist dieser Rechtsrahmen in das „europäische Konzept für Exzellenz in der KI“

Presseartikel 21.April 2021 EU Vertretung in Deutschland (wörtliche Übernahme)

„Das europäische Konzept für vertrauenswürdige KI

Die neuen Vorschriften beruhen auf einer zukunftssicheren Definition der KI und finden in allen Mitgliedstaaten direkt und in gleicher Weise Anwendung. Sie folgen einem wichtigen privaten und öffentlichen Dienstleistungen umfassenden, risikobasierten Ansatz:

Unannehmbares Risiko: KI-Systeme, die als klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen gelten, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die menschliches Verhalten manipulieren, um den freien Willen der Nutzerinnen und Nutzer zu umgehen (z. B. Spielzeug mit Sprachassistent, das Minderjährige zu gefährlichem Verhalten ermuntert), sowie Systeme, die den Behörden eine Bewertung des sozialen Verhaltens (Social Scoring) ermöglichen.

Hohes Risiko: KI-Systeme, bei denen ein hohes Risiko besteht, wenn KI-Technik in folgenden Bereichen eingesetzt wird:

*kritische Infrastrukturen (z. B. im Verkehr), in denen das Leben und die Gesundheit der Bürgerinnen und Bürger gefährdet werden könnten;

*Schul- oder Berufsausbildung, wenn der Zugang einer Person zur Bildung und zum Berufsleben beeinträchtigt werden könnte (z. B. Bewertung von Prüfungen);

*Sicherheitskomponenten von Produkten (z. B. eine KI-Anwendung für die roboterassistierte Chirurgie);

*Beschäftigung, Personalmanagement und Zugang zu selbstständiger Tätigkeit (z. B. Software zur Auswertung von Lebensläufen für Einstellungsverfahren);

*wichtige private und öffentliche Dienstleistungen (z. B. Bewertung der Kreditwürdigkeit, wodurch Bürgerinnen und Bürgern die Möglichkeit verwehrt wird, ein Darlehen zu erhalten);

*Strafverfolgung, die in die Grundrechte der Menschen eingreifen könnte (z. B. Bewertung der Verlässlichkeit von Beweismitteln);

*Migration, Asyl und Grenzkontrolle (z.B. Überprüfung der Echtheit von Reisedokumenten);

*Rechtspflege und demokratische Prozesse (z. B. Anwendung der Rechtsvorschriften auf konkrete Sachverhalte).

Für KI-Systeme mit hohem Risiko werden strenge Vorgaben gelten, die erfüllt sein müssen, bevor sie auf den Markt gebracht werden dürfen:

*Angemessene Risikobewertungs- und Risikominderungssysteme;

*hohe Qualität der Datensätze, die in das System eingespeist werden, um Risiken und diskriminierende Ergebnisse so gering wie möglich zu halten;

*Protokollierung der Vorgänge, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen; ausführliche Dokumentation mit allen erforderlichen Informationen über das System und seinen Zweck, damit die Behörden seine Konformität beurteilen können;

*klare und angemessene Informationen für die Nutzerinnen und Nutzer;

*angemessene menschliche Aufsicht zur Minimierung der Risiken; hohes Maß an Robustheit, Sicherheit und Genauigkeit.

Insbesondere alle Arten biometrischer Fernidentifizierungssysteme bergen ein hohes Risiko und unterliegen strengen Anforderungen. Ihre Echtzeit-Nutzung im öffentlichen Raum zu Strafverfolgungszwecken wird grundsätzlich verboten. Eng abgesteckte Ausnahmen werden strikt definiert und geregelt (z. B. wenn sie unbedingt erforderlich sind, um ein vermisstes Kind zu suchen, um eine konkrete und unmittelbare terroristische Bedrohung abzuwenden oder um Täterinnen und Täter bzw. Verdächtige schwerer Straftaten zu erkennen, aufzuspüren, zu identifizieren oder zu verfolgen). Eine solche Nutzung bedarf der Genehmigung einer Justizbehörde oder einer anderen unabhängigen Stelle und unterliegt angemessenen Beschränkungen in Bezug auf die zeitliche und geografische Geltung und die abgefragten Datenbanken.

Geringes Risiko, d. h. KI-Systeme, für die besondere Transparenzverpflichtungen gelten: Beim Umgang mit KI-Systemen wie Chatbots sollte den Nutzern bewusst sein, dass sie es mit einer Maschine zu tun haben, damit sie in voller Kenntnis der Sachlage entscheiden können, ob sie die Anwendung weiter nutzen wollen oder nicht.

Minimales Risiko: Der Legislativvorschlag soll die freie Nutzung von Anwendungen wie KI-gestützten Videospielen oder Spamfiltern ermöglichen. Die große Mehrheit der KI-Systeme fällt in diese Kategorie.

Der Verordnungsentwurf soll hier nicht eingreifen, denn diese KI-Systeme stellen nur ein minimales oder kein Risiko für die Bürgerrechte oder die Sicherheit dar.

Bezüglich der KI-Governance schlägt die Kommission vor, dass die Anwendung der neuen Vorschriften von den zuständigen nationalen Marktüberwachungsbehörden beaufsichtigt werden soll. Ferner wird ein Europäischer Ausschuss für künstliche Intelligenz eingerichtet werden, der die Umsetzung begleiten und die Ausarbeitung von Normen auf dem Gebiet der KI vorantreiben soll. Darüber hinaus werden freiwillige Verhaltenskodizes für KI-Anwendungen, die kein hohes Risiko darstellen, und regulatorische „Sandkästen“ vorgeschlagen, um verantwortungsvolle Innovationen zu erleichtern“

(Seite 2/3 der Presseerklärung)

COM (2021) 206 final
2021/0106 (COD)

Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union
(SEC(2021) 167 final (SWD (2021) 84(final) (SWD (2021) 85 (final)

Gerhard Endres

Autor

  • Gerhard Endres

    Gerhard Endres ist freier Journalist, Berufsschullehrer und Theologe, er lebt in München. Er ist erster Vorsitzender des Netzwerks für Gesellschaftsethik.