Diskriminierung melden
Suchen:

EU-Expertengruppe KI HLEG soll Vertrauen in Künstliche Intelligenz fördern

Foto: H.S.

18.02.2020 - von Hanne Schweitzer

Herrschaft der Algorithmen, Vorratsdatenspeicherung, intelligente Maschinen, Zwangsdigitalisierung der Medizin, Big Data, digitaler Kapitalismus, social scoring, Tracking, künstliche Intelligenz in Waffensystemen: Am 15. November 2018 hat die Bundesregierung ihre ´Strategie Künstliche Intelligenz` beschlossen. „Unser Anspruch ist es, bei KI in allen Bereichen in die Weltspitze zu kommen", so Bundesministerin Anja Karliczek. Damit das in einer Gesellschaft reibungslos funktioniert, in der die haptisch und analog orientierten BürgerInnen sehr viel zahlreicher sind, als die ´digital natives`, müssen dem Schreckgespenst „Künstliche Intelligenz“ die Zähne gezogen werden.

Das wusste zuerst die Europäische Kommission. 2018 richtete sie eine High-Level Expert Group on Artificial Intelligence (AI HLEG) für künstliche Intelligenz (deutsch: KI HLEG) ein. Sie soll "bei der Umsetzung der Europäischen Strategie für Künstliche Intelligenz Unterstützung leisten" und "KI-Ethik-Leitlinien" sowie "KI-Politik- und -Investitionsempfehlungen" formulieren.

Der KI HLEG-Gruppe gehören 52, von der Kommission berufene Experten und Expertinnen "aus Wissenschaft, Zivilgesellschaft und Industrie" an. Sie sind alle "der Überzeugung, dass KI das Potenzial hat, die Gesellschaft signifikant zu transformieren" und künstliche Intelligenz "ein vielversprechendes Mittel (ist), um das menschliche Gedeihen“ (!!!) „und somit das Wohlbefinden (!!!) von Individuum und Gesellschaft und das Gemeinwohl zu steigern, sowie zur Förderung von Fortschritt und Innovation beizutragen."

Im April 2019 legt die "Hochrangige Expertengruppe" ihr erstes Arbeitsergebnis vor: "Ethik Leitlinien für eine vertrauenswürdige KI", mit Fokus auf einem "humanzentrierten Ansatz für KI". Dieser schlägt sich aus Sicht der Hochrangigen Expertengruppe nieder in "7 Schlüsselanforderungen, die KI-Systeme erfüllen sollten, um das menschliche Gedeihen und Wohlbefinden des Einzelnenen und der Gesellschaft vertrauenswürdig zu steigern.

Die Ethik-Leitlinien, technokratisch der Regelkatalog genannt, sollen bis 2020 in Unternehmen, Behörden und Forschungsinstituten getestet und auf vorbereiteten Listen bewertet werden. Weitere Erkenntnisse verspricht sich die Expertengruppe von einem nichtdigitalen Austausch zwischen den Teilnehmern über ihre Erfahrungen. Auf dieser Basis wird die EU-Kommission Gesetzesvorschläge erwägen, um den "humanzentrierten" KI-Ansatz der Europäischen Kommission zu regulieren.

Sieben Schlüsselanforderungen an KI-Systeme:
- "Vorrang menschlichen Handelns und menschlicher Aufsicht:
KI-Systeme sollten gerechten Gesellschaften dienen" (was ist eine gerechte Gesellschaft?), "indem sie das menschliche Handeln" (wessen menschliches Handeln?) und die Wahrung der Grundrechte" (welche?) "unterstützen‚ keinesfalls aber sollten sie die Autonomie der Menschen verringern, beschränken oder fehlleiten."
Unter Autonomie wird gemeinhin Selbstbestimmung verstanden. Kann Selbstbestimmung fehlgeleitet werden? Wessen von wem?

-" Robustheit und Sicherheit:
Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus des KI-Systems zu bewältigen." Wir lernen: KI-Systeme können vertrauenswürdig oder dubios sein. KI-Systeme haben einen Lebenszyklus. Es gibt sichere, verlässliche und robuste KI-Systeme. Dazu Haiyan Song, General Manager von Security Markets bei Splunk zitiert am 17.1.2020 von security-insider.de: „Wir werden 2020 sehen, dass Algorithmen mit falschen Datenproben sabotiert werden, die speziell entwickelt wurden, um den Lernprozess eines maschinellen Lernalgorithmus zu stören. Es geht nicht nur darum, intelligente Technologien zu kopieren, sondern sie so zu gestalten, dass der Algorithmus gut zu funktionieren scheint – und dabei die falschen Ergebnisse erzielt.“
- "Privatsphäre und Datenqualitätsmanagement:

Die Bürgerinnen und Bürger sollten die volle Kontrolle über ihre eigenen Daten behalten" (wie denn?) "und die sie betreffenden Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.“ !
– „Transparenz:
Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden." Wo werden die Artefakte der Softwareentwicklung gespeichert? Wer ist zur Rückverfolgung wann berechtigt?
- "Vielfalt, Nichtdiskriminierung und Fairness:
KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten." Wer definiert das ´gesamte Spektrum` menschlicher Fähigkeiten und Fertigkeiten für KI-Systeme? Wie wird ´menschlichen Anforderungen` in KI-Systemen Rechnung getragen? KI-Systeme können nichts "gewährleisten".

Dazu der BDI:
"Allerdings ist in einem bestimmten Kontext ein "Negative Profiling" notwendig. Unternehmen müssen in der Lage sein, Kunden und Geschäftspartner anhand bestimmter vordefinierter Kriterien zu segmentieren, um die Kreditwürdigkeit einer Person durch die Verwendung von KI zu bewerten. Dies ist auch für Versicherungen, Finanzinstitutionen und E-Commerce-Geschäfte unerlässlich."

- "Gesellschaftliches und ökologisches Wohlergehen:
KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern." Wer entscheidet, ob KI-Systeme einen ´positiven sozialen Wandel` fördern? Wer definiert ´positiven sozialen Wandel? Von welcher und wessen ´Nachhaltigkeit` ist die Rede und wer entscheidet, was ´ökologische Verantwortung` ist, und was nicht?
- "Rechenschaftspflicht:
Es sollten Mechanismen geschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten." Nicht einmal an dieser Stelle wird das ´sollten` durch ein forderndes ´müssen` ersetzt. Wer legt die Mechanismen in welcher Form fest? Vor welchen Instanzen muss von wem in welchen Fällen Rechenschaft abgelegt werden? Ist der Auftraggeber eines KI-Systems, der die Kompetenz der Auftragnehmer falsch eingeschätzt hat, aus dem Schneider?

Der Trick mit dem Konjunktiv
Bei den sieben europäischen Anforderungen humanzentrierter KI-Systeme fällt der häufige Gebrauch des Verbs "sollen" auf. Allerdings wird es im 2. Konjunktiv verwendet. KI sollte gerechten Gesellschaften dienen / BürgerIinnen sollten die volle Kontrolle über ihre eigenen Daten behalten / es sollten Mechanismen geschaffen werden usw. usw. Sollte oder sollten drückt aus, dass etwas Bestimmtes wünschenswert, richtig oder vorteilhaft wäre. Sollte im hier verwendeten Zusammenhang bedeutet Unverbindlichkeit, eine Absichtserklärung, no more. nichts was justiziabels.

Müssen oder sollten wir uns Sorgen über diese sieben Kernforderungen machen, in denen müssen nur einziges Mal vorkommt? Mobilisierte die "Hochrangige Expertengruppe" ihre Geschwurbel-Potenz, damit die EU-Kommission sich auf die Brust schlagen und behaupten kann, wie ernst sie die ´Sorgen und Ängste der Menschen` vor KI nimmt?
Kernforderungen siehe: Link

Sommer 2019: Hochrangige Expertenkommission legt nach
Im Juni wird die erste europäische Versammlung einer "KI-Allianz" und Mitgliedern der Hochrangigen Expertenkommission abgehalten.Link Sie legt 33 Empfehlungen vor. Also noch mehr Laberschwad. "... eine vertrauenswürdige KI in Richtung Nachhaltigkeit, Wachstum und Wettbewerbsfähigkeit sowie Integration führen können - bei gleichzeitiger Stärkung, (gleichzeitige sic Nutzen und Schutz der Menschen." Wachstum und Wettbewerbsfähigkeit, ok. das ist deutlich. Alles andere verschwindet im Nebel der Bedeutungslosigkeit. ´Nachhaltigkeit` erschließt sich nicht , ´Schutz der Menschen` erschließt sich auch nicht. Welche Menschen sollen vor wem oder was geschützt werden? Und wie? Und wer Flora und Fauna?

Di KI-Allianz sowie die Hochrangige Expertengruppe wollen "einen auf den Menschen ausgerichteten Ansatz in der Künstlichen Intelligenz" unterstützen, was immer sie darunter verstehen, und "berücksichtigen" dabei, "dass Künstliche Intelligenz zu den transformativsten Technologien für Innovation und Produktivität zählt."

"Wichtige Leitlinien" aus dem "dynamischen Arbeitspapier"
- Die Entwicklung, Einführung und Nutzung von KI-Systemen muss so erfolgen, dass die folgenden ethischen Grundsätze eingehalten werden: Achtung der menschlichen Autonomie, Schadensverhütung, Fairness und Erklärbarkeit."

- Die möglichen Spannungen zwischen diesen Grundsätzen müssen zur Kenntnis genommen und gelöst werden. Besondere Berücksichtigung von Situationen, in denen besonders schutzbedürftige Gruppen wie Kinder, Menschen mit Behinderungen und andere betroffen sind, die schon in der Vergangenheit Benachteiligung erfahren haben oder die einem besonders hohen Exklusionsrisiko ausgesetzt sind. Gleiches gilt für Situationen, die sich durch ungleiche Macht- oder Informationsverteilung auszeichnen, etwa zwischen Arbeitgebern und Arbeitnehmern oder Unternehmen und Verbrauchern.

- Es gilt anzuerkennen und zu berücksichtigen, dass KI-Systeme dem Einzelnen und der Gesellschaft - zwar einen erheblichen Nutzen bringen, gleichzeitig jedoch bestimmte Risiken bergen und möglicherweise negative, mitunter schwer absehbare, erkennbare oder messbare Auswirkungen (z. B. im Hinblick auf Demokratie, Rechtsstaatlichkeit, Verteilungsgerechtigkeit oder den menschlichen Geist als solchen) haben können. Zur Abwendung dieser Gefahren müssen gegebenenfalls (!) angemessene und in Anbetracht der Höhe des Risikos verhältnismäßige Maßnahmen getroffen werden.

Wichtige Leitlinien aus Kapitel II:
- Es muss gewährleistet sein, dass die Entwicklung, Einführung und Nutzung von KI-Systemen die Anforderungen an vertrauenswürdige KI erfüllen: 1) Vorrang menschlichen Handelns und menschliche Aufsicht, 2) technische Robustheit und Sicherheit, 3) Schutz der Privatsphäre und Datenqualitätsmanagement, 4) Transparenz, 5) Vielfalt, Nichtdiskriminierung und Fairness, 6) gesellschaftliches und ökologisches Wohlergehen sowie 7) Rechenschaftspflicht.

- Berücksichtigung technischer und nichttechnischer Methoden, um die Umsetzung dieser Anforderungen sicherzustellen.

- Förderung von Forschung und Innovation (€) als Beitrag zur Bewertung von KI-Systemen und zur weiteren Erfüllung der Anforderungen; Bekanntmachung von Ergebnissen und offenen Fragen in der breiten Öffentlichkeit sowie systematische Ausbildung (€) einer neuen Generation von Experten auf dem Gebiet der KI-Ethik.

- Klare und proaktive Informationsübermittlung an betroffene Kreise (?) über die Fähigkeiten und Grenzen der KI-Systeme, die realistische Erwartungen ermöglichen, sowie über die Art und Weise der Implementierung der Anforderungen. Für die Anwender muss klar erkennbar sein, dass sie es mit einem KI-System zu tun haben. -

- Möglichkeit der Rückverfolgbarkeit und Nachprüfbarkeit von KI-Systemen, insbesondere in kritischen Zusammenhängen oder Situationen.

- Beteiligung der Interessenträger während des gesamten Lebenszyklus des KI-Systems. Schulungs- und Ausbildungsförderung mit dem Ziel, allen Interessenträgern Kompetenzen auf dem Gebiet der vertrauenswürdigen KI zu vermitteln.

- Zwischen den verschiedenen Grundsätzen und Anforderungen können möglicherweise wesentliche Spannungen auftreten. Diesbezügliche Kompromisse und Lösungen müssen kontinuierlich ermittelt, bewertet, dokumentiert und mitgeteilt werden.

Wichtige Leitlinien aus Kapitel III:
- Aufstellung einer Bewertungsliste („dient nicht als Informationsquelle für den Zweck, die Einhaltung geltender Gesetze zu gewährleisten") für vertrauenswürdige KI in Bezug auf die Entwicklung, Einführung oder Nutzung der KI-Systeme und deren Anpassung an den konkreten Anwendungsfall, in dem das System eingesetzt wird.

- Eine solche Bewertungsliste kann niemals erschöpfend sein. Bei der Gewährleistung von vertrauenswürdiger KI geht es nicht um das Abhaken von Punkten einer Liste, sondern um einen kontinuierlichen Prozess der Ermittlung und Umsetzung von Anforderungen, der Bewertung von Lösungen und der Erzielung besserer Ergebnisse über den gesamten Lebenszyklus des KI-Systems unter Beteiligung der relevanten (?) Interessenträger."

Mehr als diese 10 wortreichen ´Leitlinien` zur ´vertauenswürdigen KI` fanden sich nicht. Aber es geht ja, so steht es geschrieben, ´nicht um das Abhaken von Punkten`. Und eventuell sind auch ´wesentliche Spannungen aufgetreten`.

-------
Die Broschüre "Künstliche Intelligenz: Kommission treibt Arbeit an Ethikleitlinien weiter voran", aus der die "Empfehlungen" entnommen sind, und auch die ellenlange "Vision" (!!!) der EU zur KI enthält , finden Sie in deutscher Sprache (69.287 kB - PDF) unter: Link

BDI: Anpassungen der Ethik Leitlinien nötig. Leitlinien müssen stärker berücksichtigen, dass sich die ethischen Bedingungen von KI-Systemen je nach Anwendungsbereich erheblich unterscheiden! Link

Quelle: ec.europa.eu/commission/

Weitere Artikel, nach dem Datum ihres Erscheinens geordnet, zum Thema Sonstiges:
08.02.2020: In welche Welt geben wir unsere Kinder?
06.02.2020: Uno-Sonderbeobachter über JULIAN ASSANGE + Assange helfen!
31.01.2020: Der Irrsin bei der DB

Alle Artikel zum Thema Sonstiges