Hilfreich und gefährlich zugleich

Das EU-Gesetz zur Künstlichen Intelligenz (KI) – Warum die AfD-Fraktion im EU-Parlament weder dafür noch dagegen gestimmt hat – MdEP Christiane Anderson: Einerseits große technische und gesellschaftliche Chancen, andererseits mögliche soziale und digitale Hölle

Die Ziele von Gesetzen sind durchweg von hehrer Art. In den Anpreisungen der Gesetzgeber natürlicherweise immer, doch wirklich ausschließlich hehre gibt es häufig nicht. Teils stecken auch ungenannte und versteckte Ziele dahinter. Außerdem können Gesetze Auswirkungen haben, die ungewollt sind, dann zum Beispiel, wenn sie sich missbrauchen lassen, vielleicht sogar zum Missbrauch einladen, selbst dann, wenn sie eben das verhindern sollen, jedenfalls für Gutmeinende. Nicht anders verhält es sich mit dem KI-Gesetz der Europäischen Union, dem Artificial Intelligence Act (AIA).*) Eben darum hat die AfD-Fraktion im EU-Parlament bei der Schlussabstimmung zur Künstlichen Intelligenz (KI) weder dafür noch dagegen gestimmt. Wie sie diese Haltung begründet, hat Fraktionsmitglied Christiane Anderson näher erläutert. Im Folgenden (Quelle hier) gebe ich Ihre Ausführungen, nur leicht ihre Einführung gekürzt, im Wortlaut wieder. Überschrift und Zwischenüberschriften sind von mir eingefügt.

Der mögliche Missbrauch

Nicht nur durch Kriminelle und Unternehmen, sondern auch durch den Staat selbst

Von Christiane Anderson, MdEP

Künstliche Intelligenz**) ist ein sehr komplexes Thema. Sie eröffnet einerseits große technologische und gesellschaftliche Chancen, kann uns andererseits aber bei Missbrauch auch direkt in die soziale und digitale Hölle befördern. Dieser Missbrauch kann nicht nur von Kriminellen oder Unternehmen ausgehen, sondern auch vom Staat selbst. Aufgrund dieser Tragweite und Komplexität ist eine gründliche und differenzierte Auseinandersetzung mit dem Thema KI unerlässlich. Aus diesem Grund sahen sich meine Kollegen der AfD-Fraktion und ich gezwungen, uns bei der Abstimmung zu enthalten. Doch warum eigentlich?

Ein extrem mächtiges, aber zweischneidiges Schwert

KI ist ein extrem mächtiges aber zweischneidiges Schwert und ihre Fähigkeiten wachsen täglich. Schon heute wird KI in der Medizin zur Früherkennung von Krankheiten wie Krebs eingesetzt. In der Industrie dient KI bei der Prozesssteuerung, Qualitätssicherung und Fehleridentifikation. Im Pflege- und Reha-Bereich hilft KI mittels Spracherkennung (z.B. bei Aphasie und Demenz) oder bei der Steuerung von Exoskeletten für Querschnittsgelähmte. Auch für die Strafverfolgungsbehörden wird KI immer wichtiger, etwa beim Erkennen von gefälschten Pässen oder bei Personenfahndungen. Und genau hier liegt das Problem. Für jeden der vorgenannten sinnvollen Einsatzzwecke lässt sich gleichzeitig auch ein negatives Missbrauchsszenario feststellen.

Szenarien eines möglichen Missbrauchs

Was schützt uns davor, daß Polizeibehörden statt nach konkreten Straftätern künftig mittels biometrischer Massenüberwachung einfach nach dem gesamten Volk fahnden? Was verhindert, daß KI nicht nur die Exoskelette von gelähmten Menschen steuert, sondern bald auch autonome Waffensysteme der Militärtechnik, um die Kriegsführung zu automatisieren und im schlimmsten Fall menschliche Entscheidungen überflüssig zu machen? Wenn Banken KI zur Aufdeckung von Geldwäsche nutzen, was hindert sie daran, künftig auf Zuruf staatlicher Stellen den Zahlungsverkehr von politisch unliebsamen Bürgern zu überwachen, weiterzumelden oder einzuschränken? KI wäre die Schlüsseltechnologie hinter dem Aufbau eines freiheitsfeindlichen Social-Credit-Systems nach chinesischem Vorbild oder dem „Predictive Policing“ – eine diskriminierende, „vorausschauende Polizeiarbeit“, welche die menschliche Würde verletzen und gegen die Unschuldsvermutung verstoßen würde. Welche Rolle KI bei der Manipulation von öffentlicher Meinung und Internet-Zensur spielte, haben wir alle seit dem Corona-Zwangsmaßnahmenregime noch tief in den Knochen stecken.

Weltweit der erste KI-Regulierungsversuch, aber viele Fragen bleiben offen

Das neue europäische KI-Gesetz stellt den weltweit ersten Versuch dar, KI zu regulieren. Doch viele Fragen bleiben offen. Eine Regulierung ist zweifellos notwendig, aber eine Überregulierung könnte dazu führen, dass wir technologisch und wirtschaftlich den internationalen Anschluss noch weiter verlieren. Dann übernehmen ganz Andere die Deutungshoheit.

Vieles im KI-Gesetz durchaus sinnvoll, anderes überhaupt nicht, manches fehlt komplett

Bei einer ernsthaften und ehrlichen Auseinandersetzung mit dem Thema KI ist es weder möglich, das Gesetz einfach abzulehnen noch ihm zuzustimmen. Manche Positionen darin sind durchaus sinnvoll, andere hingegen überhaupt nicht; manches fehlt komplett. Während des Gesetzgebungsverfahrens hatten wir als AfD innerhalb der ID-Fraktion seit Sommer 2023 die Möglichkeit, detaillierte Änderungsanträge einzubringen, um unsere differenzierte Position klarer zu machen. Leider wurden diese von den anderen Parteien wie üblich blockiert.

Zu viele gegenläufige Interessen, Gesetzestext ungenau und fehlerhaft

Zu viele gegenläufige Interessen stehen sich in diesem Gesetz mittlerweile unauflösbar gegenüber. Der Gesetzestext ist ungenau und fehlerhaft. Eine Ablehnung hätte aber bedeutet auf Regulierung insgesamt zu verzichten. Auch auf jene der Hi-Risk-Technologien. Aus all diesen Gründen haben wir uns nach reiflicher Überlegung bei der Abstimmung schließlich enthalten.

____________________________________

*) Nach langer Diskussion beschlossen ist das Gesetz nun, zuletzt und abschließend im EU-Parlament am 13. März 2024. Es bezweckt, dass KI-Systeme, die auf dem EU-Markt in Verkehr gebracht und in der Union verwendet werden, sicher sind sowie die Grundrechte und die „Werte“ der EU wahren. Auch soll es in Europa Investitionen und Innovationen im KI-Bereich anregen. Der Rat der Europäischen Union sieht das KI-Gesetz als eine „legislative Leitinitiative“. Sie habe das Potenzial, das Entwickeln und Verbreiten von sicherer und vertrauenswürdiger KI durch private und öffentliche Akteure im gesamten EU-Binnenmarkt zu fördern. Im Wesentlichen gehe es darum, KI zu regulieren, da sie gesellschaftlichen Schaden anrichten könne. Dabei werde ein „risikobasierten“ Ansatz verfolgt: Je höher das Risiko, desto strenger die Vorschriften. Als weltweit erste Regulierung dieser Art könnte sie zu einem globalen Standard für die Regulierung von KI in anderen Rechtsräumen werden und so dem EU-Ansatz bei der Regulierung von Techniken global größere Geltung verschaffen. Die vom EU-Rat zitierte spanische Staatssekretärin für Digitalisierung und künstliche Intelligenz, Carmen Artigas, meint: „Dabei ist es uns gelungen, ein äußerst empfindliches Gleichgewicht zu wahren, nämlich einerseits Innovationen und die Nutzung von künstlicher Intelligenz in Europa zu fördern und andererseits dafür zu sorgen, dass die Grundrechte unserer Bürgerinnen und Bürger uneingeschränkt geachtet werden.“ Quelle: Mitteilung des Rates der EU vom 2. Februar 2024 hier. Dort auch die wichtigsten Bestandteile des KI-Gesetzes.

**) FAZNet vom 13. März 2024: „Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Auch selbstfahrende Autos versuchen so, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.“

Das Gesetz gehe auf einen Vorschlag der EU-Kommission von 2021 zurück. Systeme, die als besonders risikoreich gelten und beispielsweise in kritischen Infrastrukturen oder im Bildungs- und Gesundheitswesen eingesetzt würden, müssten demnach strenge Anforderungen erfüllen. Bestimmte KI-Anwendungen, die gegen EU-Werte verstießen, würden ganz verboten. Dazu gehöre beispielsweise die Bewertung sozialen Verhaltens („Social Scoring“). Damit würden die Bürger in China in Verhaltenskategorien eingeteilt. Und auch eine Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen solle es in der EU nicht geben.

Print

Schreibe einen Kommentar