Verhandlungen auf der Zielgeraden Wie die EU Künstliche Intelligenz regulieren will

Brüssel · Im vorletzten Jahr legte die EU-Kommission Vorschläge für die Regulierung Künstlicher Intelligenz vor. Nun gibt es auch im Europa-Parlament einen Kompromiss. Der intensiviert die Auflagen in Stufen entlang des Risikos für Leben, Gesundheit und Freiheit der EU-Bürger.

Ein Nutzer mit dem Text-Roboter ChatGPT, der die Möglichkeiten Künstlicher Intelligenz einer breiten Öffentlichkeit klar macht.

Ein Nutzer mit dem Text-Roboter ChatGPT, der die Möglichkeiten Künstlicher Intelligenz einer breiten Öffentlichkeit klar macht.

Foto: dpa/Frank Rumpenhorst

KI ist seit den fixen, faszinierenden und oft falschen Texten aus der mit Künstlicher Intelligenz arbeitenden ChatGPT-Werkstatt in allen Köpfen. Doch was da als brandneu entdeckt wird, ist vom Prinzip her ein alter Hut. Zum Beweis hält Hessens Digitalministerin Kristina Sinemus bei einem Entscheider-Treffen in Brüssel ihr Handy hoch, verweist darauf, dass jede Autokorrektur, jede Zusatz-Kaufempfehlung auf Online-Plattformen längst die gleichen Algorithmen verwenden. Hessens Europa-Staatssekretär Uwe Becker erinnert daran, dass der legendäre Star-Physiker Stephen Hawking bereits 2017 offen ließ, ob die KI den Menschen unendlich helfen, sie ignorieren oder zerstören werde. Das mehr von Zerstören in Richtung Helfen zu schieben, hat sich die EU auf den Weg gemacht.

Eine Verordnung soll bald den Umgang mit KI in Europa vorschreiben. Allein im Europa-Parlament waren in den letzten Monaten rund 40 Unterhändler aus verschiedenen Fachausschüssen damit beschäftigt, über 3300 Änderungsanträge zu sichten und zu gewichten. Nun haben sie sich auf einen Kompromiss verständigt, über den im Mai die federführenden Fachgremien und im Juni die Abgeordneten im Plenum entscheiden sollen. Dann geht es in die Verhandlungen mit der Kommission und den Vertretern der Regierungen.

„Gegen konservative Überwachungswünsche und linke Überregulierungsfantasien konnte ein solider Kompromiss gefunden werden, der KI verhältnismäßig regulieren, Bürgerrechte schützen sowie Innovation und Wirtschaft beflügeln würde“, fasst die liberale Unterhändlerin Svenja Hahn zusammen. Es werde nicht die Technologie in den Fokus gestellt, sondern die Art ihrer Anwendung, stellt die FDP-Europa-Abgeordnete heraus. Daraus folge, dass Allzweck-KI und generative KI wie ChatGPT nicht per se verboten oder als hohes Risiko eingestuft würden.

Alexandra Geese, die IT-Expertin der Europa-Grünen, macht das Problem deutlich. ChatGPT habe der breiten Öffentlichkeit gezeigt, wie Künstliche Intelligenz die Gesellschaft auf den Kopf stellen könne. „Bildung, Kreativität, Zugang zu Wissen, die Unterscheidung zwischen Fakten und Unwahrheit - all das wird durch KI von Grund auf verändert“, unterstreicht die Bonner Europa-Abgeordnete. Den Machen solcher KI-Tools komme eine „ungeheure Macht“ zu. Sie entschieden weltweit, auf welche Quelle ihre KI zugreife, wie sie diese gewichte, welche Fragen und Antworten erlaubt seien. „In einer Demokratie müssen wir nachvollziehen können, nach welchen Kriterien solche Instrumente arbeiten“, verlangt Geese. Ihre Beispiele: „Dürfen sie Anleitungen zum Bombenbau erstellen oder nicht? Sollen sie Informationen über Abtreibungen bereitstellen?“ Das seien hoch politische Fragen, die Google und Microsoft nicht allein entscheiden sollten.

Bereits vor Beginn des Trilogs zwischen den EU-Gesetzgebern zeichnet sich eine Regulierung anhand von vier Gefährdungsstufen ab.

Minimales Risiko: Darunter fällt der mit Abstand größte Anteil der alltäglichen KI-Anwendungen, wie etwa Spiele, die mit KI arbeiten, oder KI-gestützte Spam-Filter. Für sie sollen alle neuen Vorschriften nicht gelten.

Begrenztes Risiko: Darunter fallen zum Beispiel so genannte „Chatbots“, also automatisierte Kommunikationssysteme bei Service-Hotlines, die Kundenanfragen aufnehmen und individuelle Antworten anbieten. Dazu werden geringfügige Transparenzverpflichtungen vorgesehen, die dem Anwender bei der Entscheidung helfen sollen, ob er sie nutzen will oder nicht.

Hohes Risiko: Das umfasst eine ganze Bandbreite von Künstlicher Intelligenz, die in Gesundheit, Chancen und Leben der Menschen eingreift. Etwa im Verkehr, wenn Fahrassistenzsysteme eingesetzt werden, bei der Bewertung von Prüfungen, die über Berufschancen entscheidet, bei der roboterunterstützten Chirurgie, beim Personalmanagement, wenn Bewerbungen beurteilt werden, im Bankensektor, wenn die Kreditwürdigkeit geprüft wird, bei der Strafverfolgung, wenn es um die Echtheit von Beweismitteln geht, im Asylsektor, wenn Dokumente untersucht werden. Hier sieht das EU-Konzept vor, dass alle Systeme vor der Zulassung sorgfältig überprüft und auch während der gesamten Anwendung beobachtet werden.

Unzulässig: Das ist jede KI-Anwendung, die als unmittelbare Bedrohung für die EU-Bürger eingestuft wird. Das betrifft zum Beispiel Spielzeug mit Sprachassistenzsystemen, die Kinder zu einem riskanten Verhalten verleiten können oder auch eine automatisierte behördliche Beurteilung von sozial gewünschtem Verhalten. Das alles wird in der EU verboten.

Weil aber gerade letzteres gerade in China immer weiter verfeinert wird, um oppositionelles Verhalten erkennen und unterdrücken zu können und auch Teil von Gesichtserkennungssystemen ist, zeichnen sich bereits gewaltige Konflikte im globalen Umgang mit der KI ab. Zugleich stehen überall in Europa Unternehmen und Politik in den Startlöchern, um auf der Grundlage klarer Regulierung Teil des Milliardengeschäftes zu werden. Hessen etwa sieht sich auf dem Weg zum „Silicon Valley für KI in Europa“ und hat bereits 100 Millionen in die KI-Zukunftsagenda investiert, verweist auf das große Potenzial an Rechnern und den riesigen Datenknotenpunkt in der Mitte Deutschlands und Europas. Die EU-Kommission will künftig pro Jahr eine Milliarde in die KI-Entwicklung in Europa investieren.

Meistgelesen
Neueste Artikel
Zum Thema
Alles AI, oder was?
Was Artificial Intelligence und All inclusive gemeinsam haben Alles AI, oder was?
Aus dem Ressort