In der EU sollen Regeln für den Einsatz Künstlicher Intelligenz definiert werden.

Künstliche Intelligenz

AI-Act: Diese Regeln will die EU für KI einführen

Stand
AUTOR/IN
David Beck
Bild von David Beck, Reporter und Redakteur SWR Wissen aktuell sowie Redakteur bei SWR2 Impuls.
ONLINEFASSUNG
Ralf Kölbel

Das EU-Parlament debattiert über den AI-Act. Das Gesetz ist der erste großangelegte Regulierungsversuch von KI weltweit. Wir stellen die wichtigsten Eckpunkte vor.

Audio herunterladen (3,5 MB | MP3)

Es heißt, der AI-Act werde Symbolcharakter haben, ein Grund mehr es richtig zu machen. Ein Problem des AI-Acts ist, dass die Idee älter ist als die neueste Generation von KIs, sogenannte generative KIs, wie Chat-GPT oder Midjourney. Diese sorgen seit etwa einem halben Jahr beziehungsweise Jahr für den großen KI-Hype in der Öffentlichkeit. Ist der AI Act deswegen vielleicht schon veraltet, lange bevor er überhaupt beschlossen wird?

Wie reguliert man KI?

Die Frage, wie man KI reguliert, wirft sofort viele weitere Fragen auf: Wie kann eine Technologie reguliert werden, die sich so schnell entwickelt? Soll eine so neue Technologie überhaupt reguliert werden, oder wird so Forschung und Innovation abgewürgt? Werden so Unternehmen abgeschreckt, die dann anderswo ihr Geschäft machen? 

Auf die erste Frage, wie eine sich so rasant entwickelnde Technologie reguliert werden kann, glaubt die EU eine Antwort gefunden zu haben. Es wird nicht die Technologie an sich reguliert, sondern der Anwendungszweck. Ein System, das Menschen ausnutzen oder unterdrücken soll, gehört laut AI-Act in die Kategorie der inakzeptablen Risiken und wäre damit verboten, sobald der AI-Act verabschiedet ist. Ebenso in diese Kategorie gehören Social Scoring-Systeme, die Menschen aufgrund ihrer Taten und Aussagen bewerten, oder Systeme, die biometrische Daten in Echtzeit auswerten können. 

KI-Systeme, die biometrische Daten in Echtzeit auswerten können, könnten möglicherweise künftig durch den AI-Act reguliert werden.
KI-Systeme, die biometrische Daten in Echtzeit auswerten können, könnten möglicherweise künftig durch den AI-Act reguliert werden.

KIs müssen Bedingungen erfüllen

KIs, die in die anderen Risikogruppen eingeordnet werden - hohes Risiko, begrenztes Risiko und niedriges Risiko - sind grundsätzlich erlaubt, allerdings müssen die Systeme, je nach Risiko, eine Reihe von Bedingungen erfüllen. 

Auf den ersten Blick erscheint der Ansatz sinnvoll: Egal was uns die KI-Entwickler in Zukunft auftischen, eine der vier Risikokategorien bietet die passenden Regeln. 

Doch diese Idee ist älter als Chat-GPT und sie kann mit solchen sogenannten General Purpose AIs - KIs, die für verschiedene Zwecke eingesetzt werden können - nicht umgehen. Dafür wurden jetzt in neueren Fassungen des Gesetzes Regeln und Pflichten für Hersteller festgelegt, mit denen Risiken überblickt und minimiert werden sollen.

Halten sich die Hersteller daran, dann wird ihre KI nicht gleich verboten, auch wenn sie noch für illegale Zwecke eingesetzt werden kann. Genauso wie Küchenmesser nicht verboten sind, obwohl man damit Menschen töten kann. 

Wie viele Regeln braucht Künstliche Intelligenz? Kann man diese sich rasant entwickelnde Technik überhaupt regulieren?
Wie viele Regeln braucht Künstliche Intelligenz? Kann man diese sich rasant entwickelnde Technik überhaupt regulieren?

Kleinere Unternehmen werden möglicherweise verdrängt

Eine Kritik an diesem Ansatz ist, dass kleinere Unternehmen oder einzelne, talentierte Personen, die solche Systeme entwickeln, oft nicht genügend Ressourcen haben, um all diese Regeln umzusetzen und so durch das Gesetz aus dem Markt gedrängt werden. Und selbst Sam Altman, Chef des Chat-GPT-Entwicklers Open-AI, sagte bereits, dass sich sein Unternehmen unter Umständen aus Europa zurückziehen würde, wenn der AI-Act nicht noch entschärft werde. 

Der AI-Act ist noch nicht perfekt. Ob er es am Ende wird und hält, was er verspricht, lässt sich noch nicht sagen. Er ist der erste große Versuch einer breiten KI-Regulierung. Auch wenn das Gesetz am Ende nicht perfekt ist, es ist gut, dass Europa diesen Versuch wagt. Wichtig ist aber, dass der AI-Act am Ende doch anpassbar bleibt, an unerwartete Entwicklungen im Bereich der Künstlichen Intelligenz. Denn wir stehen immer noch am Anfang dieser Entwicklung und können nicht voraussagen, was auf uns zukommt. 

Wie sich KI in den nächsten Jahren weiterentwickeln wird kann man nicht vorhersagen.
Wie sich KI in den nächsten Jahren weiterentwickeln wird kann man nicht vorhersagen.

Mehr zum Thema Künstliche Intelligenz

Kommentar Experten warnen vor Auslöschung der Menschheit durch KI

Eine Reihe führender Experten für Künstliche Intelligenz sieht in der Technologie eine potenzielle Gefahr für die Menschheit und hat dazu aufgerufen, die Risiken ernst zu nehmen. Gefahr oder Marketingstrategie?

Verhaltensforschung Einsatz von KI macht uns risikofreudiger

Künstliche Intelligenz kann das Risikoverhalten beeinflussen - unabhängig davon, ob die KI tatsächlich zum Einsatz kommt. Diesen Placebo-Effekt zeigt eine neue Studie.

Stand
AUTOR/IN
David Beck
Bild von David Beck, Reporter und Redakteur SWR Wissen aktuell sowie Redakteur bei SWR2 Impuls.
ONLINEFASSUNG
Ralf Kölbel