Künstliche Intelligenz und der Versuch einer Regulierung – Die KI-Verordnung

Künstliche Intelligenz und der Versuch einer Regulierung – Die KI-Verordnung

Abbildung 1

Ohne Regulierung geht es nicht, aber wie sieht ein intelligenter Rechtsrahmen für KI aus?

Der Mensch ist eine bemerkenswerte Natur. Er kann es nicht lassen, mit dem Feuer zu spielen. Die Neugier bestimmt unser Verhalten. Schon im Kindesalter fängt es an. Es liegt also in uns – und das ist gut so!

Es ist letztlich kein Wunder, dass Hesiod in der griechischen Mythologie Pandora ihre Büchse öffnen lässt. Auch Goethe beschreibt bei seinem Zauberlehrling nur allzu Menschliches. Walle, walle! Die Begeisterung weicht jedoch rasch einer anderen Erkenntnis: Die ich rief, die Geister, werd‘ ich nun nicht los! Erst der alte Meister verbannt den Besen wieder an seinen angestammten Platz.

Ohne den klassischen Dichter im Übermaß zu bemühen, kann man gleichwohl die Frage stellen: Nun sag‘, wie hast du’s mit der Künstlichen Intelligenz? Die Antwort erscheint zunächst klar, denn zur Religion erheben sollte man die KI in keinem Fall. Sie ist eine Technologie, die riesiges Potential besitzt, aber eben auch mit nicht übersehbaren Herausforderungen daherkommt. Gerade letztere führten im März 2023 dazu, dass eine Reihe von Experten in einem offenen Brief einen sechsmonatigen Entwicklungsstopp für generative AI forderten. Als Randnotiz sei erwähnt, dass Elon Musk – der wohl prominenteste Unterzeichner – wenige Wochen später sein neustes KI-Unternehmen “xAI” aus der Taufe hob. Also alles nur ein Lippenbekenntnis?

Zu den Fakten: Systeme, die sich KI bedienen, sind äußerst leistungsfähig. Sie bieten quer durch sämtliche Industriezweige und Forschungsgebiete einen deutlichen Mehrwert. Dieser liegt im Kern darin, dass binnen kürzester Zeit größte Mengen an Informationen innerhalb artifizieller neuronaler Netzwerke im Kontext vorangegangener Erkenntnisse verarbeitet werden können. Der kontinuierliche Lernprozess einer KI wird dabei durch stetige Überprüfung des eigenen Outputs sichergestellt. Eigenreflexion ist Teil des Prinzips. Hierfür braucht es nicht nur Daten für das anfängliche Trainieren der KI, sondern auch einen fortlaufenden Rückfluss an Informationen. Bei der derzeit wohl bekanntesten generativen KI-Anwendung ChatGPT führt dies dazu, dass jeder Prompt, der nutzerseitig in das System eingegeben wird, nicht nur zur Formulierung der Antwort dient, sondern auch zum Training des Systems selbst.

Dies zeigt, dass das Thema KI untrennbar mit dem Thema Daten und Dateneigentum verknüpft ist. Dabei existiert an Daten kein Eigentum im klassischen Sinn. Letztere können in ganz unterschiedlicher und sich teils auch überlappender Weise proprietär zugeordnet sein. Daten können beispielsweise urheberrechtlich geschützt sein, Geschäftsgeheimnisse darstellen oder aufgrund ihres Personenbezugs in den Schutzbereich des Datenschutzrechts fallen. Genau diese proprietäre Zuordnung hat im vergangenen Jahr 2023 zu zahlreichen Rechtsstreitigkeiten zwischen KI-Entwicklern wie StabilityAI oder OpenAI einerseits und Rechteinhabern andererseits geführt. Diverse class action-Verfahren sind vor U.S.-Gerichten anhängig, aber auch in London und Hamburg werden erste KI-Prozesse verhandelt. Kernfrage ist stets, ob die Datensets ohne ausdrückliche Zustimmung des Rechteinhabers Verwendung finden durften.

Die Herausforderung liegt aber nicht allein auf proprietärer Ebene. Die Trainingsdaten sind in Teilen schlicht falsch, enthalten rassistische, sexistische oder anderweitig rechtswidrige Inhalte. Mit anderen Worten: KI-Systeme haben nicht immer Recht, sind manipulierbar und können Halluzinationen schaffen. Was eloquent und überzeugend klingt, kann gänzlich unzutreffend sein. Entsprechend hoch ist die Missbrauchsgefahr.

Wie so oft hinken Legislative und Administrative der technischen Entwicklung, aber auch der judikativen Befassung mit dem Thema hinterher. Am 30.10.2023 erließ die Biden-Administration eine Executive Order zum Umgang mit KI. Anfang Dezember 2023 einigten sich die EU-Institutionen im Rahmen ihrer Trilog-Verhandlungen auf die Eckpunkte einer KI-Verordnung. Der vermeintlich finale Text wurde Mitte Januar geleakt. Rat und Parlament sollen diesen in der ersten Februarhälfte offiziell beschließen, doch schon regen sich einige Mitgliedstaaten und wollen – insbesondere hinsichtlich der Bestimmungen zu sog. Large Language Models – nachverhandeln. Es bleibt also spannend. Einen Schritt weiter sind wir dagegen bei der Normung von KI-Systemen. Bereits im Dezember 2023 wurde hier die erste Edition eines ISO Standards zu KI vorgestellt (42001:2023).

All diesen Maßnahmen ist eines gemein: Sie setzen auf verbindliche Strukturen, verpflichtend einzuhaltende Prozesse bei der Entwicklung und Nutzung von KI sowie auf das Prinzip der humanen Endkontrolle. Es geht um Dinge wie Folgenabschätzung, Risikoklassifizierung, aber auch um die Festlegung von Bereichen, in denen KI Anwendung finden darf. Es ist leicht zu erkennen, dass die zum Einsatz kommenden Werkzeuge keineswegs neu sind. Schon an anderer Stelle – etwa dem Datenschutz oder dem Gesundheitsschutz – wurde und wird versucht, den bestehenden Risiken in dieser Weise Herr zu werden.

Was speziell von der neuen KI-Verordnung zu halten ist, wird erst eine vertiefte Analyse des abschließenden Wortlauts weisen können. Die Identifizierung unterschiedlicher Risikobereiche ist dabei durchaus sinnvoll, doch darf man nicht vergessen, dass KI – wie im Übrigen auch menschliche Intelligenz – in allen Lebenslagen helfen kann. Es bedarf also eines passenden übergreifenden Rechtsrahmens. An dieser Latte müssen sich alle drei Gewalten – und im Übrigen auch Unternehmen und Anwender – messen lassen.

Was ist nun die Antwort auf die Gretchenfrage? Die Entwicklung zurückdrehen oder eine Pause einlegen, das funktioniert nicht. KI wird genutzt und soll genutzt werden. An einer Orientierung gebenden Regulierung wird intensiv gearbeitet. Naturgemäß muss diese in der Folge stetig verfeinert werden, um mit der keineswegs am Ende befindlichen technischen Entwicklung Schritt zu halten. All dies wird Missbrauchsfälle nicht verhindern können. Daher wird es am Ende auch die Aufgabe jedes Einzelnen sein und bleiben, sensibel mit der KI und den mit ihr generierten Ergebnissen umzugehen. Nur so bleibt der Geist der KI in der Flasche, also unter menschlicher Kontrolle.

Dr. Nils
Rauer
, MJI, RA, Jahrgang 1975. Studierte in Gießen und Warwick. Promotion zum europäischen Warenverkehr. Rechtsanwalt seit 2004. Partner der international beratenden Kanzlei Pinsent Masons. Regelmäßige Gastvorlesungen in Mainz, Frankfurt a. M., München, Warwick, Seoul, Berkeley. Beratungsschwerpunkte: Digitalisierung und Urheberrecht sowie Plattformstrukturierung und Entwicklung von Datenkonzepten.

Rauer, BB 2024, Heft 07, Umschlagteil, I