
Künstliche Intelligenz - EU-Regulierung und die Vorteile eines eigenen Modells
ein Beitrag unseres Datenschutzpartners @-yet
Im ersten Teil dieses Beitrages wurden die Möglichkeiten und Vorteile künstlicher Intelligenz bereits beschrieben. Und beinahe täglich finden sich Meldungen über neue Anwendungsgebiete in den einschlägigen Medien. Doch auch die Risiken des Einsatzes solcher Technologien sollten nicht ignoriert werden. Das hat auch die Politik verstanden. Dort ist das Thema künstliche Intelligenz längst in der Diskussion angekommen.
Regulierung durch die KI-Verordnung der EU
Das EU-Parlament hat sich mit dem Einsatz künstlicher Intelligenz beschäftigt. Die Entwicklung und der Einsatz von KI sollte nicht unkontrolliert ausufern. Die Gefahr, dass sich dies nachteilig auf die Menschen auswirkt, ist zu groß. KI soll in der EU reguliert werden. Bereits 2021 schlug die EU-Kommission einen entsprechenden Rechtsrahmen vor, der KI-Systeme basierend auf ihrem Risiko einordnen soll.
Das EU-Parlament hat hierzu ebenfalls eine eindeutige Position. KI soll innerhalb der EU sicher, transparent, diskriminierungsfrei und umweltfreundlich sein. Wichtigster Punkt: Sie soll von Menschen überwacht werden.
Im Rahmen der KI-Verordnung der EU ("AI Act") werden alle KI-Systeme in vier Risikostufen eingeordnet:
Unannehmbares Risiko
Unter diesen Punkt fallen alle Systeme, die Menschen manipulieren oder unterschwellig beeinflussen können. Auch werden hier Systeme genannt, die soziales Verhalten bewerten, ungezielte Überwachung ermöglichen oder Menschen anhand biometrischer Merkmale kategorisieren. Alle diese Systeme sind in der EU verboten.
Hohes Risiko
Systeme dieser Kategorie können sich potenziell nachteilig auf die Sicherheit von Menschen oder die Wahrung der Grundrechte auswirken. Dazu gehören Systeme, die bestimmen, wer eine bestimmte medizinische Behandlung erhalten kann oder für einen bestimmten Arbeitsplatz geeignet ist. Ebenso zählen hierzu Systeme, die als Sicherheitseinrichtungen in Bereichen wie Straßenverkehr oder Energieversorgung verbaut sind. Für diese Systeme gelten in der EU besondere Anforderungen. Dazu gehört eine Konformitätsbewertung, mit der die Einhaltung bestimmter Voraussetzungen sichergestellt wird.
KI-Systeme mit Transparenzanforderungen
Generative KI-Modelle werden nicht als risikobehaftet angesehen, müssen jedoch einige Anforderungen hinsichtlich der Transparenz erfüllen. ChatGPT, Gemini und andere generative KI-Systeme "mit allgemeinem Verwendungszweck" gehören in diese Kategorie. Zu den Anforderungen gehört die eindeutige Kennzeichnung, dass Inhalte mit der jeweiligen KI erzeugt wurden. Auch müssen die Anbieter sicherstellen, dass die Erzeugung illegaler Inhalte unterbunden wird.
Minimales Risiko
Die meisten KI-Anwendungen gehören in diese Kategorie. Die Hersteller müssen keine besonderen Auflagen erfüllen. Es wird jedoch empfohlen, freiwillig bestimmte Transparenz- und Kennzeichnungsvorgaben zu erfüllen.
Mit steigender Verbreitung und Leistungsfähigkeit kann sich die Risiko-Einordnung ändern. So verpflichtet die KI-Verordnung Hersteller bei Überschreiten einer bestimmten Leistungsgrenze zur Durchführung von Risikobewertungen. Sicherheits-Vorfälle sind zu melden und die Cyber-Sicherheit der Modelle zu gewährleisten.
Der "AI Act" wird durchaus kontrovers diskutiert. Während Verbände wie Bitkom die weitreichenden Verbote und Definitionen kritisieren, geht die Verordnung anderen Organisationen nicht weit genug. So bemängeln Bürgerrechtler unter anderem, dass die definierten Verbote nicht für militärische Zwecke und bei der Strafverfolgung gelten. Das bedeutet, dass Strafverfolgungsbehörden KI sowohl bei der Personenerkennung als auch bei der Vorhersage zu Kriminalitäts-Rückfallquoten einsetzen können, ohne von Einschränkungen betroffen zu sein.
Vorteile eines lokalen LLMs
Die sogenannten „Large Language Models“ ChatGPT und Co. haben einen Nachteil: Sie sind für die Allgemeinheit gedacht und werden darum mit einer Vielzahl von Informationen trainiert. Das kann dazu führen, dass diese Modelle für bestimmte Einsatzbereiche weniger gut geeignet sind. Außerdem besteht das Problem des Datenschutzes.
Ein Ausweg kann ein lokales LLM (LLLM) sein. Dies funktioniert genau wie die bekannten KI-Systeme, läuft jedoch auf Deiner eigenen Hardware. Du hast also bei einem solchen lokalen KI-System zunächst einmal die Kontrolle über das System selbst. Darüber hinaus erlaubt Dir ein LLLM das Training mit eigenen Daten. Das hat den Vorteil, dass Du Deine KI sehr genau für bestimmte Aufgaben trainieren kannst.
Auch bereits vortrainierte Modelle werden angeboten, die Du lokal benutzen kannst. Diese auch als GPT (Generative pre-trained transformer) bezeichneten Modelle werden unter anderem von großen Unternehmen wie Google und Facebook angeboten. Der Vorteil: Diese Modelle verfügen bereits über eine große Datenbasis. Sie lassen sich dann jedoch auf spezifische Einsatzzwecke trainieren. So existieren beispielsweise eigene GPTs für die Finanzbranche oder die Biotechnologie.
Ein mögliches Anwendungs-Szenario: Du trainierst Dein lokales LLM mit spezifischem Wissen zu juristischen, organisatorischen und technischen Dingen aus Deiner Branche. Im Ergebnis erhältst Du ein System, welches Dir beim Erstellen von fachspezifischen Briefen und Berichten helfen kann.
Eine andere Möglichkeit ist die Verarbeitung von Kundendaten. Bei ChatGPT und Gemini würdest Du sofort in Konflikt mit der DS-GVO geraten. Doch es spricht nichts dagegen, in Deinem eigenen trainierten Modell entsprechende Daten zu verarbeiten, um umfassende Vertriebsanalysen anzufertigen. Bitte stelle jedoch auch in einem solchen Anwendungsfall sicher, dass
- Du alle personenbezogenen Daten anonymisierst,
- Du nur einer unbedingt notwendigen Zahl von Mitarbeitenden Zugang zu den Daten gewährst
- Du Dein LLM mit allen erforderlichen Mitteln gegen Angriffe absicherst.
Bedenke auch: Die Einführung eines eigenen LLM kann kostenintensiv sein und spezielles Wissen erfordern. Du benötigst nicht nur entsprechende Hardware. Auch speziell geschulte Mitarbeitende sind während der Einführung notwendig. Darüber hinaus benötigst Du personelle Ressourcen zum Training des Systems und zur fortlaufenden Wartung während des produktiven Einsatzes.
Bevor Du also in ein solches Projekt einsteigst, plane den Einsatz des künftigen Systems sehr sorgsam. So vermeidest Du unnötige Ausgaben und ein gescheitertes KI-Projekt.
@YET
Die @YET GmbH aus Leichlingen ist ein führender IT-Sicherheits-Dienstleister mit über 20 Jahren Erfahrung im Bereich Cybersicherheit. Über 80 Mitarbeitende beraten und unterstützen namhafte Kunden - vom mittelständischen Unternehmen bis zum internationalen Konzern - bei der Prävention, Risikominimierung und im Bereich Datenschutz. Im Krisenfall stellt die @YET ein vollständiges strategisches und operatives Krisenmanagement unter Einsatz spezialisierter Incident-Response-Teams. Die hohe Qualität der @YET ist durch die Aufnahme in die APT-Responsedienstleister-Liste des BSI bestätigt.