Künstliche Intelligenz - Risiken und Chancen für Start-Ups

ein Beitrag unseres Datenschutzpartners @-yet

Künstliche Intelligenz - Risiken und Chancen für Start-Ups

Kaum ein Thema hat in den letzten Jahren die technologische Entwicklung mehr beeinflusst als die künstliche Intelligenz. Auf der einen Seite werden jeden Tag neue spannende Einsatzmöglichkeiten entwickelt und vorgestellt. Auf der anderen Seite lässt sich in Deutschland eine gewisse Zurückhaltung beobachten, die sich zwischen mahnender Skepsis bis hin zu tiefgreifender Furcht bewegt. Insbesondere die damit verbundenen Kosten und Risiken beim Einsatz dieser Technologie sorgen immer wieder für Ablehnung. Nichtdestotrotz herrscht die Überzeugung, dass kein Weg an innovativen KI-Lösungen vorbeiführt, um international im Spiel bleiben zu können.

Wie jede andere Technologie birgt die künstliche Intelligenz neben den Risiken auch Chancen. Besonders für Start-Ups bietet sie bedeutende Potenziale. Denn gerade junge Unternehmen haben sehr häufig nicht nur den Willen, neue Technologien einzusetzen und zu verbessern. Sie verfügen auch über die notwendigen Fähigkeiten sowie den hinreichenden Risikoappetit, um technologische Entwicklungen schnell in bestehende Strukturen einzuführen.

Im Folgenden beleuchten wir die Chancen und Risiken, die diese Technologie in sich trägt. Und wir liefern Dir passende Maßnahmen, damit Du den Risiken begegnen und somit unvorhergesehene Kosten, Betriebsfehler oder Compliance-Verstöße vermeiden kannst.

Übrigens:
In diesem Artikel versteckt sich ein Absatz, der von einer künstlichen Intelligenz geschrieben wurde. Wir sind gespannt, ob Du ihn entdeckst.

Was ist überhaupt künstliche Intelligenz?

Wenn wir von künstlicher Intelligenz sprechen, denken wir meist an Lösungen wie "Gemini", "Copilot" oder "ChatGPT". Maschinen, die wie Menschen denken, Probleme lösen und Sprache verstehen.

Tatsächlich ist das jedoch nur die halbe Wahrheit bzw. eine Illusion. KI-Systeme sind nicht kreativ und auch nicht zu eigenständigem Denken fähig. Sie imitieren diese Fähigkeiten lediglich. Es handelt sich um Algorithmen, die auf Basis von Mustern, Wahrscheinlichkeiten und riesigen Datenmengen Eingaben verarbeiten und Antworten liefern.

Während frühe KI-Systeme auf starr programmierten Regeln basierten, ermöglichen moderne Ansätze wie maschinelles Lernen und neuronale Netzwerke den Systemen, aus Erfahrungen zu lernen und ihre Leistung kontinuierlich zu verbessern. Dies hat zu beeindruckenden Fortschritten geführt, die sich in zahlreichen Anwendungen widerspiegeln, von Sprachassistenten und Empfehlungssystemen über medizinische Diagnostik bis hin zur Entwicklung autonomer Fahrzeuge.

Die Geschichte der künstlichen Intelligenz (bzw. des maschinellen Lernens) beginnt dabei nicht erst mit ChatGPT. Bereits in den 1950ern Jahren befassten sich Informatiker wie Alan Turing mit dem Konzept der "denkenden Maschinen". Doch erst seit wenigen Jahren sind im ausreichenden Maße Rechenleistung und Datenmengen verfügbar, die diese bahnbrechenden Entwicklungen ermöglichen, die wir Sie heute ganz selbstverständlich nutzen.

Welche Chancen bieten sich insbesondere für Start-Ups?

So präsent die Risiken beim Einsatz von KI auch sein mögen, bringt diese Technologie für Start-Ups zahlreiche Möglichkeiten mit. Das beginnt bereits bei der Automatisierung von Prozessen. Eine Maschine steuert Prozesse in der Regel schneller und effizienter als jeder Mensch. Dinge, die sich häufig wiederholen, können im Allgemeinen auch automatisiert werden.

KI eröffnet Start-Ups die Möglichkeit, innovative Produkte und Dienstleistungen zu entwickeln. Durch Automatisierung können Kosten gesenkt und die Effizienz gesteigert werden. Junge Unternehmen haben die Flexibilität, schnell auf neue Technologien zu setzen und sich so einen Wettbewerbsvorteil zu verschaffen. KI kann zudem helfen, Marktlücken zu identifizieren und neue Geschäftsmodelle zu etablieren.

KI kann im Maschinenbau eingesetzt werden, um Maschinen effizienter zu machen. Die Landwirtschaft kann von KI profitieren, in dem künstliche Intelligenz den Einsatz von Dünge- oder Schädlingsbekämpfungsmitteln optimiert und so zum Umweltschutz beiträgt. Das Gesundheitswesen erfährt eine kleine Revolution, in dem vollkommen neue diagnostische Verfahren entwickelt werden. Vertriebswege können optimiert, Wartungstechnik verbessert und die Produktionsqualität gesteigert werden.

Im Marketing kann künstliche Intelligenz bei der Erstellung von Bildern, Texten und ganzen Werbekampagnen eingesetzt werden.

Du siehst: Die Einsatzmöglichkeiten künstlicher Intelligenz sind nur von der Vorstellungskraft ihrer menschlichen Benutzer beschränkt.

Wo wird heute schon künstliche Intelligenz genutzt?

Der Einsatz von künstlicher Intelligenz ist immer dann fachlich und wirtschaftlich sinnvoll, wenn die Erstellung des für die Entscheidungsfindung relevanten Regelwerks zu komplex oder überhaupt nicht vollständig bekannt ist, aber auch hinreichend viele Datensätze für das Training des Modells vorhanden sind. In einem solchen Szenario können KI-Lösungen ihre Stärken voll ausspielen.

Entsprechende Lösungen halten Einzug in bereits bestehende Prozesse, Verfahren und Strukturen und verbessern diese signifikant. Wenn wir unser Smartphone in die Hand nehmen, haben wir es in der Regel mit künstlicher Intelligenz zu tun. Alle großen Hersteller haben die Technologie längst in ihre Geräte integriert. Darum können wir unser Smartphone entsperren, nur in dem wir es anschauen. KI-gestützter Gesichtserkennung sei Dank!

Suchmaschinen sind in der Lage, den Sinn und die Intention einer Suchanfrage zu verstehen. Per Spracheingabe übergeben wir den unterschiedlichsten Suchsystemen ohne nachzudenken ganze Fragen.

Auch sind Chatbots sind heute ganz natürlicher Teil vieler Websites. Kundenanfragen können jederzeit beantwortet werden. Und durch den Einsatz von großen Sprachmodellen (LLMs) wurde die Leistungsfähigkeit dieser Systeme entscheidend verbessert.

Das Smart Home ist heute ebenso in aller Munde. KI-Lösungen steuern beispielsweise die Heizungsanlage. Sie analysieren, wann die Bewohner zu Hause sind und regeln die Heizung unter Beachtung aktueller Wetterdaten möglichst kosteneffizient.

KI-Lösungen übernehmen mittlerweile auch die Organisation kompletter Betriebs- und Geschäftsprozesse. Neben der klassischen Tastatur- und Spracheingabe dienen auch Sensordaten als Input für entsprechende Modelle. In einer Fabrik kann damit der Fluss von Rohmaterial und fertigen Erzeugnissen gesteuert, Lagerhäuser verwaltet oder automatisch Bestellungen ausgelöst werden, wenn Vorräte zur Neige gehen. Andere Lösungen erkennen, wann eine Maschine wahrscheinlich ausfallen wird, und leiten daraufhin proaktiv entsprechende Wartungsmaßnahmen ein.

In der Medizin hilft künstliche Intelligenz bei der Erkennung von Erkrankungen. So werden schon heute Röntgenbilder und MRT-Daten von KI-Systemen analysiert, um Tumore aufzuspüren oder die Wirkungsweise von Molekülen simuliert, um noch wirksamere Medikamente zu entwickeln.

Welche Risiken bestehen beim Einsatz von künstlicher Intelligenz?

Künstliche Intelligenz ist eine zukunftsträchtige Technologie, die uns von nun an begleiten wird. Wir dürfen jedoch niemals vergessen, dass wir es eben mit einer Technologie zu tun haben. Und diese weist Fehler auf. Und im Falle einer KI können diese Fehler durchaus sehr menschliche Züge haben.

Eine KI kann sich irren

Soll eine Entscheidung getroffen werden, steht die KI vor dem gleichen Problem wie ein Mensch. Sie kann nur von dem ausgehen, was sie weiß. Mit anderen Worten: Auch eine KI kann falsch liegen, wenn sie von falschen oder ungenauen Annahmen ausgeht. Und das birgt bedeutende Probleme. Eine falsche Antwort auf eine Frage ist dabei noch die harmlose Variante. Erkennt eine Gesichtserkennungs-KI jedoch in einem vollkommen unschuldigen Menschen einen gesuchten Terroristen, bewegen wir uns in ganz anderen Dimensionen.

Abhängig von der Relevanz des Ergebnisses sollten KI-Modelle so gestaltet sein, dass die Herleitung des Ergebnisses angezeigt wird und die Güte der Ergebnisse kontinuierlich durch stichprobenhafte Überprüfung validiert wird. Bei Auffälligkeiten muss das Modell optimiert werden.

Es ist zu empfehlen, die Trainingsphase nicht voreilig abzuschließen. Definiere einen genauen Schwellenwert für die Ergebnisse der KI (z. B.98% richtige Antworten). Erst wenn dieser Wert erreicht ist, sollte auch die initiale Trainingsphase abgeschlossen werden. Schlechte Erfahrung der Nutzenden verbreitet sich i.d.R. schneller und weitreichender als gute. Einmal verlorenes Vertrauen lässt sich nur schwer wieder aufbauen. Auch sollte bei der Trainingsphase besonders darauf geachtet werden, dass sich durch bewusst böswillige Eingaben keine absichtlichen Falsch- oder Fehlaussagen prozieren lassen.

Nutzt Du eine KI zur Texterstellung, solltest Du die Ausgabe immer überprüfen. Enthaltene Fakten solltest Du ebenfalls noch einmal genauer unter die Lupe nehmen und durch andere Quellen verifizieren.

Eine KI kann voreingenommen sein

Es mag etwas "menschlich" klingen. Doch auch eine künstliche Intelligenz kann eine vorgefertigte Meinung haben. Die hat sie nicht selbst entwickelt, sondern den Daten entnommen, mit denen sie trainiert wurde. Ebenfalls eine menschliche Parallele. Und wie Menschen, die sich ausschließlich in ihrer Filterblase bewegen, entwickeln auch KI-Systeme eigentümliche "Biases" oder "Verzerrungen". Diese können bisweilen diskriminierende Formen annehmen.

  • Google Fotos es in der Vergangenheit geschafft, Schwarze Menschen als Gorillas und Menschen generell als Hunde zu identifizieren.
  • Ein großer Onlinehändler hat sich bei Bewerbungsverfahren von einer KI-Software unterstützen lassen. Das führte dazu, dass Frauen in Bewerbungsprozessen generell benachteiligt wurden.
  • Apple Pay fand es vollkommen normal, Frauen einen niedrigeren Kreditrahmen einzuräumen.

Beim Training von KI-Modellen muss daher darauf geachtet werden, dass die vorhandenen Trainingsdaten überhaupt für das KI-Training geeignet sind. Das heißt, in Ihnen sollten sich keine statistischen Verzerrungen oder Fehler befinden.

Weiterhin ist die korrekte Zieldefinition der Optimierung des Trainings wichtig. Wenn - wie im genannten Beispiel - als Ziel definiert ist, die gleichen Bewerber einzustellen wie bisher, wird sich die bestehende Verzerrung der Personalabteilung fortschreiben. Geschickter wäre es, die Zielfunktion auf die Bewertung der Fähigkeiten und Erfahrungen zu optimieren.

Eine KI kann lügen.

Wir haben weiter oben gesehen, dass eine KI durchaus irren kann. Noch eine sehr menschliche Eigenschaft. Doch KI Modelle können auch lügen. Dies musste beispielsweise ein New Yorker Anwalt erfahren, der für eine Klagebegründung auf die KI zurückgriff. In seiner Begründung führte der Jurist diverse Präzedenzfälle an. Das Problem: ChatGPT wurde an dieser Stelle außergewöhnlich kreativ und dachte sich einige der angeführten Präzedenzfälle lediglich aus. Bei dieser Form der "Kreativität" spricht man von Halluzinationen. Die künstliche Intelligenz erfindet in diesem Falle "Fakten", die sich meist mit den zugrundeliegenden Trainingsdaten nicht erklären lassen. Diese „Fakten“ klingen absolut plausibel, sind jedoch ebenso absolut falsch.

Wenn Du genauer hinsiehst, wirst Du bei ChatGPT, Gemini und Co. einen Hinweis finden, dass die Ergebnisse ungenau sein können. Diesen Hinweis solltest Du unbedingt beherzigen und jedes Ergebnis stets doppelt prüfen.

Eine KI hat (fast) immer einen Hersteller

Herrscht Goldgräberstimmung, tragen i. d. R. die Goldgräber das Risiko. Die Hersteller der Schaufeln und Spitzhacken hingegen treiben die Gewinn-Marge ein. Im Kontext der KI-Lösungen hat sich ein vergleichbares Ökosystem entwickelt. In erster Linie profitieren Chiphersteller. Die rüsten die Betreiber der Rechenzentren aus, in denen die mächtigsten Modelle gehostet werden. Die Betreiber wiederum erzielen Gewinne aus der Lizenzierung der Schnittstellen für die finalen kommerziellen Produkte und Geschäftsmodelle.

Betreibt ein Unternehmen seine Lösung mit der API eines der großen Anbieter, kann dieser die Preise für die API-Nutzung jederzeit verändern. Schon geringe Preisänderungen innerhalb der Lieferkette können signifikante Folgen für die Monetarisierung des eigenen Geschäftsmodells haben.

Eine Möglichkeit, um dieser Gefahr zu begegnen, sind frei verfügbar Open-Source-Modelle, die Du auch selbst hosten kannst. Mache Dir jedoch vorher klar, in welcher Dimension Ressourcen erforderlich sind, um das eigene Modell effizient und erfolgreich betreiben zu können. Bedenke dabei nicht nur Technik und Kosten der Einführung. Auch personelle Ressourcen für die kontinuierliche Optimierung des Modells sollten in die Betrachtung einfließen.

Ein Ansatz dabei ist, die Aufteilung in einzelne spezialisierte Modelle, die jeweils Teilaufgaben übernehmen. So kann ein Modell den initialen Input für ein dahinterliegendes Modell aufbereiten. Diese Trennung von Inputverarbeitung und Berechnung spart Kosten und macht das verarbeitende Modell weniger anfällig für böswilligen Input.

Datenschutzrechtliche Herausforderungen

Eine ganz große Bitte: Gib niemals personenbezogene Daten oder geschützte Geschäftsdaten in ein System wie ChatGPT oder Google Gemini ein. Auf der einen Seite wirst Du ohnehin keine Einwilligung zu dieser Art der Verarbeitung haben, was Dich in einen Konflikt mit der DS-GVO bringt. Auf der anderen Seite können Eingabedaten zum Training der Modelle genutzt werden. Geschäftsgeheimnisse könnten so nicht mehr lange ein Geheimnis sein.

Außerdem sind Verfahren bekannt, mit denen sich Trainingsdaten aus dem Output ableiten lassen (sog. Model attribute inference attacks).

Die Modelle sollten daher idealerweise mit pseudonymisierten, anonymisierten oder synthetischen Daten trainiert werden, um dies zu vermeiden.

Organisationen, die für die tägliche Arbeit KI-Lösungen einsetzen bzw. zulassen, sollten ihre Mitarbeitenden dafür sensibilisieren, möglichst keine vertraulichen Daten als Input zu verwenden, da nach Architektur und Servicemodell nicht ausgeschlossen werden kann, dass diese damit durch den Betreiber der Lösung oder gar Dritte ausgelesen werden können.

@-yet

Die @-yet GmbH aus Leichlingen ist ein führender IT-Sicherheits-Dienstleister mit über 20 Jahren Erfahrung im Bereich Cybersicherheit. Über 80 Mitarbeitende beraten und unterstützen namhafte Kunden - vom mittelständischen Unternehmen bis zum internationalen Konzern - bei der Prävention, Risikominimierung und im Bereich Datenschutz. Im Krisenfall stellt die @-yet ein vollständiges strategisches und operatives Krisenmanagement unter Einsatz spezialisierter Incident-Response-Teams. Die hohe Qualität der @-yet ist durch die Aufnahme in die APT-Responsedienstleister-Liste des BSI bestätigt.