KI-Update Deep-Dive: Tüv IT über KI-Zertifizierung

Der AI Act verlangt die Überprüfung und Zertifizierung von Risiko-reichen KI-Anwendungen. Wie das aussehen kann, erklärt Vasilios Danos vom Tüv Nord.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 3 Min.

Der Tüv Nord bereitet sich darauf vor, KI-Systeme gemäß der kommenden EU-Regulierung zu zertifizieren. Doch das Unternehmen nimmt gleich eine Doppelrolle ein, während sie am Prozess der Überprüfung teilhaben wollen, setzen sie freilich auch selbst KI-Systeme ein. Vasilios Danos von Tüv IT, einer Tochter vom Tüv Nord, erklärt, dass der Tüv sowohl KI für interne Prozesse einsetzt, vom KI-Chatbot bis zum KI-gestützten Prüfsystem, als auch KI-Systeme als Prüfgegenstand hat. Generativer KI kommt dabei eine Sonderrolle zu – wie eigentlich immer. Denn sie muss laut AI Act auch besonders zertifiziert werden. Wie das genau aussehen wird, ist allerdings an vielen Stellen noch unklar.

Klar ist, nicht jeder wird einen KI-Chatbot oder ein GPT einfach so betreiben können, wie er Lust und Laune hat. Zunächst muss zwar der KI-Anbieter seine Modelle prüfen und zertifizieren lassen, erklärt Danos. Das heißt, OpenAI beispielsweise durchläuft den Zertifizierungsprozess für GPT-4. Wer dann ChatGPT nutzt, muss nichts weiter bedenken. Wer allerdings ein GPT entwickelt, bei dem allerhand Änderungen vorgenommen werden, muss gegebenenfalls dieses noch mal prüfen lassen. "Die EU-Kommission war so nett, mal abzuschätzen, wie hoch diese Compliance-Kosten denn sein könnten. Da kam eine Zahl raus, ungefähr in der Höhe von einem Prozent der Entwicklungskosten von diesen Basismodellen. Klingt vielleicht erst einmal nicht ganz so viel, aber wenn man anschaut, was die Entwicklung von GPT-4 gekostet hat, die war im Bereich von einer halben Milliarde, ist es viel", erklärt Danos.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Die Prüfkriterien und -methoden sind da, um KI-spezifische Risiken zu bewerten, wie Prompt Injections, Jailbreaking oder toxisches Verhalten bei Sprachmodellen. Denn wir wissen, diese Risiken können nicht verhindert werden. Man kann also am Ende nur sagen, wie groß sie bei einer jeweiligen Anwendung sind, außerdem kann man versuchen, sie zu minimieren. Danos sagt: "Eine hundertprozentige Sicherheit kann es nicht geben, aber die Hürden sollen möglichst hoch gesetzt werden." Vielleicht gelingt es Aktivisten und Hackern, KI-Systeme zu überlisten, aber nicht einem normalen Anwender. Ihm sollte das KI-Modell keine Probleme verursachen. "Stell dir vor, ein Unternehmen hat einen Chatbot im Kundenkontakt und plötzlich fängt der Chatbot an, den User zu beleidigen oder vielleicht frauenfeindliche oder rassistische Stereotype wiederzugeben", warnt Danos. Das wolle kein Unternehmen, die Presse, die es gäbe, wär keine gute Presse. Entsprechend dient die Zertifizierung also auch als Verbesserungsprozess für die KI-Systeme.

Es ist laut Danos zu erwarten, dass sich für manche Anwendungen der KI-Einsatz als nicht sinnvoll herausstellen wird. Es gäbe viele Anwendungen, die mit KI automatisierbar seien, etwa im Medizinbereich. "Aber am Ende muss alles vom Menschen überprüft und nachgeschaut werden, sodass es sich oft gar nicht lohnt, zusätzlich KI einzusetzen." Zu den Herausforderungen gehöre außerdem der Datenschutz, da sich DSGVO-Anforderungen bei KI schwer umsetzen lassen.

(emw)