geändert am 13. Februar 2025
KI-Verordnung der EU: Der Amtsschimmel wiehert. Heinrich! Mir graut’s vor dir!
Ich gebe es zu: Als ich das erste Mal von der EU-KI-Verordnung, dem sogenannten EU AI Act, hörte, beschlich mich ein Gefühl tiefster Beklommenheit. Heinrich, der personifizierte Amtsschimmel, stand leibhaftig vor meinem geistigen Auge, bereit, die Mühlen der Bürokratie anzuwerfen und uns alle unter Bergen von Formularen und Richtlinien zu begraben. Und jeder, der bisher zögerte KI einzusetzen, wird durch die Künstliche Intelligenz Verordnung derzeit noch mehr ausgebremst, befürchte ich. Aber es wird nichts so heiß gegessen, wie gekocht und für „normale“ KI-Anwendungen ändert sich praktisch wenig. Und KI-Kompetenz schadet schließlich niemanden, sondern treibt sinnvolle KI-Nutzung voran.

Disclaimer: Bitte beachten Sie, dass ich kein Rechtsanwalt bin. Dieser Artikel stellt keine Rechtsberatung dar, sondern lediglich eine nach bestem Wissen und Gewissen durchgeführte Recherche. Als Quellen dienen Bundesregierung.de, das Fraunhofer IAIS und andere glaubwürdige Quellen.
Aktuelles vorweg
Ab dem 5. Februar 2025 gelten folgende konkrete Anforderungen der KI-Verordnung:
- KI-Kompetenz
- Bei der beruflichen Nutzung von KI wird KI-Kompetenz erwartet. Obwohl es diese „faktische Schulungspflicht“ gibt, sind die konkreten Anforderungen an die KI-Kompetenz noch nicht abschließend definiert. Es wird empfohlen, dass Unternehmen ihre Mitarbeiter im Umgang mit KI weiterbilden und so über den AI Act hinaus fit machen. Wichtig ist, dass die Maßnahmen zum Kompetenzaufbau auf den jeweiligen Einsatzkontext und die Vorkenntnisse der Mitarbeiter zugeschnitten sind.
- Verbot von KI-Systemen mit unannehmbaren Risiken
- Manipulative KI-Technologien, die menschliches Verhalten unbewusst steuern.
- KI-gestützte biometrische Echtzeitüberwachung in öffentlichen Räumen, die zu Massenüberwachung führen kann.
- Sozialbewertungssysteme nach dem Vorbild des chinesischen Social Credit Systems, die zu Diskriminierung führen können.
- Systeme zur Emotionserkennung.
Der AI Act im Detail – Risikokategorien
Die KI-Verordnung, ein Produkt der Europäischen Union, ist seit August 2024 in Kraft. Sie reguliert KI-Systeme nach einem risikobasierten Ansatz. Das bedeutet, dass die Anforderungen an KI-Systeme je nach dem potenziellen Risiko variieren, das von ihnen ausgeht. Die Verordnung teilt KI-Systeme in vier Risikokategorien ein:
Unannehmbares Risiko
- Unannehmbares Risiko: KI-Systeme, die als eindeutige Bedrohung für die Sicherheit, Lebensgrundlagen und Rechte der Menschen angesehen werden, sind verboten. Hier einige Beispiele:
- Social Scoring: Systeme, die Bürger anhand ihres Verhaltens, sozioökonomischen Status oder persönlicher Merkmale bewerten und dadurch ihren Zugang zu Dienstleistungen oder Chancen beeinflussen.
- Konkretes Beispiel (hypothetisch): Eine fiktive „Bürger-Score-App“, die Daten aus sozialen Medien, Kaufverhalten und Bewegungsprofilen kombiniert, um einen „Sozialindex“ zu erstellen. Vermieter oder Arbeitgeber nutzen diesen Score, um Bewerber auszuwählen.
- Manipulative KI: KI-Systeme, die durch unterschwellige Techniken oder die Ausnutzung von Schwachstellen menschliches Verhalten manipulieren, z.B. sprachaktivierte Spielzeuge, die Kinder zu gefährlichem Verhalten anregen.
- Konkretes Beispiel (hypothetisch): Ein sprachgesteuertes Lernspielzeug, das Kinder durch subtile Belohnungen und Bestrafungen dazu bringt, immer mehr Zeit mit dem Spielzeug zu verbringen und soziale Kontakte zu vernachlässigen.
- Biometrische Echtzeit-Fernidentifizierung: Systeme zur biometrischen Identifizierung in Echtzeit und aus der Ferne, z.B. Gesichtserkennung in öffentlichen Räumen (Ausnahmen: für Strafverfolgungszwecke sind sie unter bestimmten Bedingungen möglich).
- Konkretes Beispiel (tatsächlich eingesetzt, aber umstritten): Gesichtserkennungssysteme in Bahnhöfen oder Einkaufszentren, die automatisch Personen identifizieren und ihre Bewegungen verfolgen. Solche Systeme sind in einigen Ländern bereits im Einsatz, ihr Einsatz in der EU wäre jedoch nur unter strengen Auflagen und Ausnahmen zulässig.
- Emotionserkennung: Grundsätzlich ist die Nutzung von KI-Systemen zur Emotionserkennung am Arbeitsplatz nach der EU-KI-Verordnung verboten, da sie als Eingriff in die Privatsphäre und potenziell diskriminierend angesehen wird.
- Konkretes Beispiel, tatsächlich vorhanden: KI-Anwendungen die beispielsweise dazu eingesetzt werden, die emotionale Verfassung einzelner Teilnehmer in einem Online-Meeting zu erfassen – etwa um Aufregung, Ärger, Belustigung oder Traurigkeit zu identifizieren.
- Ausnahmen: Wird der Einsatz dieser Systeme jedoch aus medizinischen Gründen, etwa zu therapeutischen Zwecken, oder aus Sicherheitsgründen, wie zur Erkennung von Müdigkeit bei der Führung von Verkehrsmitteln, veranlasst, so kann diese Praxis als zulässig betrachtet werden.
- Social Scoring: Systeme, die Bürger anhand ihres Verhaltens, sozioökonomischen Status oder persönlicher Merkmale bewerten und dadurch ihren Zugang zu Dienstleistungen oder Chancen beeinflussen.
Hohes Risiko
- Hohes Risiko: KI-Systeme, die als besonders risikoreich eingestuft werden, unterliegen strengen Anforderungen. Dazu gehören KI-Systeme, die in den folgenden Bereichen eingesetzt werden:
- Kritische Infrastruktur: KI-Systeme, die als Sicherheitskomponenten in der Steuerung und dem Betrieb kritischer digitaler Infrastruktur, des Straßenverkehrs oder der Versorgung mit Wasser, Gas, Heizung und Strom eingesetzt werden.
- Konkretes Beispiel: KI-gesteuerte Überwachungssysteme für Pipelines, wie im Projekt „ARGUS-KI“ der FH Kiel beschrieben. Diese Systeme analysieren Daten von Sensoren, um Leckagen oder Schäden frühzeitig zu erkennen und so die Sicherheit der Infrastruktur zu gewährleisten. Es gibt auch KI-Systeme, die Cyber-physische Systeme analysieren, um die Sicherheit kritischer Infrastrukturen zu gewährleisten.
- Bildung und Berufsausbildung: KI-Systeme, die über den Zugang, die Zulassung oder die Zuweisung zu Bildungs- und Berufsausbildungseinrichtungen auf allen Ebenen entscheiden.
- Konkretes Beispiel: Automatische Bewerbungs- und Zulassungssysteme für Universitäten, die KI verwenden, um Bewerbungen zu bewerten und Studienplätze zu vergeben.
- Beschäftigung, Arbeitnehmerverwaltung und Zugang zur Selbstständigkeit: KI-Systeme, die im Einstellungs- oder Auswahlprozess verwendet werden oder zur Überwachung der Leistung von Mitarbeitern eingesetzt werden.
- Konkretes Beispiel: KI-gestützte Personalanalysesoftware, die Bewerberprofile analysiert, um die besten Kandidaten für eine Stelle zu identifizieren oder die Leistung von Mitarbeitern überwacht, um Verbesserungspotenziale aufzudecken. Diese Art von algorithmischem Management ist rechtlich komplex.
- Wesentliche private und öffentliche Dienstleistungen: KI-Systeme, die den Zugang zu wesentlichen privaten Dienstleistungen (z. B. Kreditvergabe) oder öffentlichen Dienstleistungen und Leistungen (z. B. Beurteilung der Anspruchsberechtigung für Sozialleistungen) bestimmen.
- Konkretes Beispiel: KI-basierte Kreditscoring-Systeme, die die Kreditwürdigkeit von Antragstellern bewerten oder KI-Systeme, die in der öffentlichen Verwaltung eingesetzt werden, um Anträge auf Sozialleistungen zu prüfen.
- Strafverfolgung: KI-Systeme, die bei der Strafverfolgung eingesetzt werden, z.B. zur Risikobewertung von Straftätern oder zur Analyse von Beweismitteln.
- Konkretes Beispiel: KI-gestützte Gesichtserkennungssysteme, die zur Identifizierung von Verdächtigen in Echtzeit verwendet werden oder KI-Systeme, die Beweismittel analysieren, um Muster zu erkennen und Verbrechen aufzuklären.
- Migrations-, Asyl- und Grenzkontrollmanagement: KI-Systeme, die bei der Grenzkontrolle, der Bearbeitung von Asylanträgen oder der Überwachung von Migranten eingesetzt werden.
- Konkretes Beispiel: KI-gestützte Systeme zur automatischen Erkennung von verdächtigen Mustern im Reiseverhalten oder zur Analyse von Asylanträgen, um die Glaubwürdigkeit der Antragsteller zu bewerten.
- Rechtspflege: KI-Systeme, die bei der Auslegung und Anwendung von Gesetzen helfen.
- Konkretes Beispiel: KI-Systeme, die Anwälten und Richtern bei der Recherche von Präzedenzfällen und der Auslegung von Gesetzen helfen, um fundierte Entscheidungen zu treffen.
- Produktsicherheit: KI-Systeme, die in Produkten verwendet werden, die unter die EU-Produktsicherheitsgesetzgebung fallen (z. B. Spielzeug, Luftfahrt, Autos, Medizinprodukte, Aufzüge). Konkret müssen diese Systeme eine Konformitätsbewertung durchlaufen, um sicherzustellen, dass sie den Anforderungen der Verordnung entsprechen. Die Bundesregierung bietet hierzu erste Informationen.
- Kritische Infrastruktur: KI-Systeme, die als Sicherheitskomponenten in der Steuerung und dem Betrieb kritischer digitaler Infrastruktur, des Straßenverkehrs oder der Versorgung mit Wasser, Gas, Heizung und Strom eingesetzt werden.
Begrenztes Risiko
- Begrenztes Risiko: Für KI-Systeme mit begrenztem Risiko gelten Transparenzpflichten. Das bedeutet, dass die Nutzer darüber informiert werden müssen, dass sie mit einem KI-System interagieren . Hier einige Beispiele :
- Chatbots und virtuelle Assistenten: Für den rechtlich sicheren Einsatz von Chatbots sieht die EU eine einzige Vorgabe vor: KI Chatbots müssen transparent sein. Nutzer sollen immer wissen, dass sie mit einer KI sprechen, um in der Lage zu sein, jederzeit eine informierte Entscheidung für oder gegen die Weiterverwendung zu treffen.
- Deepfakes: Synthetisch erzeugte oder manipulierte Bild-, Audio- oder Videoinhalte, die täuschend echt wirken, müssen als solche gekennzeichnet werden.
- KI-Meeting-Assistenten: Auch bei KI-Meeting-Assistenten greifen Transparenzpflichten. Meeting-Teilnehmer sollten informiert werden, wenn KI-Systeme eingesetzt werden, um Beiträge zu bewerten, Besprechungen zu transkribieren oder zusammenzufassen. Dies schafft Transparenz und Vertrauen und ermöglicht es den Teilnehmern, ihre Interaktion anzupassen.
Minimales/kein Risiko
- Minimales/kein Risiko: KI-Systeme, die als geringes oder gar kein Risiko darstellen, unterliegen keinen spezifischen Anforderungen der KI-Verordnung. Hierunter fallen beispielsweise KI-Systeme, die für:
- Videospiele: KI-gesteuerte Gegner in Videospielen.
- Spamfilter: Automatische Filter, die unerwünschte E-Mails erkennen und aussortieren.
- Helligkeitsanpassung von Fotos: Simple Filter, die die Helligkeit von Fotos anpassen.
- Produktempfehlungen: Personalisierte Empfehlungen auf E-Commerce-Plattformen.
- KI-Textgeneratoren: Werkzeuge zur automatischen Erstellung von Texten für verschiedene Zwecke wie Marketing, E-Mail, Blogging oder Produktbeschreibungen. Beispiele hierfür sind Neuroflash und Mindverse.
- KI-Bildgeneratoren: Anwendungen, die auf Basis von Texteingaben oder anderen Bildern neue Bilder erzeugen.
- KI-Videogeneratoren: Systeme, die Videos automatisiert erstellen können.
- KI-3D-Modellgeneratoren: Werkzeuge zur schnellen Erstellung von 3D-Modellen für Spieleentwicklung, Architektur, Produktdesign oder Bildung.
Ab dem 2. August 2026 sollen die meisten Regeln anwendbar sein. Das bedeutet für Unternehmen, die KI einsetzen, vor allem eines: Arbeit, Arbeit, Arbeit! Anbieter, Einführer, Händler und Betreiber von KI-Systemen (insbesondere von Hochrisiko-KI-Systemen) müssen diverse Auflagen erfüllen. Da wären beispielsweise:
- Die Pflicht zur Registrierung in einer EU-Datenbank, bevor ein Hochrisiko-KI-System anderen zur Verfügung gestellt oder am Arbeitsplatz in Betrieb genommen wird.
- Die Implementierung von Risikomanagementsystemen, um potenzielle Gefahren zu identifizieren und zu minimieren.
- Die Einhaltung von Transparenzanforderungen, um die Funktionsweise der KI-Systeme nachvollziehbar zu machen.
- Die Gewährleistung von Datensicherheit und Datenschutz.
- Die Bereitstellung von Dokumentationen und technischen Unterlagen, die die Konformität mit den Anforderungen der KI-Verordnung belegen.
Und wehe dem, der gegen die Vorschriften verstößt! Die Strafen können empfindlich sein und bis zu einem bestimmten Prozentsatz des weltweiten Jahresumsatzes des Unternehmens betragen.
Die Bürokratie frisst die Innovation
Ich sehe schon die Schlagzeilen vor mir: „KI-Startup geht unter im Paragraphen-Dschungel“, „Kreative Köpfe fliehen aus Europa – Bürokratie bremst KI-Innovation“. Die Angst ist real, dass die KI-Verordnung die Innovationskraft Europas ersticken könnte. Kleine und mittlere Unternehmen, Start-ups – sie alle könnten unter der Last der administrativen und finanziellen Belastungen zusammenbrechen.Die Kritiker bemängeln, dass die KI-Verordnung zu restriktiv und bürokratisch sei. Zu viele Anforderungen und Pflichten würden auf die Anbieter und Nutzer von KI-Systemen zukommen. Die Unklarheit und Inkonsistenz vieler Begriffe und Konzepte tun ihr Übriges. Es drohen Diskrepanzen und Konflikte mit anderen Rechtsvorschriften wie der DSGVO.
KI-Verordnung: Nur notwendiges Übel?
Und dennoch… so sehr mir Heinrich auch graut, so sehr ich den Amtsschimmel auch verabscheue, so sehr ich die drohende Bürokratie-Hölle auch fürchte: Ich weiß, dass wir eine Regulierung von KI brauchen. KI ist längst kein Zukunftsszenario mehr, sondern Realität. KI-Systeme beeinflussen unser Leben in vielfältiger Weise – von der Kreditvergabe über die Jobsuche bis hin zur Strafverfolgung. Es ist daher unerlässlich, dass der Einsatz von KI ethischen Prinzipien folgt, die Menschenwürde wahrt und unsere Grundrechte schützt. Die KI-Verordnung will genau das erreichen: Sie soll sicherstellen, dass KI-Systeme transparent, nachvollziehbar und fair sind. Sie soll verhindern, dass KI-Systeme diskriminieren, manipulieren oder gar Schaden anrichten. Sie soll das Vertrauen der Öffentlichkeit in KI stärken und so die Akzeptanz dieser Technologie fördern.
Die KI-Verordnung als Innovationstreiber nutzen
Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS sieht die KI-Verordnung nicht nur als Bremse, sondern auch als Chance. Sie fordern dazu auf, die Übergangsfrist zu nutzen, um die regulatorischen Anforderungen effizient und pragmatisch umzusetzen. Ziel sollte es sein, eine KI-Governance zu etablieren, die ethischen und rechtlichen Anforderungen gerecht wird und gleichzeitig KI-Anwendungen mit hoher Qualität, Zuverlässigkeit und Robustheit hervorbringt. Das Fraunhofer IAIS bietet hierzu ein KI-Governance und Qualitätsmanagement Framework an.
Was nun?
Die KI-Verordnung ist da, ob es uns passt oder nicht. Nun gilt es, das Beste daraus zu machen. Unternehmen sollten sich so früh wie möglich mit den Regelungen auseinandersetzen. Sie sollten ihre KI-Systeme einer Bestandsaufnahme unterziehen und ihre Rolle in diesem Kontext bewerten. Schulungen sind wichtig, um Mitarbeitende mit den neuen Anforderungen vertraut zu machen.
Hier sind einige konkrete Schritte, die Unternehmen jetzt unternehmen sollten:
- Bestandsaufnahme: Identifizieren Sie alle KI-Systeme, die in Ihrem Unternehmen eingesetzt werden, und bewerten Sie deren Risikoklasse.
- Gap-Analyse: Identifizieren Sie die Lücken zwischen den aktuellen Praktiken und den Anforderungen der KI-Verordnung.
- Risikomanagement: Implementieren Sie ein Risikomanagementsystem, um potenzielle Gefahren zu identifizieren und zu minimieren.
- Compliance-Strategie: Entwickeln Sie eine Compliance-Strategie, um sicherzustellen, dass Ihr Unternehmen die Anforderungen der KI-Verordnung erfüllt.
- Schulungen: Schulen Sie Ihre Mitarbeiter, damit sie die Anforderungen der KI-Verordnung verstehen und umsetzen können.
Ja, es wird Aufwand bedeuten, die KI-Verordnung umzusetzen. Ja, es wird Zeit und Geld kosten. Aber wenn es uns gelingt, einen verantwortungsvollen Umgang mit KI zu etablieren, dann hat sich die Mühe gelohnt. Denn am Ende wollen wir doch alle das Gleiche: Eine Zukunft, in der KI zum Wohle der Menschheit eingesetzt wird – und nicht zu ihrem Schaden. Auch wenn Heinrich, der Amtsschimmel, dabei immer ein wachsames Auge auf uns hat.
Risikoeinschätzung der auf KI-Wandel.de vorgestellten KI-Tools
Nun mal Butter bei die Fische, welche KI-Tools sind eventuell kritisch? Ich habe Perplexity und ChatGPT genutzt, um die vorgestellten KI-Tools auf meiner Website KI-Wandel.de zu analysieren und mir eine Tabelle mit der Risikoeinschätzung zu erstellen. Leider ist mir noch kein KI-Tool begegnet, welches dies auf Knopfdruck erledigt, es braucht noch etwas Prompt-Arbeit. Für das Ergebnis kann ich allerdings nicht die Hand ins Feuer legen, aber ich denke es gibt einen guten Überblick.
Art | KI-Tool | Beschreibung | Risikokategorie |
---|---|---|---|
KI-Chatbots | |||
ChatGPT (OpenAI) | Textgenerator & Chatbot | Begrenztes Risiko | |
DeepSeek | KI-basierter Chatbot, Original in China wegen Datensicherheit problematisch | Begrenztes Risiko | |
Perplexity AI | Suchmaschine mit Chatbot | Begrenztes Risiko | |
Claude 3.5 Sonnet | Chatbot von Anthropic | Begrenztes Risiko | |
Bing Chat | Suchmaschine mit KI-Chatfunktion | Begrenztes Risiko | |
Pi | Persönlicher KI-Assistent / Chatbot | Begrenztes Risiko | |
HuggingChat | Open-Source KI-Chatbot | Begrenztes Risiko | |
DeppGPT | KI-Chatbot | Begrenztes Risiko | |
KI-Transkription | Wandelt Sprache in Text um | Begrenztes Risiko | |
Sonix.ai* | KI-gestützte Transkriptionssoftware | Begrenztes Risiko | |
Beey.io* | Transkription und Untertitelung | Begrenztes Risiko | |
KI-Meeting-Assistenten | Unterstützt Meetings durch Transkription, Analyse | Begrenztes Risiko | |
Fireflies.ai* | Meeting-Assistent für Transkription und Analyse | Begrenztes Risiko | |
Otter.ai | Meeting-Assistent für Transkriptionen | Begrenztes Risiko | |
tl;dv* | Assistent für Aufzeichnung und Zusammenfassung | Begrenztes Risiko | |
Sembly | Meeting-Assistent mit Analysefunktionen | Begrenztes Risiko | |
Jamie | Meeting-Assistent zur Protokollerstellung | Begrenztes Risiko | |
KI-Textgeneratoren | |||
Neuroflash* | Deutscher KI-Textgenerator | Minimales Risiko | |
Mindverse* | KI-Texterstellung, von Recherche bis Analyse | Minimales Risiko | |
KI-Videogeneratoren | Erzeugen Videos aus Text, Bild oder Video-Clips | Minimales Risiko | |
HeyGen* | Geschäftsvideos mit KI-Avataren | Minimales Risiko | |
Synthesys* | Erklärvideos, E-Learning mit KI-Avataren | Minimales Risiko | |
vidnoz* | Videos mit individualisierbaren Avataren | Minimales Risiko | |
Deepbrain AI* | KI-Videos aus Text für unerfahrene Nutzer | Minimales Risiko | |
InVideo* | Social-Media-Videos aus Text | Minimales Risiko | |
elai.io* | KI-Videos mit menschenähnlichen Avataren | Minimales Risiko | |
Runway | Generative KI-Video aus Text & Bild | Minimales Risiko | |
KI-Sprachgeneratoren | Generieren Podcast-Inhalte | Minimales Risiko | |
Fliki.ai* | Video aus Text mit KI-Stimmen | Minimales Risiko | |
ElevenLabs* | KI-Sprachsynthese | Minimales Risiko | |
Murf.ai* | KI-Sprachsynthese für Sprachaufnahmen | Minimales Risiko | |
Synthesys* | KI-Stimme für realistische Sprachausgabe | Minimales Risiko | |
KI-Bildgeneratoren | Erzeugen Bilder, Vorsicht bei Face-Swap und DeepFake | Minimales Risiko | |
Midjourney | Bilderzeugung aus Text | Minimales Risiko | |
Artsmart AI | KI-Bildgenerator, basiert auf Stable Diffusion | Minimales Risiko | |
Stabile Diffusion Online | KI-Bildgenerator | Minimales Risiko | |
Dall-E 3 mit Bing | KI-Bildgenerator von OpenAI, in Bing integriert | Minimales Risiko | |
SUPERMACHINE | KI-Bildgenerator | Minimales Risiko | |
NightCafe | KI-Bildgenerator | Minimales Risiko | |
Neuroflash* | KI-Bildgenerator | Minimales Risiko | |
MyEdit | KI-Bildgenerator | Minimales Risiko | |
Gencraft | KI-Bildgenerator | Minimales Risiko | |
KI-3D-Modellgeneratoren | |||
Shap-E | 3D-Modelle aus Textbeschreibungen | Minimales Risiko | |
Meshy.AI* | Detaillierte 3D-Modelle aus Texteingaben | Minimales Risiko | |
3DAIStudio* | Konvertiert Bilder in druckbare 3D-Modelle | Minimales Risiko | |
KI-Detektoren | Erkennt KI-generierte Inhalte | Minimales Risiko | |
Originality.ai* | Erkennt KI-generierte Texte, bietet Plagiatsprüfung und Faktenüberprüfung [2, 8, 11, 13] | Minimales Risiko | |
GPTZero* | Erkennt KI-generierte Texte | Minimales Risiko | |
opyleaks* | Erkennt KI-generierte Texte und bietet Plagiatsprüfung [3, 6, 9] | Minimales Risiko | |
Kundenservice KI-Callcenter | Synthesys AI* | Automatisierte Callcenter-Lösung | Minimales Risiko |
KI-Kundenservice | My askai* LiveChatAI* Chatling AI* botsonic* | KI-gestützte Kundenservice-Lösung | Minimales Risiko |
KI-SEO-Tools | neuronWriter* Surfer SEO* | Optimiert SEO-Prozesse mit KI | Minimales Risiko |
KI-Bildbeschreibung | easy-peasy AI* | Image-to-Text, automatische Beschreibung von Bildern | Minimales Risiko |
KI-Videodokumentation | guidde AI* | Video-Dokumentation, schreibt automatisch mit | Minimales Risiko |
KI-Dolmetscher | HeyGen* | Dolmetscher / Übersetzer | Minimales Risiko |
KI-Kunst | AI Artshop* | Digitaler Kunstgenerator | Minimales Risiko |
Weitere KI-Tools | |||
Originality ai Website Scanner | Prüft Websites auf KI-Inhalte | Minimales Risiko | |
KI-Webradio „bigGPT“ | KI-basiertes Webradio | Minimales Risiko |
Fast alle Tools fallen in die Risikokategorie „Minimales Risiko“. Ausnahmen bilden die KI-Chatbots sowie KI-Transkription und KI-Meetingassistenten, die ein „Begrenztes Risiko“ ausweisen. Die Risikoeinstufung hängt immer von der konkreten Anwendung und den damit verbundenen Risiken ab. Ein Meeting-Assistent, der lediglich zur reinen Transkription von Besprechungen dient und keine weiteren Analysen oder Bewertungen vornimmt, birgt weniger Risiko als wenn Meeting-Assistenten beispielsweise eingesetzt werden, um Bewerbungsgespräche zu transkribieren und zu analysieren oder die Leistung von Mitarbeitern zu überwachen, dann könnten sie sogar als „Hochrisiko-KI“ eingestuft werden oder sogar als „Unannehmbares Risiko“.
Für eine tiefergehende Risikoeinschätzung und eine spezifische Einordnung im konkreten Anwendungsfall empfiehlt sich jedoch eine individuelle Analyse.
Erforderliche Maßnahmen
KI-Kompetenz – Schulung
Hier der Artikel 4 – KI-Kompetenz:
„Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.“
Die KI-Verordnung schreibt keine explizite Schulungspflicht vor, aber Unternehmen stehen in der Verantwortung, sicherzustellen, dass ihre Mitarbeiter über ausreichende KI-Kompetenz verfügen. Ob dies durch Schulungen, Unterweisungen oder andere Maßnahmen erreicht wird, bleibt dem Unternehmen überlassen. Wichtig ist, dass die gewählten Maßnahmen effektiv sind und den tatsächlichen Bedarf decken.
KI-Kompetenz im Sinne der EU-KI-Verordnung zu vermitteln ist ab dem 5. Februar 2025 verpflichtend.
Jetzt schießen die Schulungsangebote natürlich wie Pilze aus dem Boden, jeder will etwas vom Kuchen abhaben und behauptet, dass die Schulungen Pflicht seien.
Kostenloses KI-Schulungsangebot
Der KI-Campus wird finanziert vom Stifterverband für die Deutsche Wissenschaft e.V. Hier ein kostenloses Angebot, das zwar nicht direkt mit KI-Verordnung tituliert ist, das aber sehr umfangreiche KI-Kompetenz kostenlos vermittelt:
KI-Campus – Einführung in die KI

KI-Kompetenz – leicht gemacht!
Event von Prof. Günther Hellberg, seit 2001 Professur für Informatik und Wirtschaftsinformatik, insbesondere für Betriebssysteme und Netze an der FHDW Hannover.
Hier ist der Einladungslink für die Anmeldung zum kostenlosen Online-Kurs
„KI-Kompetenz – leicht gemacht“ (nach Art. 4 EU AI Act ab 5.2.2025 auch für Anwender gefordert)
https://lnkd.in/e4pZvy5y
Ich habe mich selbst auch angemeldet, bin gespannt!
Minimales Risiko / begrenztes Risiko
Neben der zuvor genannten Verpflichtung, den Mitarbeitern KI-Kompetenz zu vermitteln, gilt folgendes:
- Bei minimalem Risiko bestehen keine zusätzlichen, expliziten Schulungsanforderungen seitens der Verordnung – die Einhaltung allgemeiner rechtlicher Rahmenbedingungen genügt.
- Bei begrenztem Risiko liegt der Fokus auf Transparenz, wobei auch hier keine spezielle Schulungspflicht besteht. Dennoch sollten Organisationen ihre Mitarbeitenden angemessen informieren, um einen sicheren und verantwortungsvollen Umgang mit den eingesetzten KI‑Systemen zu gewährleisten.
Strafen bei Nichteinhalten der KI-Verodnung
Die Nichteinhaltung der EU-KI-Verordnung kann zu erheblichen finanziellen Strafen führen. Das Sanktionssystem ist gestaffelt und richtet sich nach der Schwere des Verstoßes.
Höchste Strafen:
- Bis zu 35 Millionen Euro oder, falls zutreffend, bis zu 7 % des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres, je nachdem, welcher Betrag höher ist. Diese Strafen drohen bei Verstößen gegen besonders kritische Bestimmungen, wie dem Einsatz verbotener KI-Praktiken (z.B. manipulative oder ausbeuterische Techniken).
Mittlere Strafen:
- Bis zu 20 Millionen Euro oder, falls zutreffend, bis zu 4 % des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres, je nachdem, welcher Betrag höher ist. Diese Strafen können für Verstöße gegen die Anforderungen an Hochrisiko-KI-Systeme, die Datenqualität, die Transparenz oder die Implementierung eines Risikomanagementsystems verhängt werden.
Niedrigere Strafen:
- Bis zu 10 Millionen Euro oder, falls zutreffend, bis zu 2 % des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres, je nachdem, welcher Betrag höher ist. Diese Strafen drohen bei Verstößen gegen weniger kritische Verpflichtungen, beispielsweise bei fehlerhaften oder unvollständigen Angaben gegenüber Behörden.
Zusätzlich zu den finanziellen Sanktionen droht ein erheblicher Reputationsverlust in der Gesellschaft und in der Branche. Betreiber von KI-Systemen können die Höhe des Bußgeldes reduzieren, indem sie mit den Regulierungsbehörden zusammenarbeiten, um die von den Systemen verursachten Schäden zu begrenzen.
Die Strafen der EU-KI-Verordnung treten schrittweise in Kraft.
- Verbotene KI-Praktiken: Das Verbot von KI-Systemen, die als inakzeptabel gelten, greift ab dem 2. Februar 2025, sechs Monate nach Inkrafttreten der Verordnung.
- Die meisten Vorschriften des KI-Gesetzes: Treten am 2. August 2026 in Kraft. Dies betrifft insbesondere die Verpflichtungen für Hochrisiko-KI-Systeme gemäß Anhang III, einschließlich solcher in Bereichen wie Biometrie, kritische Infrastruktur, Bildung und Strafverfolgung.
- Hochrisiko-KI-Systeme (Anhang I): Für KI-Systeme, die als Sicherheitskomponenten von Produkten oder als eigenständige Produkte fungieren und einer Konformitätsbewertung durch Dritte unterliegen, gelten die Verpflichtungen ab August 2027.