
Am 1. August 2024 ist mit dem AI Act (KI-Verordnung) erstmals ein umfassender europäischer Rechtsrahmen für den Umgang mit Künstlicher Intelligenz in Kraft getreten. Die Verordnung verfolgt einen risikobasierten Ansatz und unterscheidet vier Risikoklassen – von „geringem Risiko“ bis hin zu vollständig verbotenen Anwendungen, etwa bei manipulativen Techniken oder Social Scoring.
Für Unternehmen bringt das neue Gesetz klare Pflichten für den Einsatz von KI-Systemen mit sich – unabhängig davon, ob es sich um einfache Chatbots oder Hochrisiko-Systeme handelt.
Wichtige Anforderungen für KI-Anwender im Überblick:
- Schulungspflicht (ab 02/2025): Mitarbeitende müssen im sachgerechten Umgang mit KI geschult werden.
- Transparenz: KI-gestützte Kommunikation muss klar als solche gekennzeichnet sein.
- Kennzeichnungspflicht bei Deepfakes und Emotionserkennungssystemen.
- Hochrisiko-KI (ab 08/2026): Zusätzliche Pflichten wie technische Sicherheitsmaßnahmen, Folgenabschätzungen und Meldepflichten bei Fehlfunktionen.
- Große Sprachmodelle: Auch beim Einsatz von Tools wie ChatGPT gilt: Keine geheimen oder personenbezogenen Daten eingeben und KI-generierte Inhalte kennzeichnen.
📌 Tipp: Wer KI-Modelle mit eigenen Daten trainiert oder selbst entwickelt, gilt als Anbieter – mit entsprechenden Pflichten.
👉 Weitere Infos und hilfreiche Leitlinien:
- 2B Advice: KI-Verordnung – Erste Leitlinien
- Datenschutzticker: Verbotene Praktiken
- EU-Kommission zu KI-Systemdefinitionen
📄 Hinweis: Dieser Beitrag wurde mithilfe von Gemini AI und ChatGPT erstellt.

Wir sind
für Sie Da.
Sie haben Fragen? Dann rufen Sie uns
einfach an oder schreiben Sie uns eine
E-Mail.