B4B Schwaben

Holen Sie sich B4BSCHWABEN.de auf Ihr Smartphone.
Klicken Sie auf das Symbol zum „Teilen” in der Toolbar von Safari. Finden Sie die Option „Zum Home-Bildschirm”. Mit einem Klick auf „Hinzufügen” ist die Installation abgeschlossen! Schon ist die Website als App auf Ihrem iOS-Gerät installiert.

B4B Schwaben
 / 
Themen  / 
EU AI Act: Was jetzt auf den Mittelstand zukommt
Jennifer Baumann, fly-tech IT

EU AI Act: Was jetzt auf den Mittelstand zukommt

Jennifer Baumann ist Consultant für Datenschutz und Informationssicherheit bei fly-tech IT. Foto: fly-tech
Jennifer Baumann ist Consultant für Datenschutz und Informationssicherheit bei fly-tech IT. Foto: fly-tech

Der EU AI Act ist in Kraft – und damit steigt der Druck auf den Mittelstand. Wer Künstliche Intelligenz nutzt, muss Datenschutz, Transparenz und Schulungspflichten im Griff haben. Was konkret zu tun ist.

Seit Februar 2025 ist klar: Künstliche Intelligenz ist in Europa kein rechtsfreier Raum mehr. Mit dem EU AI Act gibt es erstmals verbindliche Regeln für den Einsatz von KI in Unternehmen – auch im Mittelstand. Diese müssen bereits umgesetzt werden. Wer KI nutzt, muss deren Risiken kennen, Prozesse dokumentieren und Mitarbeitende schulen. Was viele unterschätzen: Auch frei zugängliche Tools wie ChatGPT fallen unter die neuen Vorschriften – wenn sie im Unternehmenskontext verwendet werden.

Was steckt hinter dem EU AI Act?

Die EU-Verordnung unterscheidet KI-Systeme nach Risikostufen: Unbedenklich, hochriskant oder verboten. Anwendungen zur Gesichtserkennung, Emotionserkennung am Arbeitsplatz oder Social Scoring etwa sind künftig untersagt. Andere Systeme, etwa im Recruiting oder in der Prozessautomatisierung, gelten als „hochriskant“ – und dürfen nur unter strengen Auflagen genutzt werden.

Klar ist: Unternehmen müssen wissen, welche KI sie wie einsetzen. Und sie müssen dokumentieren, dass sie dabei sicher, datensparsam und gesetzeskonform handeln.

Dazu zählen:

  • eine Risikobewertung jeder eingesetzten KI
  • ein Berechtigungskonzept, das festhält, worauf die KI zugreifen darf
  • Transparenz über Datenquellen und Entscheidungskriterien
  • regelmäßige Schulungen für alle, die mit KI arbeiten
  • eine Datenschutz-Folgenabschätzung, wenn personenbezogene Daten betroffen sind

Was bedeutet das für den Mittelstand?

Viele mittelständische Unternehmen setzen die Vorgaben des AI Acts bisher nicht oder nur in Teilen um. Doch was klar sein muss: Mitarbeitende nutzen häufig bereits KI auf eigene Faust. Was harmlos klingt, kann schnell heikel werden: Werden dabei sensible Daten eingegeben, drohen Datenschutzverstöße. So entsteht eine Schatten-IT – unkontrolliert, nicht dokumentiert und rechtlich riskant.

Und genau hier wird es ernst. Denn der AI Act verlangt einen strukturierten Umgang mit KI – von der Geschäftsleitung bis zur Fachabteilung. Wer sich nicht kümmert, riskiert Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des Jahresumsatzes. Auch Reputationsschäden und Projektstopps sind möglich.

Aktuell gibt es immer wieder Diskussionen über die Datensicherheit bei KIs, die ihren Ursprung in den USA haben. In Europa wächst die Sorge: Was passiert mit unseren Daten, wenn politische Interessen über Datenschutz gestellt werden? Was, wenn ein Machtwort aus Washington plötzlich dafür sorgt, dass europäische Daten nicht mehr sicher sind? Oder wenn politische Interessen über den Schutz von Informationen gestellt werden?

Das ist auch den US-Playern bewusst. Deswegen gehen die ersten in die Offensive und geben klare Bekenntnisse zu den hier geltenden Regeln. Etwa Microsoft. Der Konzern hat jüngst 5 Zusagen an Europa gemacht, um Vertrauen in eine zunehmend KI-gesteuerte Zukunft zu schaffen. Die Kernaussage: Wir erfüllen die europäischen Anforderungen an Datenschutz, Sicherheit, digitale Souveränität und Rechtsstaatlichkeit.

KI aus der Cloud mit eingebautem Datenschutz

Ein Beispiel, wie KI sicher eingesetzt werden kann, ist der Microsoft 365 Copilot. Viele Unternehmen setzen bereits auf Microsoft – und genau hier liegt ein Vorteil:

  • Copilot verarbeitet ausschließlich Daten aus der geschützten Microsoft-Cloud.
  • Alle Eingaben bleiben im Unternehmen – nichts fließt in öffentliche KI-Modelle.
  • Über den Microsoft Graph wird sichergestellt, dass die KI nur auf diejenigen Daten zugreifen kann, auch die auch der Mitarbeitende Zugriff hat.
  • Der Copilot speichert keine Nutzereingaben – das ist zentral für die Einhaltung des AI Acts.

Voraussetzung: Die Konfiguration muss stimmen. Berechtigungskonzepte, Datenschutzeinstellungen und Governance müssen sorgfältig angepasst werden – am besten durch erfahrene IT-Partner, die Microsoft-Expertise mitbringen und datenschutzrechtlich sattelfest sind.

Fazit: Jetzt ist der richtige Moment

Der EU AI Act ist nicht als Innovationsbremse gedacht – im Gegenteil. Er schafft klare Leitplanken, die einen verantwortungsvollen Einsatz von KI ermöglichen. Wer jetzt handelt, kann nicht nur Risiken vermeiden, sondern gezielt Potenziale heben: Prozesse beschleunigen, Qualität steigern und Mitarbeitende entlasten.