adesso Blog

In der heutigen digitalen Ära ist Künstliche Intelligenz (KI) nahezu in jedem Aspekt unseres Lebens und Geschäftsalltags integriert, von der smart watch die uns weckt und uns die Schlafqualität aufzeigt, bis zum ChatGPT Assistenten bei der Arbeit. Obwohl KI ein so enormes Pensum an Zeit, Energie und Aufmerksamkeit von uns einnimmt verstehen nur wenige die Grundlagen der KI: Gerade einmal jede Vierte Person gibt an die Anwendungen der KI zu verstehen. So ist es auch nicht verwunderlich, dass 24 Prozent der Deutschen KI für eine Gefahr halten. Daher ist es unerlässlich, ein tiefgreifendes Verständnis für KI zu entwickeln – eine Fähigkeit, die als AI Literacy bezeichnet wird.

AI Literacy umfasst die Kompetenzen, KI-Technologien nicht nur zu nutzen, sondern auch ihre Funktionsweisen kritisch zu hinterfragen und ihre Auswirkungen zu bewerten. Es geht darum, die Grundmechanismen hinter KI-Anwendungen zu verstehen und ihre Entscheidungen nachvollziehen zu können.

AI Literacy im EU AI Act und die Auswirkungen auf Unternehmen

Der EU AI Act ist die erste umfassende Regulierung für Künstliche Intelligenz in der EU. Er setzt einheitliche Standards für den sicheren und vertrauenswürdigen Einsatz von KI, minimiert Risiken und schafft einen klaren Rahmen für Innovation. Unternehmen, die KI-Systeme entwickeln oder nutzen, müssen sicherstellen, dass sie den Vorgaben entsprechen, um rechtliche Konsequenzen zu vermeiden.

Im Zentrum des EU AI Acts steht die risikobasierte Kategorisierung von KI-Systemen, die den Grad der regulatorischen Anforderungen bestimmt. KI-Anwendungen werden in vier Risikoklassen eingeteilt, welche wir in einem vorherigen Blog-Beitag bereits vorgestellt haben.

Seit dem 2. Februar 2025 ist Artikel 4 des EU AI Acts in Kraft:
Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.

Das bedeutet: KI-Kompetenz ist keine freiwillige Zusatzqualifikation mehr, sondern eine gesetzliche Verpflichtung. Mitarbeitende, die KI entwickeln, betreiben oder nutzen, müssen über ein angemessenes Maß an Wissen und Verständnis verfügen. Dabei geht es nicht um allgemeines Technologiewissen, sondern um anwendungsbezogene Kompetenz. Die Anforderungen unterscheiden sich je nach Branche und Einsatzbereich erheblich.


GenAI

Von der Idee bis zur Implementierung

Generative Künstliche Intelligenz (GenAI) wird unser Geschäftsleben ebenso verändern wie das Internet oder Mobile Business. Unternehmen aller Größen und Branchen legen heute den Grundstein für den effektiven Einsatz dieser Technologie in ihrem Business.

Mehr erfahren


In kritischen Infrastrukturen kann ein einziges Fehlurteil fatale Folgen haben – Stromausfälle, Chaos, Sicherheitsrisiken. IT-Sicherheitsverantwortliche müssen genau wissen, wie KI Bedrohungen erkennt und wo ihre blinden Flecken lauern. Denn eine trügerische Gewissheit in fehlerhafte Algorithmen kann die Versorgungssicherheit ins Wanken bringen.

Im Bankensektor ist Vertrauen das Fundament. Doch wenn Black-Box-Modelle über Kredite entscheiden, reicht „Das sagt die KI“ nicht aus. Mitarbeitende müssen verstehen, wie diese Entscheidungen zustande kommen – nicht nur, um Compliance-Anforderungen zu erfüllen, sondern um die Kundschaft fair zu behandeln.

Und im Gesundheitswesen? Hier kann ein algorithmischer Irrtum über Leben und Tod entscheiden. Ärztinnen und Ärzte müssen wissen, wann sie KI-Ergebnisse hinterfragen – und wann sie mit ihrer eigenen Expertise gegensteuern müssen. Denn unausgewogene Trainingsdaten führen zu Fehldiagnosen, und fehlendes Verständnis hat nicht nur ethische, sondern auch rechtliche Konsequenzen.

KI kann viel. Aber sie darf nicht das letzte Wort haben. Daher müssen alle Mitarbeitende, welche zusammen mit, an oder mithilfe von einer KI arbeiten, zu den Grundlagen der KI geschult werden.

AI Literacy als Schlüssel zur vertrauenswürdige KI

Vertrauenswürdige KI entsteht, wenn Systeme nicht nur regelkonform, sondern auch nachvollziehbar, fair und verantwortungsbewusst eingesetzt werden. Dafür reicht technische Kenntnis allein nicht aus – es braucht die Fähigkeit, KI kritisch zu hinterfragen und fundierte Entscheidungen zu treffen.

Um KI sicher und verantwortungsbewusst zu nutzen, sind drei zentrale Kompetenzbereiche essenziell:


Abbildung 1: Die drei zentralen Kompetenzbereiche

KI trifft keine neutralen Entscheidungen – sie spiegelt die Daten, mit denen sie gefüttert wurde. Doch sind diese Daten wirklich repräsentativ? Oder steckt darin eine Verzerrung, die unbemerkt ganze Karrieren, Kredite oder Diagnosen beeinflusst? Mitarbeitende müssen wissen, welche Daten ihre KI antreiben, wo blinde Flecken lauern und welche Vorurteile sich unbemerkt einschleichen. Denn die größte Gefahr ist nicht die fehlerhafte Entscheidung selbst, sondern, dass niemand merkt, dass sie fehlerhaft war.

Modellverständnis und Entscheidungsnachvollziehbarkeit sind ebenfalls unerlässlich. Nicht alle müssen neuronale Netze programmieren können, aber alle, die mit KI arbeitet, sollten wissen, wie ein Modell Entscheidungen trifft, welche Faktoren es beeinflussen und wann Ergebnisse nachvollziehbar sind. Blindes Vertrauen in KI ist ebenso problematisch wie übermäßige Skepsis. Ein fundiertes Modellverständnis hilft, beides zu vermeiden.

Ethische und rechtliche Fragestellungen runden das notwendige Kompetenzprofil ab. Mitarbeitende müssen wissen, welche Regeln – etwa der EU AI Act – für ihren KI-Einsatz gelten und wo ethische Prinzipien entscheidend sind. Besonders in Justiz, Kreditvergabe und Gesundheitswesen darf KI nicht alleine entscheiden. Hier ist menschliche Aufsicht Pflicht, um Fairness und Sicherheit zu gewährleisten.

Diese Kompetenzbereiche sind essenziell, um KI verantwortungsbewusst einzusetzen. So ist ein sicherer Umgang mit KI-gestützten Anwendungen wichtig, die mit sensiblen Daten arbeiten. Fehlende AI Literacy könnte dazu führen, dass Mitarbeitende unbewusst vertrauliche Informationen in Chatbots oder generative KI-Modelle eingeben, was Datenschutzrisiken birgt.

Zudem trägt AI Literacy entscheidend zum Vertrauen in KI-Systeme bei. Wer sicher im Umgang mit KI ist, entwickelt ein höheres Kontrollbewusstsein, trifft bessere Entscheidungen und fördert die Akzeptanz von KI im Unternehmen.


KI-Governance

Wie KI-Governance Ihr Unternehmen zukunftssicher macht

Die Aufgabe der KI-Governance ist es, ethische Prinzipien, rechtliche Anforderungen und allen voran die operative Exzellenz miteinander zu vereinen. Ziel ist es, für jede Organisation die Grundlage für nachhaltige und vertrauenswürdige KI-Anwendungen zu schaffen.

Mehr erfahren

Implementierung von AI Literacy in Unternehmen

Die Einführung von AI Literacy in Unternehmen ist keine einmalige Maßnahme, sondern ein fortlaufender Prozess, der strategisch geplant werden muss. Schulungen, interdisziplinäre Zusammenarbeit und geeignete Werkzeuge sind zentrale Bausteine, um sicherzustellen, dass Mitarbeitende KI-Systeme nicht nur bedienen, sondern auch kritisch hinterfragen und verantwortungsvoll einsetzen können.

Ein strukturiertes Vorgehen ist dabei entscheidend: Wie können Unternehmen AI Literacy effektiv in ihre Prozesse integrieren? Welche Abteilungen sind involviert? Und welche Methoden helfen, den Anforderungen des EU AI Acts gerecht zu werden?

Der erste Schritt zu verantwortungsvoller KI-Nutzung? Gezielte, praxisnahe Schulung. Denn nur wer KI versteht, kann sie sicher und effektiv einsetzen. Diese Förderung der Mitarbeitenden muss gezielt auf die spezifischen Anforderungen verschiedener Unternehmensbereiche zugeschnitten werden.

  • Führungskräfte und Entscheidungstragende sollten verstehen, wie KI-Modelle Entscheidungen treffen, welche Risiken bestehen und wo menschliche Kontrolle erforderlich ist.
  • Mitarbeitende in Fachabteilungen müssen wissen, welche Grenzen KI-Systeme haben und wie sie diese im Arbeitsalltag sinnvoll nutzen können - sei es im Personalwesen, im Finanzsektor oder in der kritischen Infrastruktur.
  • Technische Teams brauchen tiefgehendes Wissen über Modelltraining, Datenqualität und regulatorische Vorgaben, um KI-Anwendungen sicher und transparent zu gestalten.

KI ist mächtig – doch ohne geschulte Menschen bleibt sie eine unkontrollierte Variable.

Damit KI nicht nur eingesetzt, sondern verantwortungsvoll genutzt wird, müssen Unternehmen klug ansetzen: Bestandsaufnahme, interne Richtlinien, Schulungen und Audits – sinnvoll kombiniert statt isoliert betrachtet. Erfolgreiche KI-Integration erfordert Zusammenarbeit über Abteilungsgrenzen hinweg. Regelmäßige Workshops, klare Governance-Modelle und gemeinsame Entscheidungsprozesse schaffen die Basis für eine sichere und effiziente Nutzung. Wissen bleibt nur dann haften, wenn es erlebbar wird. Interaktive Workshops, praxisnahe Fallstudien und simulationsbasierte Trainings machen aus abstrakten Risiken greifbare Szenarien und aus Mitarbeitenden souveräne Agierende im Umgang mit KI. AI Literacy braucht mehr als Theorie – sie braucht ein System.


Abbildung 2: Beispielhafte Implementierung von AI Literacy im Unternehmen

Ein strukturiertes Framework für AI Literacy befähigt Unternehmen, KI-Systeme sicher, nachvollziehbar und regelkonform einzusetzen.

Fazit: AI Literacy als Grundlage für vertrauensvolle KI und nachhaltige Compliance

Es wird deutlich: AI Literacy ist keine optionale Zusatzqualifikation mehr, sondern essenziell für den sicheren und regelkonformen Einsatz von KI. Aber AI Literacy ist auch mehr als eine Pflicht – sie ist eine Chance. Unternehmen, die frühzeitig in KI-Kompetenz investieren, sichern sich Wettbewerbsvorteile und stärken das Vertrauen ihrer Kundschaft, Partner und Aufsichtsbehörden. Durch gezielte Schulungen, interdisziplinäre Zusammenarbeit und klare KI-Governance lassen sich Risiken minimieren und Innovationen fördern.

Die Anforderungen des EU AI Acts sind bereits in Kraft. Wer jetzt handelt, stellt die Weichen für eine erfolgreiche und nachhaltige KI-Nutzung. Wir unterstützen Unternehmen mit praxisnahen Schulungsprogrammen und Compliance-Strategien, damit KI nicht nur regelkonform, sondern auch gewinnbringend eingesetzt wird.

Bild Alisa Küper

Autorin Alisa Küper

Alisa Küper hat einen akademischen interdisziplinären Hintergrund in angewandten Kognitions- und Medienwissenschaften, wo sie an der Schnittstelle zwischen Informatik und Psychologie zur Interaktion zwischen Menschen und Künstlicher Intelligenz promovierte. Nun teilt sie ihr Wissen zu Vertrauensbildung und erklärbarer Künstlicher Intelligenz in einer beratenden Rolle. Hier liegt ein besonderer Fokus auf dem EU AI Act und vertrauenswürdiger, transparenter KI und explainable AI, um die Akzeptanz und effektive Nutzung von neuen KI-Systemen in Unternehmen zu fördern.

Bild Paula Johanna Andreeva

Autorin Paula Johanna Andreeva

Paula Johanna Andreeva startete ihre Karriere in Trustworthy AI vor sieben Jahren mit ihrem Studium an der Universität Oxford. Seitdem begleitet sie Kunden beim Aufbau und der Analyse von KI durch Governance mit dem Schwerpunkt, Verständnis zum EU AI Act aufzubauen und die Vertrauenswürdigkeit der Systeme sicherzustellen. Zusätzlich promoviert sie zum Thema Ethical Data Sharing, das die sozioökonomischen Folgen des EU Data Act, insbesondere des monetären Austauschs von Daten untersucht.

Kategorie:

KI

Schlagwörter:

Künstliche Intelligenz (KI)