KI-Inventar erstellen: Der praktische Leitfaden für IT-Dienstleister

Schritt für Schritt zum vollständigen KI-Verzeichnis – für das eigene Systemhaus und als Beratung.
April 12, 2026

Warum das KI-Inventar jetzt auf den Tisch gehört

Jedes Unternehmen, das KI einsetzt, muss im Zweifel beantworten können: Welche KI-Systeme laufen bei uns überhaupt? Wer ist dafür verantwortlich? Und in welche Risikoklasse nach EU AI Act fallen sie?

Klingt banal. Ist es in der Praxis nicht.

Die meisten mittelständischen Unternehmen, mit denen IT-Dienstleister arbeiten, wissen nicht einmal annähernd, wo überall KI in ihrer IT-Landschaft steckt. Microsoft Copilot im Outlook, Zoom AI Companion in jeder Besprechung, KI im DATEV-Modul, ein Chatbot im Kundenportal, der Marketing-Kollege, der ChatGPT Plus privat abonniert hat und damit Kundendaten zusammenfasst – das alles sind KI-Systeme im Sinne des AI Act. Und keines davon steht in einer Liste.

Genau hier entsteht die Beratungschance. Wer als IT-Dienstleister ein sauberes KI-Inventar liefern kann – für sich selbst und für den Kunden – hat nicht nur ein konkretes Compliance-Produkt, sondern einen Türöffner zu jeder tieferen KI-Diskussion. Wer den Stichtag 2. August 2026 in seinem Kalender stehen hat, weiß, warum das jetzt passieren muss. Wer ihn noch nicht kennt, findet die Einordnung im Artikel EU AI Act: Was ab dem 2. August 2026 wirklich gilt.

Dieser Leitfaden zeigt, wie man ein KI-Inventar in ein bis drei Tagen aufsetzt – und was die typischen Stolperfallen sind, über die man besser nicht stolpern will.

Was ein KI-Inventar eigentlich ist – und was nicht

Ein KI-Inventar ist eine strukturierte, interne Übersicht über alle KI-Systeme und KI-Anwendungen, die in einem Unternehmen entwickelt, eingesetzt oder genutzt werden. Nicht mehr, nicht weniger.

Kurzer Faktencheck für die Erwartungshaltung am Kunden: Der EU AI Act schreibt ein solches Inventar nicht wortwörtlich vor. Aber – und das ist der entscheidende Punkt – er verlangt in Artikel 6 Absatz 3, dass Unternehmen die Risikoklassifizierung jedes einzelnen KI-Systems dokumentieren. Auch dann, wenn das Ergebnis lautet „nicht Hochrisiko“. Ohne ein Inventar ist diese Dokumentation nicht sinnvoll möglich. Anders gesagt: Das Inventar ist der Türrahmen, in den die ganze restliche Compliance-Tür eingehängt wird.

Was ein KI-Inventar leistet:

  • Vollständige Sichtbarkeit aller eingesetzten KI-Systeme
  • Grundlage für die Risikoklassifizierung nach den vier AI-Act-Kategorien
  • Dokumentierte Verantwortlichkeiten pro System
  • Basis für Monitoring, Updates und Audit-Fähigkeit
  • Ausgangspunkt für KI-Nutzungsrichtlinie und Schulungsbedarf

Was es nicht ist:

  • Keine öffentliche Liste (interne, vertrauliche Dokumentation)
  • Kein einmaliges Projekt (lebt und muss gepflegt werden)
  • Keine reine IT-Angelegenheit (braucht Fachbereiche für die Vollständigkeit)

Für die große Mehrheit der KMU reicht als Werkzeug eine strukturierte Excel- oder Google-Sheets-Tabelle. Spezialisierte KI-Governance-Tools lohnen sich erst bei Konzerngröße oder wenn Hochrisiko-Systeme im Spiel sind.

Die fünf Schritte zum vollständigen KI-Inventar

Der folgende Prozess funktioniert bei einem typischen Mittelständler mit 50 bis 250 Mitarbeitenden. Der Zeitbedarf liegt je nach Komplexität zwischen einem und drei Beratungstagen.

Schritt 1: Zielsetzung und Scope klären

Bevor überhaupt eine Liste entsteht, muss eine Grundsatzfrage beantwortet werden: Was soll im Inventar stehen?

Zwei Ansätze haben sich bewährt:

  • Vollständig: Alle KI-Systeme werden erfasst, unabhängig von der Risikoklasse. Das ist der saubere Weg und die klare Empfehlung für Unternehmen, die ihre KI-Governance ernst meinen. Er liefert den größten Nutzen, weil er auch Transparenz- und Minimalrisiko-Systeme sichtbar macht.
  • Fokussiert: Nur Hochrisiko- und potenziell verbotene Systeme werden erfasst. Das reicht minimal für die reine Compliance – verfehlt aber den eigentlichen Zweck.

Empfehlung für die Praxis: vollständiger Ansatz. Der Mehraufwand ist überschaubar, der Nutzen für die Beratung deutlich größer.

Gleichzeitig wird in diesem Schritt festgelegt, wer intern verantwortlich ist. Ein KI-Verantwortlicher (oft angesiedelt bei IT-Leitung, Datenschutzbeauftragtem oder Compliance) muss benannt werden. Ohne klare Verantwortung bleibt das Inventar eine Einmal-Liste, die nach sechs Monaten veraltet ist.

Schritt 2: KI-Systeme identifizieren – die vier Quellen

Jetzt geht es ans Finden. Und hier wird es interessant, weil die offensichtlichen KI-Systeme nur die Spitze des Eisbergs sind. Vier Quellen müssen systematisch abgeklopft werden:

Quelle 1: Das Software-Asset-Management.
Die installierte Software aller Firmenrechner ist der beste Ausgangspunkt. Für jede Software wird geprüft: Enthält sie KI-Funktionalität? Im Zweifel gilt: Wenn eine Software die Möglichkeit von KI-Funktionen anbietet, wird sie auch genutzt – also ins Inventar damit. Klassiker in dieser Kategorie: Microsoft 365 mit Copilot, Adobe Creative Cloud mit generativen Features, DATEV mit KI-Modulen, Salesforce mit Einstein, jedes moderne ERP oder CRM.

Quelle 2: Die eigenständigen KI-Tools.
Separat gebuchte KI-Dienste: ChatGPT Business/Enterprise, Claude for Work, Perplexity Pro, Notion AI, Grammarly, DeepL Write, Midjourney, ElevenLabs und was sonst noch im Umlauf ist. Diese sind oft nicht im Software-Asset-Management erfasst, weil sie als SaaS laufen und abteilungsweise eingekauft wurden.

Quelle 3: Die eingebetteten KI-Funktionen.
Der unterschätzte Bereich. KI steckt heute in Tools, bei denen niemand daran denkt: Outlook-Schreibhilfe, Zoom-Transkription, Teams-Meeting-Zusammenfassungen, Jira-Ticket-Vorschläge, Slack-Übersetzungen, HR-Tools mit Resume-Screening, Finanzsoftware mit Anomalie-Erkennung, Kundenservice-Software mit Sentiment-Analyse. Diese Funktionen kommen oft per automatischem Update ins Unternehmen, ohne dass jemand sie aktiv ausgewählt hat.

Quelle 4: Die Schatten-IT.
Der dunkle Kontinent. Mitarbeitende, die sich private ChatGPT-Accounts zulegen, Claude oder Gemini am Handy nutzen, KI-gestützte Browser-Extensions installieren, eigene Automatisierungen mit make.com oder n8n basteln. Schatten-KI ist heute fast unvermeidlich – und aus Compliance-Sicht gefährlich, weil dort typischerweise Kundendaten oder Geschäftsgeheimnisse in Systeme wandern, über die das Unternehmen keine Kontrolle hat.

Vorgehen in der Praxis: Am besten eine Kombination aus automatischer Auswertung des Software-Asset-Management-Systems, strukturierten Kurzinterviews mit Abteilungsleitern („Welche Tools nutzt euer Team? Wo habt ihr KI im Einsatz?“) und einer anonymen Mitarbeiterumfrage für die Schatten-IT. Letztere bringt oft die spannendsten Ergebnisse, wenn man sie ohne Drohkulisse kommuniziert.

KI-Systeme identifizieren: Software Asset Management, KI-Tools, eingebettete KI, Schatten KI
Infografik mit KI generiert

Schritt 3: Pro System die Basisdaten erfassen

Für jedes gefundene KI-System wird ein Datensatz angelegt. Mindestens diese Felder sollten erfasst werden:

  • System-Name und Hersteller: Klare Bezeichnung (z.B. „Microsoft Copilot for Microsoft 365“, Anbieter: Microsoft)
  • Einsatzzweck: Wofür wird es konkret genutzt? (z.B. „E-Mail-Vorschläge und Dokumentenerstellung im Marketing“)
  • Abteilung / Fachbereich: Wo wird es eingesetzt? (z.B. „Marketing, Vertrieb, Projektmanagement“)
  • Interner Verantwortlicher: Wer ist für die Nutzung und Überwachung dieses Systems verantwortlich? (Name, Rolle)
  • Datenbasis: Welche Daten gehen in das System? Personenbezogene Daten? Geschäftsgeheimnisse?
  • Rolle im AI Act: Ist das Unternehmen Anbieter, Betreiber, Importeur oder Händler dieses Systems? (In der Regel: Betreiber/Deployer)
  • Risikoklasse: Unzulässiges / Hohes / Begrenztes / Minimales Risiko
  • Begründung der Einstufung: Kurze, dokumentierte Begründung (Pflicht nach Art. 6 Abs. 3)
  • Status: Im Einsatz, in Evaluation, ausgemustert
  • Letzte Prüfung: Datum der letzten Review

Diese zehn Felder reichen für ein solides Basis-Inventar. Wer will, kann später erweitern: Vertragsdaten mit dem Anbieter, Datenschutz-Folgenabschätzung, Schulungsnachweise pro System, Logging-Konzept und so weiter.

10 Pflichtfelder pro System

Schritt 4: Die Risikoklassifizierung – mit dokumentierter Begründung

Jetzt kommt der juristisch anspruchsvollste Teil. Jedes System muss einer der vier Risikoklassen zugeordnet werden:

  • Unzulässiges Risiko (verboten): Social Scoring, manipulative Systeme, biometrische Massenüberwachung. Sollte in einem normalen Unternehmen gar nicht vorkommen – wenn doch, sofort abschalten.
  • Hohes Risiko: KI in Recruiting (automatisierte Bewerberauswahl), Kreditwürdigkeitsprüfung, Bildungszugang, bestimmte biometrische Systeme, kritische Infrastrukturen. Bei typischen KMU-Kunden selten, aber wenn, dann teuer in der Umsetzung.
  • Begrenztes Risiko (Transparenzpflichten): Chatbots, KI-Telefonassistenten, KI-generierte Inhalte, Deepfake-Technologien. Müssen nach Artikel 50 als KI erkennbar sein.
  • Minimales Risiko: Der Rest. Spamfilter, Empfehlungssysteme, Produktivitäts-Tools wie Microsoft Copilot oder ChatGPT Enterprise im typischen Büroeinsatz.

Die drei häufigsten Klassifizierungsfehler in der Praxis:

  1. HR-Systeme unterschätzen. Sobald KI in der Vorauswahl von Bewerbern mitspielt – auch wenn sie „nur Vorschläge macht“ – landet das System im Hochrisiko-Bereich. Das trifft viele moderne HR-Tools.
  2. Den Chatbot vergessen. Jeder KI-Chatbot auf der Website oder im Kundenportal fällt unter Art. 50 und braucht eine Transparenz-Kennzeichnung. Das wird gerne übersehen, weil der Chatbot oft vom Marketing betrieben wird, nicht von der IT.
  3. Agentische Systeme falsch einordnen. Systeme, die selbständig Entscheidungen treffen und ausführen, können durch kleine Erweiterungen in den Hochrisiko-Bereich rutschen – auch wenn sie ursprünglich harmlos gestartet sind.

Dokumentierte Begründung ist Pflicht. Nicht nur für Hochrisiko-Systeme, sondern für alle. Ein Beispiel für eine saubere Begründung bei einem Minimal-Risk-System:

„Microsoft Copilot for M365 wird ausschließlich zur Textgenerierung und Zusammenfassung in Outlook, Word und PowerPoint eingesetzt. Es trifft keine Entscheidungen über Personen, verarbeitet keine biometrischen Daten und ist kein Sicherheitsbestandteil. Keine der Kategorien aus Anhang III des AI Act ist einschlägig. Einstufung: minimales Risiko.“

Zwei Sätze reichen. Wichtig ist, dass die Argumentation nachvollziehbar ist – nicht, dass sie ein Roman wird.

Achtung – Agenten ändern die Einstufung. Das obige Beispiel gilt nur für den klassischen, textbasierten Einsatz von Copilot. Sobald im selben Unternehmen Copilot Agents (aus Copilot Studio oder als vorgefertigte Agents in Microsoft 365) genutzt werden, muss jeder Agent als eigenes System einzeln bewertet werden. Ein Agent, der selbständig Daten abruft, in Fachsysteme schreibt, Freigaben auslöst oder Workflows startet, ist kein Textgenerator mehr – er trifft oder bereitet Entscheidungen vor.

Entscheidend ist dann der konkrete Einsatzzweck:

  • Ein Agent, der Urlaubsanträge vorprüft und an die Führungskraft weiterleitet → vermutlich weiterhin begrenztes/minimales Risiko, aber Transparenz gegenüber den betroffenen Mitarbeitenden prüfen
  • Ein Agent, der Bewerbungen vorsortiert oder Bewerber nach Kriterien bewertet → Hochrisiko (Anhang III, Beschäftigung)
  • Ein Agent, der Bonitäts- oder Kreditentscheidungen vorbereitet → Hochrisiko (Anhang III, Zugang zu wesentlichen Dienstleistungen)
  • Ein Agent, der Zugänge oder Berechtigungen auf Basis eigener Einschätzungen vergibt → kritisch, bis hin zu Hochrisiko

Die Faustregel für das Inventar: Jeder produktive Copilot-Agent bekommt einen eigenen Eintrag im KI-Inventar – nicht „Copilot“ als Sammelposten. Für jeden dieser Einträge wird die Risikoklassifizierung separat begründet. Das ist zusätzlich etwas Aufwand, schützt aber zuverlässig vor der häufigsten Fehleinschätzung: „Wir haben doch nur Copilot.“

Schritt 5: Review-Zyklus und Governance etablieren

Das schönste Inventar ist wertlos, wenn es nach drei Monaten nicht mehr stimmt. Drei Mechanismen halten es am Leben:

Quartalsweise Reviews. Alle drei Monate setzt sich der KI-Verantwortliche mit den Fachbereichsleitern an einen Tisch: Was ist neu? Was wurde ausgemustert? Hat sich der Einsatzzweck geändert? Für KMU genügt ein Termin von 60 Minuten.

Neu-Einkaufs-Gate. Jede neue Software, jedes neue SaaS-Abonnement läuft über eine Kurzprüfung: Enthält das Tool KI-Funktionen? Wenn ja, wird es sofort ins Inventar aufgenommen – bevor es in den produktiven Einsatz geht. Das verhindert den Jojo-Effekt.

Änderungs-Monitoring bei bestehenden Systemen. Anbieter wie Microsoft, Google oder Salesforce rollen regelmäßig neue KI-Funktionen in bestehende Produkte aus. Der KI-Verantwortliche abonniert die Release-Notes der wichtigsten Anbieter und aktualisiert das Inventar entsprechend.

Parallel wird die KI-Nutzungsrichtlinie an das Inventar geknüpft: Welche Tools sind erlaubt? Welche Daten dürfen dort eingegeben werden? Wer darf welche Tools nutzen? Das verbindet Compliance mit der täglichen Arbeitsrealität.

Typische Stolperfallen – und wie man sie vermeidet

Drei Fehler tauchen in der Praxis immer wieder auf. Wer sie kennt, umgeht sie.

Stolperfalle 1: Das Inventar wird als IT-Projekt geführt.
KI sitzt heute in jeder Abteilung – Marketing, Vertrieb, HR, Finanzen, Kundenservice. Wenn die IT das Inventar alleine erstellt, fehlen garantiert 30 bis 50 Prozent der Systeme. Lösung: Cross-funktionales Vorgehen mit festen Ansprechpartnern in jeder Abteilung.

Stolperfalle 2: DSGVO und AI Act werden getrennt behandelt.
Bei KI-Systemen, die personenbezogene Daten verarbeiten, gelten beide Regelwerke parallel. Das betrifft fast jedes KI-System im Unternehmen. Wer das Inventar baut, ohne gleichzeitig die DSGVO-Seite mitzudenken – Verarbeitungsverzeichnis, Rechtsgrundlage, eventuell eine Datenschutz-Folgenabschätzung – baut Doppelarbeit. Lösung: Datenschutzbeauftragter und KI-Verantwortlicher arbeiten von Anfang an zusammen.

Stolperfalle 3: Die Rollenfrage wird nicht geklärt.
Ist das Unternehmen Anbieter oder Betreiber eines bestimmten KI-Systems? Die Antwort ist nicht immer offensichtlich. Wer ein eingekauftes KI-System unter eigenem Markennamen an Kunden weitergibt oder substanziell anpasst, kann nach Art. 25 AI Act schnell zum Anbieter werden – mit ganz anderen Pflichten. Gerade für IT-Dienstleister, die KI-Lösungen für Kunden integrieren, ist das ein kritischer Punkt. Die Rollen-Einordnung gehört deshalb in jeden Inventar-Eintrag.

Was das für IT-Dienstleister strategisch bedeutet

Ein KI-Inventar ist ein perfektes Einstiegsprodukt. Es ist in kurzer Zeit lieferbar, hat einen klaren Compliance-Aufhänger, lässt sich zu einem Festpreis anbieten und öffnet garantiert die Tür zu tieferen Folgegeschäften: Risikomanagement, KI-Governance, Schulungen, Nutzungsrichtlinien, KI-Strategie.

Der Beratungsbogen lässt sich dabei strategisch aufbauen:

  1. Einstieg: KI-Inventar als Ein- bis Drei-Tage-Projekt (Festpreis)
  2. Ausbau: Risikoklassifizierung und Dokumentation mit dem Kunden durchgehen
  3. Vertiefung: KI-Nutzungsrichtlinie und Kompetenzaufbau nach Art. 4 anbieten
  4. Verankerung: Quartalsweise KI-Governance-Reviews als Retainer-Modell

Gerade die Verbindung mit der KI-Kompetenzpflicht ist ein starkes Doppelpack. Wer das Inventar erstellt, weiß sofort, welche Mitarbeitenden welche KI-Systeme nutzen – und damit auch, wer welchen Kompetenzaufbau braucht. Warum diese Kompetenzfrage keine Compliance-Übung, sondern ein strategischer Hebel ist, haben wir im Artikel KI wird Basiskompetenz ausgeführt.

Und noch ein Punkt, der gerne übersehen wird: Das eigene Systemhaus ist selbst Betreiber von KI-Systemen. Wer Kunden beim KI-Inventar berät, ohne selbst eines zu haben, verliert Glaubwürdigkeit in der ersten Stunde. Die eigene Hausaufgabe gehört vor oder parallel zum ersten Kundenprojekt.

Die Kurzfassung: Was zu tun ist

Für Eilige die komprimierte Version dieses Leitfadens:

  1. Scope klären: Vollständiges Inventar, nicht nur Hochrisiko
  2. Verantwortung benennen: Ein interner KI-Verantwortlicher, klar zugeordnet
  3. Systeme finden: Software-Asset-Management + Interviews + anonyme Schatten-IT-Umfrage
  4. Basisdaten erfassen: Zehn Pflichtfelder pro System (siehe oben)
  5. Klassifizieren und begründen: Jedes System einer der vier Risikoklassen zuordnen – dokumentiert
  6. Review etablieren: Quartalsweise Aktualisierung, Neu-Einkaufs-Gate, Änderungs-Monitoring
  7. Mit Nutzungsrichtlinie verbinden: Inventar ist die Basis, die Richtlinie ist die Anwendung

Wer diese sieben Schritte konsequent geht – oder seinem Kunden dabei hilft – hat in ein bis drei Tagen ein belastbares KI-Inventar. Und damit die Basis für alles, was beim EU AI Act noch folgt.

Einladung zum nächsten KI LEAGUE Live Talk

Der Live Talk richtet sich bewusst an IT-Dienstleister und Systemhäuser, die KI einordnen wollen. Die Teilnahme ist kostenlos – der Austausch ausdrücklich erwünscht.

Einladung zur KI LEAGUE

Die KI LEAGUE ist der Ort für IT-Dienstleister, die KI nicht hypen, sondern verstehen wollen. Als Plattform für Einordnung, Austausch und kritische Diskussion – jenseits von Buzzwords und Produktversprechen.

Jetzt informieren und dabei sein

Quellen

  1. IHK München: AI Act – Regeln für Unternehmen beim Einsatz künstlicher Intelligenz (10.12.2025) – ihk-muenchen.de
  2. SRD Rechtsanwälte: In 6 Schritten zum AI Inventory (13.08.2025) – srd-rechtsanwaelte.de
  3. EY Deutschland: EU AI Act – ein Fahrplan (09.12.2025) – ey.com
  4. TogetherSecure: EU AI Act – Pflichten, Chancen und Risiken (05.12.2025) – togethersecure.com
  5. IJONIS: EU AI Act 2025 – Checkliste für Unternehmen (22.01.2026) – ijonis.com
  6. AIStrategyConsult: 7-Schritte-Checkliste zur EU-AI-Act-Compliance (27.08.2025) – aistrategyconsult.com

Weitere Blogartikel anzeigen

alle anzeigen