42 % der deutschen Fertigungsunternehmen erproben laut Bitkom 2024 bereits generative KI — doch produktionsreife Deployments sind selten. Der globale Markt für GenAI in der Industrie wächst auf 155 Milliarden US-Dollar bis 2030. Dieser Artikel beschreibt fünf konkrete Use Cases, die heute auf AWS umsetzbar sind: von automatisierter Wartungsdokumentation über KI-Produktionsplanung bis hin zu Agentic AI für selbstoptimierende Linien. Dazu: Reifegradbewertung, EU-AI-Act-Einordnung und das Datenfundament, das jedes Vorhaben voraussetzt.

Marktkontext: Generative AI erreicht die Fertigungshalle

Die Fertigungsindustrie steht vor einem Wendepunkt. Laut Bitkom-Studie 2024 testen 42 % der deutschen Industrieunternehmen generative KI — mehr als in jedem anderen Sektor. Global schätzt McKinsey das jährliche Potenzial von GenAI in der industriellen Fertigung auf 170 bis 230 Milliarden US-Dollar, verteilt auf Prozessoptimierung, Dokumentation, Design und Qualitätssicherung.

Dennoch bleibt die Lücke zwischen Pilotprojekt und produktivem Einsatz groß. Drei Faktoren bremsen den Rollout: fehlende Dateninfrastruktur (OT-Daten liegen isoliert in Silos), unklare Compliance-Anforderungen (EU AI Act, Maschinenverordnung) und mangelndes Vertrauen in KI-Entscheidungen auf dem Shopfloor.

AWS adressiert alle drei Faktoren mit einem integrierten Stack: Amazon Bedrock als verwaltete Foundation-Model-Plattform, AWS IoT SiteWise als OT-Datenbasis und Amazon Bedrock Agents für agentenbasierte Automatisierung — jeweils mit DSGVO-konformer Datenresidenz in der EU-Region Frankfurt (eu-central-1).

Begriffsklärung: Das GenAI-Vokabular der Fertigung

Die Diskussion um generative KI leidet oft unter Begriffsverwirrung. Die folgenden Definitionen helfen dabei, Use Cases präzise einzuordnen und mit Lieferanten sowie internen Stakeholdern klar zu kommunizieren.

Generative AI (GenAI)
KI-Modelle, die neue Inhalte erzeugen — Text, Code, Bilder, strukturierte Daten — anstatt nur vorhandene Muster zu klassifizieren. In der Fertigung bedeutet das: Maschinen-Chatbots, automatisch generierte Wartungsberichte, KI-entworfene Bauteilgeometrien oder natürlichsprachliche Abfragen auf Produktionsdaten.
Foundation Model (FM)
Ein großes, vortrainiertes Sprachmodell (oder multimodales Modell), das auf umfangreichen Textmengen trainiert wurde und für viele Aufgaben adaptiert werden kann. Amazon Bedrock bietet Zugang zu FMs von Anthropic (Claude), Meta (Llama), Mistral und Amazon (Titan) über eine einheitliche API — ohne GPU-Infrastrukturbetrieb.
RAG (Retrieval-Augmented Generation)
Methode, bei der ein Foundation Model zur Laufzeit relevante Dokumente aus einer Wissensdatenbank abruft und diese als Kontext für seine Antworten nutzt. In der Fertigung: ein Chatbot, der auf Maschinendokumentation, SPS-Handbücher und Wartungshistorien zugreift und Operatoren präzise, belegbare Antworten gibt.
Agentic AI
KI-Systeme, die mehrstufige Aufgaben eigenständig planen und ausführen, indem sie Werkzeuge (APIs, Datenbanken, Steuerungssysteme) aufrufen. Amazon Bedrock Agents ermöglicht es, solche Agenten ohne eigene LLM-Infrastruktur zu bauen. Agentic AI in der Fertigung: ein Agent, der Sensordaten auswertet, Wartungsaufträge im ERP anlegt und den Servicetechniker benachrichtigt.
Fine-Tuning
Nachtraining eines Foundation Models auf domänenspezifischen Daten, um Terminologie, Stil oder Aufgabenspezifika zu verbessern. Amazon Bedrock Custom Model Import erlaubt es, fine-getunete Modelle zu importieren. In der Fertigung relevant, wenn generische LLMs die Fachsprache (z.B. DIN-Normen, Maschinentypenbezeichnungen) nicht ausreichend beherrschen.

5 produktionsreife Use Cases: Überblick und Reifegrad

Die folgende Tabelle gibt einen Überblick über die fünf Use Cases, die AWS-Services, den aktuellen Reifegrad und den realistischen Implementierungshorizont für ein mittelständisches Fertigungsunternehmen in der DACH-Region.

Use Case AWS Service(s) Reifegrad Implementierungshorizont
1. KI-Produktionsplanung Amazon Bedrock, Amazon Kinesis Pilot-ready (TRL 6) 3–6 Monate
2. Wartungsdokumentation mit Bedrock Amazon Bedrock, Knowledge Bases Produktionsreif (TRL 8) 6–10 Wochen
3. Generatives Design Amazon SageMaker, Amazon Bedrock Experimentell (TRL 4–5) 9–18 Monate
4. KI-gestützte Prozessoptimierung Amazon Bedrock, IoT SiteWise, Kinesis Pilot-ready (TRL 6–7) 4–8 Monate
5. Agentic AI für selbstoptimierende Linien Amazon Bedrock Agents, IoT SiteWise Frühes Deployment (TRL 7) 6–12 Monate

Use Case 1: KI-Produktionsplanung

Die Produktionsplanung gehört zu den komplexesten Optimierungsaufgaben in der Fertigung. Planer balancieren täglich Maschinenkapazitäten, Materielverfügbarkeit, Auftragsfristen und Wartungsfenster — häufig in Excel-Tabellen oder in Legacy-APS-Systemen, die keine Echtzeit-Daten aus dem Shopfloor verarbeiten.

Generative AI löst hier keine vollständige Optimierungsaufgabe, sondern ergänzt den menschlichen Planer: Ein LLM auf Basis von Amazon Bedrock analysiert natürlichsprachliche Anfragen ("Welche Aufträge könnten verzögert werden, wenn Linie 3 bis Freitag ausfällt?") und kombiniert strukturierte Planungsdaten (ERP/SAP) mit Echtzeit-Maschinenstatus aus Amazon Kinesis.

Das Ergebnis sind erklärbare Szenarien — keine Black-Box-Entscheidungen. Der Planer erhält drei priorisierte Handlungsoptionen mit Begründung. Die finale Entscheidung bleibt beim Menschen, was die EU-AI-Act-Anforderung nach menschlicher Aufsicht erfüllt.

Technischer Stack: SAP-Integration via AWS AppFlow oder REST-API → Amazon Kinesis Data Streams (Echtzeit-Maschinenstatus) → Amazon Bedrock (Claude 3 Sonnet) mit Retrieval auf historischen Planungsdaten → React-Frontend oder Teams-Bot als Benutzeroberfläche.

Use Case 2: Wartungsdokumentation mit Amazon Bedrock

Wartungsdokumentation ist ein unterschätztes, aber enormes Problem in der Fertigung. Servicetechniker verbringen bis zu 30 % ihrer Zeit mit dem Suchen nach Informationen in veralteten PDF-Handbüchern, Störungsprotokollen und Herstellerunterlagen — oft in verschiedenen Sprachen und Formaten.

Mit Amazon Bedrock Knowledge Bases lässt sich eine semantische Wissensdatenbank über sämtliche Maschinendokumentation aufbauen. Techniker stellen natürlichsprachliche Fragen ("Wie tausche ich die Dichtung am Hydraulikzylinder Typ HZ-440?") und erhalten präzise Antworten mit Quellenangabe — auf dem Smartphone, in der Halle, während des Eingriffs.

Ebenso produktiv: automatische Erstellung von Wartungsberichten. Bedrock fasst Sensordaten, Fehlercodes und Technikernotizen nach einem Eingriff zu einem strukturierten Bericht zusammen, der direkt ins ERP oder CMMS übertragen wird. Das spart 20–40 Minuten Dokumentationsaufwand pro Wartungsvorgang.

Technischer Stack: Bestehende PDFs, Word-Dokumente und Wartungshistorien → S3-Bucket → Amazon Bedrock Knowledge Bases (OpenSearch Serverless als Vektordatenbank) → Bedrock Runtime API → Mobile Web-App oder Slack/Teams-Integration.

Dieser Use Case ist der schnellste Einstieg in produktive GenAI-Nutzung: Keine Sensordaten-Integration, kein OT-Netzwerk-Umbau. Der Zeitaufwand für einen ersten Piloten liegt bei 6–10 Wochen.

Use Case 3: Generatives Design

Generatives Design nutzt KI-Algorithmen, um Bauteilgeometrien zu erzeugen, die unter gegebenen Randbedingungen (Gewicht, Belastung, Fertigungsverfahren) optimal sind. Foundation Models spielen hier eine ergänzende Rolle: Sie übersetzen Ingenieuranforderungen in Parameterdefinitionen und kommentieren generierte Varianten verständlich.

Auf AWS lässt sich generatives Design mit Amazon SageMaker (physikbasierte ML-Modelle, Topologieoptimierung) und Amazon Bedrock (natürlichsprachliche Anforderungsinterpretation, Variantenbewertung) kombinieren. Die Integration mit CAD-Systemen (Siemens NX, CATIA, Fusion 360) erfolgt über APIs.

Der Reifegrad ist noch experimentell: Aktuelle Modelle liefern Geometrievorschläge, die von Konstrukteuren überarbeitet werden müssen. Fertigungsgerechte, normkonforme Geometrien (DIN, ISO) ohne menschliche Nachbearbeitung sind Stand 2025 noch kein realistisches Ziel. Wer heute investiert, baut sich einen Wissensvorsprung für 2026–2027 auf.

Use Case 4: KI-gestützte Prozessoptimierung

Die Optimierung von Fertigungsprozessen — Maschinenparameter, Schichtplanung, Materialfluss — ist eine klassische Domäne für ML. Generative AI erweitert diese Domäne in zwei Dimensionen: Erstens ermöglicht sie natürlichsprachliche Interaktion mit Optimierungsergebnissen. Zweitens kann sie Optimierungsvorschläge mit Kontext anreichern ("Dieser Vorschlag reduziert Ausschuss um 8 %, erhöht aber Energieverbrauch um 3 % — warum das sinnvoll ist…").

Konkret: Sensordaten aus AWS IoT SiteWise fließen in Echtzeit über Amazon Kinesis in ein Analyse-Backend. Amazon Bedrock aggregiert die Erkenntnisse und liefert dem Schichtleiter eine tägliche Optimierungsempfehlung in seiner Sprache — Deutsch, ohne SQL oder Dashboards bedienen zu müssen.

Messbare Ergebnisse aus vergleichbaren Projekten: 5–12 % Reduktion des Energieverbrauchs, 8–15 % weniger Ausschuss, 10–20 % bessere Maschinenverfügbarkeit durch proaktive Parameteranpassung.

Use Case 5: Agentic AI für selbstoptimierende Linien

Agentic AI ist die ambitionierteste Form von GenAI in der Fertigung. Anstatt einem Menschen Empfehlungen zu geben, führt ein KI-Agent mehrstufige Aufgaben eigenständig aus: Er liest Sensordaten, bewertet Situationen, ruft Aktionen auf (ERP-Buchungen, Steuerbefehle, Benachrichtigungen) und lernt aus den Ergebnissen.

Amazon Bedrock Agents bietet dafür die Infrastruktur: Ein Agent wird mit einem Foundation Model (z.B. Claude 3 Haiku für Geschwindigkeit) und Action Groups konfiguriert. Jede Action Group definiert, welche APIs der Agent aufrufen darf — AWS IoT SiteWise für Maschinendaten, eine Lambda-Funktion für ERP-Schreibzugriffe, eine SNS-Notification für Alarmierung.

Ein konkretes Szenario: Der Agent überwacht die Qualitätskennzahlen einer Schweißlinie. Sinkt der Prozessfähigkeitsindex unter einen Schwellenwert, analysiert er die letzten 500 Schweißvorgänge, identifiziert die verursachenden Parameter (Stromstärke, Drahtvorschub, Schutzgas) und generiert einen Anpassungsvorschlag — der von einem Operator freigegeben werden muss, bevor er ausgeführt wird.

Die menschliche Freigabe ist nicht nur gutes Engineering, sondern EU-AI-Act-Anforderung für Hochrisiko-Systeme, die Produktionsprozesse beeinflussen.

Datenfundament: AWS IoT SiteWise als Basis für GenAI

Kein GenAI-Use-Case in der Fertigung funktioniert ohne ein solides Datenfundament. Die häufigste Ursache für scheiternde KI-Projekte ist nicht das Modell, sondern die fehlende oder schlechte Datenqualität aus der OT-Ebene.

AWS IoT SiteWise löst das OT-Datenproblem strukturiert:

  1. Anbindung: IoT SiteWise Gateway (auf AWS Greengrass) verbindet sich über OPC-UA, Modbus oder Siemens S7 direkt mit Maschinen und SPS. Keine aufwändige Middleware.
  2. Modellierung: Asset-Modelle beschreiben die Anlagenhierarchie (Werk → Linie → Maschine → Sensor) und berechnen automatisch KPIs wie OEE, MTBF und Energieverbrauch.
  3. Speicherung: Zeitreihendaten werden in SiteWise Hot Storage (30 Tage, ms-Latenz) und Cold Storage (S3, unbegrenzte Retention) redundant gespeichert.
  4. Export für GenAI: S3-Export-Jobs liefern historische Zeitreihendaten als Parquet-Dateien — ideal als Trainingsdaten für Fine-Tuning oder als RAG-Kontext in Bedrock Knowledge Bases.
  5. Echtzeit: IoT SiteWise Alarms und AWS IoT Events lösen Kinesis-Streams aus, die Bedrock Agents in Echtzeit triggern können.

Wer heute mit IoT SiteWise beginnt, hat in 12–18 Monaten die Datenbasis, die produktionsreife GenAI-Anwendungen voraussetzen. Das ist die realistischste Einstiegssequenz für Fertigungsunternehmen ohne Cloud-OT-Infrastruktur.

Storm Reply Perspektive: KI-Strategie für die Fertigung

Storm Reply begleitet Fertigungsunternehmen im gesamten GenAI-Lifecycle — von der Potenzialanalyse über den ersten Piloten bis zum produktionsreifen Deployment. Als AWS Premier Consulting Partner mit GenAI Competency (Launch Partner 2024) und Industriekompetenz in der DACH-Region verbinden wir OT-Verständnis mit Cloud-Expertise.

Unsere Erfahrung aus laufenden Fertigungs-Projekten zeigt: Der erfolgreichste Einstieg ist fast immer der Wartungsdokumentation-Use-Case. Warum? Keine sicherheitskritischen Implikationen, klarer ROI (30 % weniger Suchaufwand), schneller Pilot, und die dabei aufgebaute Bedrock-Knowledge-Base ist die Grundlage für komplexere Use Cases.

Für Unternehmen, die weiter denken, empfehlen wir die Lektüre unserer KI-Strategie-Ressourcen auf ki-strategie.cloud — dort beschreiben wir den Weg von der ersten KI-Idee zur unternehmensweiten GenAI-Strategie, inklusive Governance-Framework und EU-AI-Act-Compliance.

Regulatorik: EU AI Act, Maschinenverordnung und DSGVO

Fertigungsunternehmen stehen bei GenAI-Deployments vor einem dreifachen Regulatorikproblem: EU AI Act (ab August 2026 vollständig anwendbar), Maschinenverordnung (EU 2023/1230, ab 2027 obligatorisch) und DSGVO.

EU AI Act: Risikoklassen für Fertigungs-KI

Der EU AI Act unterscheidet vier Risikoklassen. Für die Fertigung relevant:

Risikoklasse Kriterium Fertigungs-Beispiel Anforderungen
Unannehmbares Risiko Verbotene Praktiken (z.B. Manipulation) KI zur unbewussten Verhaltenssteuerung von Arbeitnehmern Verboten
Hohes Risiko Kritische Infrastruktur, Sicherheitsfunktionen von Maschinen KI, die Sicherheitsabschaltungen von Pressen steuert Konformitätsbewertung, Dokumentation, menschliche Aufsicht, Transparenz
Begrenztes Risiko Interaktion mit Menschen, Emotionserkennung Operator-Chatbot, Wartungsdokumentation-KI Transparenzpflicht (Nutzer weiß, er interagiert mit KI)
Minimales Risiko Alle übrigen KI-Systeme Interne Prozessoptimierungsvorschläge ohne Entscheidungsgewalt Keine spezifischen Pflichten

Praktische Handlungsempfehlung

Für DACH-Fertigungsunternehmen ergibt sich eine klare Priorisierung: Use Cases in minimalen und begrenzten Risikoklassen (Wartungsdokumentation, Produktionsplanung als Empfehlungssystem) jetzt starten. Hochrisiko-Anwendungen (autonome Maschinensteuerung) erst nach abgeschlossener Compliance-Struktur einführen. Amazon Bedrock mit EU-Region (Frankfurt) löst das DSGVO-Problem — keine Trainingsdaten-Weitergabe, Datenresidenz garantiert.

Vorteile und Herausforderungen im Überblick

Vorteile von GenAI in der Fertigung

  • Wissenserhalt: Dokumentiertes Expertenwissen bleibt abrufbar, auch wenn erfahrene Mitarbeiter das Unternehmen verlassen (kritisch bei demografischem Wandel in der DACH-Fertigung)
  • Mehrsprachigkeit: Bedrock-Modelle unterstützen Deutsch, Englisch, Türkisch und 30+ weitere Sprachen — ideal für internationale Produktionsstandorte
  • Skalierbarkeit: Ein einmal trainierter RAG-Stack kann auf 10 Werke ausgerollt werden, ohne proportional steigende Kosten
  • Erklärbarkeit: RAG-basierte Systeme zitieren Quellen — Operatoren können nachvollziehen, woher eine Empfehlung kommt
  • Schnelle Iteration: Foundation Models müssen nicht von Grund auf trainiert werden — erste Piloten in Wochen statt Monaten

Herausforderungen

  • Halluzinationen: LLMs können plausibel klingende, aber falsche Antworten generieren — kritisch bei Sicherheitsanweisungen. Gegenmaßnahme: RAG mit Quellenangabe, menschliche Freigabe bei sicherheitskritischen Aktionen
  • Datenschutz auf dem Shopfloor: Maschinendaten können Rückschlüsse auf Mitarbeiterleistung ermöglichen (Betriebsrat-Thema). Frühzeitige Einbindung der Arbeitnehmervertretung ist Pflicht
  • OT-IT-Trennung: Viele Fertigungsumgebungen haben Air Gaps zwischen OT und IT. AWS IoT SiteWise löst das Problem, erfordert aber Netzwerk-Investitionen
  • Kosten: Bedrock-API-Kosten skalieren mit Token-Volumen. Für hochfrequente Echtzeit-Anwendungen ist ein sorgfältiges Kostenmodell notwendig

Häufige Fragen zu Generative AI in der Fertigung

Welche Generative-AI-Use-Cases sind in der Fertigung heute produktionsreif?
Produktionsreif sind vor allem: automatische Erstellung von Wartungsdokumentationen mit Amazon Bedrock, KI-gestützte Produktionsplanung, sowie Chatbots für Maschinenoperatoren auf Basis von RAG. Generatives Design und vollständig autonome Agentic-AI-Linien befinden sich noch in der Pilotphase.
Wie unterscheidet sich Amazon Bedrock von selbst gehosteten LLMs in der Fertigung?
Amazon Bedrock ist ein vollständig verwalteter Service, der Foundation Models von Anthropic, Meta, Mistral und Amazon selbst über eine einheitliche API bereitstellt. Im Vergleich zu selbst gehosteten LLMs entfällt der GPU-Infra-Betrieb. Für Fertigungsunternehmen mit DSGVO-Anforderungen bietet Bedrock Datenresidenz in der EU (Frankfurt) und keine Datenweitergabe an Modelltraining.
Was bedeutet der EU AI Act für GenAI in der Fertigung?
Der EU AI Act klassifiziert KI-Systeme nach Risiko. In der Fertigung gelten KI-Systeme, die Sicherheitsfunktionen von Maschinen beeinflussen (nach Maschinenverordnung), als Hochrisiko-KI (Anhang III). Das erfordert technische Dokumentation, Konformitätsbewertung und menschliche Aufsicht. Reine Text- und Doku-Anwendungen fallen typisch in niedrigere Risikoklassen.
Wie lange dauert die Implementierung eines GenAI-Piloten in der Fertigung?
Ein erster Pilot — z.B. ein RAG-basierter Wartungs-Chatbot auf Basis bestehender Maschinendokumentation — ist in 6–10 Wochen umsetzbar. Der Aufwand für produktionsreife Systeme mit Compliance-Dokumentation (EU AI Act) liegt typisch bei 4–9 Monaten, abhängig von Datenverfügbarkeit und Integrationstiefe.
Können IoT-Daten aus AWS IoT SiteWise direkt von Amazon Bedrock genutzt werden?
Ja. Amazon Bedrock Agents können über Action Groups auf AWS-Services zugreifen, darunter IoT SiteWise APIs. Damit lassen sich Echtzeit-Maschinendaten in den Kontext eines LLM-Gesprächs einbinden. Für historische Zeitreihendaten bietet sich Amazon Bedrock Knowledge Bases mit einem S3-Backend an, in das IoT SiteWise regelmäßig exportiert.

Quellen und weiterführende Informationen

  • Bitkom: KI in der Industrie — Studie 2024, bitkom.org
  • McKinsey Global Institute: The economic potential of generative AI, 2023
  • EU-Kommission: Verordnung (EU) 2024/1689 über KI (EU AI Act)
  • AWS Documentation: Amazon Bedrock — User Guide, docs.aws.amazon.com
  • AWS Documentation: AWS IoT SiteWise — Developer Guide, docs.aws.amazon.com
  • Storm Reply: KI-Strategie für Unternehmen, ki-strategie.cloud

Interesse geweckt?

Storm Reply begleitet Sie vom GenAI-Piloten bis zum produktionsreifen Einsatz in der Fertigung. Sprechen Sie jetzt mit unseren Experten.

Kontakt aufnehmen

Weitere Insights