87 % der deutschen Fertigungsunternehmen nennen Latenz und Netzwerkverfügbarkeit als größte Hürde für IoT-Projekte in der Produktion — laut einer Bitkom-Studie 2024. Edge Computing ist die Antwort: Verarbeitung dort, wo Daten entstehen. AWS bietet zwei komplementäre Ansätze: AWS IoT Greengrass V2 als leichtgewichtiger Edge-Runtime direkt auf Industrie-Hardware, und AWS Outposts als vollständiger AWS-Infrastruktur-Rack in der eigenen Fabrik. Dieser Artikel erklärt die Architekturen, zeigt eine Entscheidungsmatrix und beschreibt den Migrationspfad von Greengrass V1 auf V2 vor der End-of-Support-Deadline im Juni 2026.
Warum Edge Computing in der Fertigung unverzichtbar wird
Die vernetzte Fabrik produziert Datenmengen, die cloudbasierte Architektur allein nicht bewältigen kann. Eine moderne CNC-Anlage erzeugt bis zu 2.000 Messwerte pro Sekunde. Ein Qualitätsprüfsystem mit High-Speed-Kamera liefert 120 Frames pro Sekunde in 4K-Auflösung. Das sind Datenströme, die weder wirtschaftlich noch technisch vollständig in die Cloud übertragen werden können — und es oft auch nicht sollten.
Drei Treiber machen Edge Computing in der Produktion zur strategischen Notwendigkeit:
- Latenzanforderungen: Sicherheits-PLCs erfordern Reaktionszeiten unter 10 ms. Ein Round-Trip in die Cloud und zurück dauert mindestens 20–100 ms — zu langsam für Echtzeit-Steuerung und visuelle Qualitätsprüfung auf der Linie.
- Netzwerkunabhängigkeit: Produktionsanlagen müssen bei WAN-Ausfall weiterarbeiten. Edge-Geräte mit lokalem Processing halten den Betrieb aufrecht, selbst wenn die Cloud-Verbindung unterbrochen ist.
- Datenresidenz und Compliance: Produktionsdaten, Maschinensignaturen und teils personenbezogene Daten (Schichtpläne, Bedieneridentifikation) dürfen unter DSGVO und Betriebs-Compliance-Anforderungen Deutschland nicht verlassen. Lokale Verarbeitung ist damit in vielen Fällen nicht nur sinnvoll, sondern geboten.
Dazu kommt wirtschaftliche Vernunft: Bandbreite und Cloud-Compute für Rohdaten sind teuer. Edge Computing filtert, aggregiert und komprimiert Daten vor der Übertragung — nur relevante Events und Zusammenfassungen erreichen die Cloud.
Begriffsklärung: Die wichtigsten Technologien
- Edge Computing
- Verarbeitung von Daten an oder in unmittelbarer Nähe der Entstehungsquelle — auf der Maschine, am Gateway in der Produktionshalle oder im Shopfloor-Rechenzentrum — anstatt zentral in der Cloud. Reduziert Latenz, schont Bandbreite und ermöglicht offline-fähige Anwendungen.
- AWS IoT Greengrass V2
- Open-Source Edge-Runtime von AWS (Apache 2.0), der auf Linux-basierter Industrie-Hardware läuft. Er bringt AWS-Dienste wie Lambda, ML-Inferenz, lokale Nachrichtenübermittlung (MQTT) und Secrets Management direkt auf das Gerät. Greengrass V2 verwendet ein komponentenbasiertes Deployment-Modell — jede Funktion ist eine eigenständige, versionierte Komponente, die über AWS IoT Core verwaltet wird.
- Greengrass Component
- Die Basiseinheit in Greengrass V2. Eine Komponente enthält Code (Lambda, Container, nativer Prozess), eine Rezept-Datei (YAML/JSON mit Dependencies, Lifecycle-Hooks, Parameter-Schema) und optionale Artefakte (Modell-Dateien, Konfiguration). Komponenten werden im AWS IoT Greengrass Catalog verwaltet und können auf Geräte-Flotten deployt werden.
- AWS Outposts
- Ein vollständig konfiguriertes AWS-Infrastruktur-Rack (42U oder kleinere Formfaktoren), das AWS physisch im Rechenzentrum oder in der Fabrikhalle des Kunden installiert und betreibt. Outposts bieten dieselben EC2-Instanztypen, EBS, RDS, ECS, EKS und weitere Dienste wie in der AWS-Region — mit nativer Integration und einheitlicher API. Die Verwaltung erfolgt über die AWS Console wie bei regulären AWS-Diensten.
- Amazon SageMaker Neo
- Kompilierungs- und Optimierungs-Service für ML-Modelle. Neo kompiliert Modelle aus TensorFlow, PyTorch, MXNet, Keras, ONNX und XGBoost für spezifische Ziel-Hardware: NVIDIA Jetson, Intel Atom, ARM Cortex-M, Raspberry Pi, x86-64. Das Ergebnis ist ein hardware-optimiertes Modell, das weniger Speicher benötigt und schneller inferenziert — ohne GPU, nur CPU oder NPU.
- Lambda@Edge
- AWS-Dienst zum Ausführen von Lambda-Funktionen in CloudFront Edge Locations — nicht zu verwechseln mit Greengrass auf IoT-Geräten. Lambda@Edge ist für Web-Anwendungen konzipiert (Request/Response-Manipulation), nicht für industrielles IoT. In Fertigungsumgebungen wird der Begriff "Edge" fast immer im IoT-Kontext (Greengrass, Outposts) verwendet.
- Outpost Rack
- Die Standard-Formfaktor-Variante von AWS Outposts: ein 42U-Rack mit AWS Nitro System, Netzwerk-Hardware und vorinstallierten AWS-Diensten. AWS übernimmt Lieferung, Installation, Betrieb und Updates. Für kleinere Deployments gibt es AWS Outposts Server (1U/2U) mit einem reduzierten Dienst-Portfolio.
AWS IoT Greengrass V2: Architektur und Funktionsweise
Greengrass V2 transformiert jedes Linux-Gerät (x86-64, ARM, NVIDIA Jetson) in einen vollwertigen AWS-Edge-Knoten. Der Kern ist der Nucleus — ein systemd-Dienst (oder Init-Prozess), der auf dem Gerät läuft und die Kommunikation mit AWS IoT Core verwaltet.
Die Architektur folgt einem Hub-and-Spoke-Modell:
- Greengrass Core Device: Das Gateway-Gerät in der Fabrik — oft ein Industrie-PC oder ein dediziertes IoT-Gateway. Es führt den Nucleus aus, hostet Komponenten und kommuniziert nach oben mit AWS IoT Core via MQTT/HTTPS und nach unten mit angebundenen Leaf-Devices.
- Leaf Devices: Sensoren, Kameras, SPS/PLCs, die über MQTT mit dem Core Device kommunizieren. Sie benötigen kein Greengrass selbst — lediglich MQTT-Konnektivität.
- Komponenten-Deployment: Über AWS IoT Core oder die CLI werden Deployment-Dokumente erstellt, die definieren, welche Komponenten in welcher Version auf welche Geräte-Gruppe deployt werden. Greengrass lädt Artefakte aus S3, verifiziert Checksums und startet die Komponenten gemäß Lifecycle-Definition.
- Local IPC: Komponenten kommunizieren untereinander über einen lokalen Message-Bus (AWS IoT Greengrass IPC) — ohne Umweg über die Cloud. Das ermöglicht deterministische Latenz für Komponent-zu-Komponenten-Kommunikation.
Für die Fertigung besonders relevant sind drei Greengrass-Fähigkeiten: Stream Manager für die Pufferung und geordnete Übertragung von Zeitreihendaten auch bei instabiler Verbindung, Secret Manager Integration für sichere Credential-Verwaltung ohne Hardcoding, und Docker Container Support für die Ausführung containerisierter Anwendungen am Edge.
AWS Outposts in der Fabrik: Vollständige Cloud-Infrastruktur on-Premises
AWS Outposts adressiert einen anderen Anwendungsfall als Greengrass: Workloads, die echte Server-Ressourcen, Datenbanken, Container-Orchestrierung oder spezifische AWS-Services benötigen, aber aus Compliance- oder Latenzgründen nicht in der Region laufen dürfen.
Typische Outposts-Workloads in der Fertigung:
- MES (Manufacturing Execution System) auf EC2 mit RDS — volle SQL-Datenbank on-Premises, mit AWS-nativer Backup- und Monitoring-Integration
- ECS/EKS-Cluster für Fertigungs-Applikationen mit kurzen Latenzanforderungen zur Shopfloor-Anbindung
- Bildverarbeitungs-Workloads mit GPU-Instanzen (G4dn auf Outposts), die zu rechenintensiv für Edge-Geräte, aber zu latenzempfindlich für die Region sind
- SCADA-Systeme und Historian-Datenbanken mit regulatorischen Datenresidenz-Anforderungen
AWS ist für den physischen Betrieb verantwortlich: Hardware-Wartung, Firmware-Updates, Kapazitäts-Monitoring. Der Kunde ist für Netzwerk-Konnektivität (dedizierte Leitung zur AWS-Region), physische Sicherheit und Kühlung verantwortlich. Der Service Link — die Verbindung zwischen Outpost und der AWS-Heimat-Region — ist für Management-Plane-Operationen erforderlich, der Data-Plane läuft jedoch auch bei Service-Link-Ausfall weiter.
Entscheidungsmatrix: Greengrass V2 vs. AWS Outposts
Die Wahl zwischen Greengrass und Outposts ist keine Entweder-oder-Entscheidung — viele reife Fertigungs-Architekturen nutzen beide. Dennoch hilft folgende Matrix bei der initialen Einordnung:
| Kriterium | AWS IoT Greengrass V2 | AWS Outposts |
|---|---|---|
| Hardware | Vorhandene Industrie-Hardware, IPC, Gateway (Linux, ARM, x86) | AWS-eigenes Rack (42U) oder Server (1U/2U) — von AWS geliefert |
| Investition | Gering — Software auf vorhandener Hardware; Lizenz nach Geräteanzahl | Hoch — Rack-Miete ab ~$250k/Jahr zzgl. EC2-Instanz-Kosten |
| Latenz | <1 ms lokal (IPC); <10 ms für ML-Inferenz auf Gerät | 1–5 ms in der Fabrikhalle (Ethernet); volle EC2-Performance |
| Verfügbare AWS-Dienste | Lambda, ML-Inferenz, IoT Core Shadow, Stream Manager, Secrets Manager | EC2, EBS, RDS, ECS, EKS, S3 on Outposts, ElastiCache, EMR |
| Typische Anwendungsfälle | Sensordaten-Aggregation, ML-Inferenz, Protokoll-Übersetzung, Offline-Betrieb | MES, SCADA, Datenbanken, Container-Workloads, GPU-Inferenz |
| Skalierung | Tausende Geräte über Fleet-Provisioning und Deployment-Gruppen | Vertikal (Instanztyp); mehrere Racks pro Standort möglich |
| Offline-Fähigkeit | Vollständig — Komponenten laufen ohne Cloud-Verbindung weiter | Partiell — Data-Plane weiter, Management-Plane braucht Service Link |
| Betriebsmodell | Kunde betreibt Hardware; AWS verwaltet Greengrass-Software | AWS betreibt Hardware; Kunde verantwortet Netzwerk und physische Sicherheit |
| Datenresidenz | Vollständig lokal möglich (Local Processing, kein Cloud-Upload nötig) | Vollständig lokal — physisch in der eigenen Anlage |
| Empfehlung | IoT-Gateway, Maschinenanbindung, verteilte Sensor-Flotten | Datenbank-intensiv, Compliance-kritisch, volle Cloud-API-Kompatibilität |
ML-Inferenz an der Edge: SageMaker Neo und Greengrass
Das leistungsstärkste Anwendungsszenario für Greengrass in der Fertigung ist die Ausführung von ML-Modellen direkt auf der Maschine — ohne Cloud-Round-Trip. Typische Use Cases:
- Visuelle Qualitätskontrolle: Klassifikation von Produktionsfehlern (Kratzer, Risse, Fehlartikel) auf einem Edge-Gerät mit Kamera-Anbindung — Entscheidung in unter 50 ms, bevor das Produkt die Prüfstation verlässt
- Anomalie-Erkennung auf Zeitreihendaten: Vibrations- und Temperaturmuster einer CNC-Anlage werden lokal durch ein LSTM- oder Autoencoder-Modell analysiert; Alarm wird lokal ausgelöst
- Predictive Quality: Inline-Vorhersage der Endprodukt-Qualität auf Basis von Prozessparametern — Werkzeugverschleiß, Spindellast, Vorschubrate — noch während der Bearbeitung
Der Workflow mit SageMaker Neo und Greengrass folgt vier Schritten:
- Modell trainieren: In SageMaker Studio oder extern (Jupyter, lokales Training). Exportformat: SavedModel (TF), TorchScript (PyTorch), ONNX oder XGBoost-Pickle.
- Modell kompilieren: In SageMaker Neo das Ziel-Device angeben (z.B. "jetson_nano", "ml_c5" für x86-CPU). Neo optimiert Operator-Fusion, Quantisierung und Kernel-Auswahl. Ausgabe: komprimiertes Modell-Archiv (.tar.gz) in S3.
- Als Greengrass-Komponente paketieren: AWS-verwaltete Komponente
aws.greengrass.SageMakerEdgeManagerübernimmt Modell-Download, Versionierung und Lifecycle. Alternativ: eigene Komponente mit DLR (Deep Learning Runtime) für direktes Modell-Loading. - Deployment: Über AWS IoT Core wird das Deployment-Dokument auf die Ziel-Gerätegruppe angewendet. Greengrass lädt Artefakte, startet die Inferenz-Komponente und exponiert einen lokalen gRPC-Endpunkt für andere Komponenten.
Amazon Kinesis Video Streams (KVS) ergänzt dieses Szenario: Edge-Kameras streamen über den KVS Edge Agent lokal auf das Greengrass-Gerät. Dort läuft die ML-Inferenz. Nur annotierte Clips (Fehlerfunde, Anomalien) werden in die Cloud gesendet — Bandbreiten-Einsparung von bis zu 95 % gegenüber vollem Video-Upload.
Greengrass V1 → V2 Migration: Deadline Juni 2026
AWS hat angekündigt, dass AWS IoT Greengrass V1 am 30. Juni 2026 das End-of-Support erreicht. Ab diesem Datum werden keine Security-Patches, Bug-Fixes oder neue Features mehr für V1 veröffentlicht. Unternehmen, die Greengrass V1 in der Produktion betreiben, müssen bis dahin migriert sein.
Greengrass V2 ist keine inkrementelle Aktualisierung — es ist eine architektonische Neuentwicklung. Die wichtigsten Unterschiede:
| Merkmal | Greengrass V1 | Greengrass V2 |
|---|---|---|
| Deployment-Einheit | Gruppe (monolithisch) | Komponente (granular, versioniert) |
| Code-Modell | AWS Lambda-Funktionen | Lambda, Container, nativer Prozess — wählbar pro Komponente |
| Provisioning | Manuell oder Custom | Fleet Provisioning, Just-in-Time Provisioning, Token Exchange |
| Nucleus | Proprietär | Open-Source (Apache 2.0) |
| Lokale Kommunikation | MQTT-Broker (Mosquitto) | IPC (schneller, authentifiziert); MQTT-Bridge optional |
| ML-Inferenz | ML Inference Component (veraltet) | SageMaker Edge Manager, DLR, native Neo-Integration |
| Docker-Support | Eingeschränkt | Vollständig (Docker Application Component) |
Empfohlener Migrations-Prozess für Fertigungsbetriebe:
- Inventar aufnehmen (Woche 1–2): Alle Greengrass V1 Core Devices identifizieren, Lambda-Funktionen katalogisieren, Abhängigkeiten und Konnektoren dokumentieren.
- Pilot-Device auswählen (Woche 3–4): Ein unkritisches Gerät in einer Lab-Umgebung als erstes Migrations-Ziel. V1 und V2 können nicht auf demselben Gerät koexistieren — vollständiger Ersatz nötig.
- Komponenten entwickeln (Woche 5–10): Lambda-Funktionen aus V1 zunächst als "Legacy Lambda-Komponenten" in V2 wrappen (schnell, aber keine neuen V2-Features). Parallel: Neuentwicklung als native V2-Komponenten für kritische Workloads.
- Rollout in Wellen (ab Woche 11): Deployment-Gruppen in AWS IoT Core nutzen, um Geräte in Batches zu migrieren. Monitoring über CloudWatch Device Advisor. Rollback-Mechanismus pro Deployment-Dokument vorbereiten.
- Validierung und Go-Live: Parallelbetrieb von V1 (auf anderen Geräten) und V2 für mindestens 4 Wochen vor der Abschaltung von V1-Instanzen.
Storm Reply Perspektive: Edge-Strategien für deutsche Fertigungsbetriebe
Storm Reply begleitet deutsche Fertigungsunternehmen bei der Implementierung von AWS Edge-Architekturen — von der Strategie bis zur Pilotanlage. Unsere Erfahrung aus Projekten der letzten drei Jahre zeigt drei wiederkehrende Muster:
Muster 1 — Greengrass als Integrations-Gateway: Ältere Anlagen (Baujahr vor 2015) mit proprietären Protokollen (PROFINET, OPC-UA, Modbus) werden über einen Greengrass-Core-Device mit OPC-UA-Bridge-Komponente angebunden. Der Industrial Data Lake in S3 empfängt normalisierte Zeitreihendaten, unabhängig vom Herstellerprotokoll. ROI typisch innerhalb von 12 Monaten durch konsolidiertes Condition Monitoring.
Muster 2 — Edge-KI für visuelle Qualitätskontrolle: Inline-Kameras mit Greengrass und Neo-kompilierten Modellen ersetzen manuelle Sichtprüfung. Implementierungsdauer: 8–12 Wochen für Pilot, 4–6 Monate für vollständigen Rollout. Fehlerrate-Reduktion von 30–60 % gegenüber manuelle Prüfung ist erreichbar.
Muster 3 — Outposts für MES-Modernisierung: Mittelständler mit bestehenden MES-Systemen auf veralteter On-Premises-Hardware migrieren auf Outposts. Sie behalten Datenresidenz und niedrige Latenz zur Shopfloor-Anbindung, gewinnen aber AWS-native Services (CloudWatch, Secrets Manager, IAM) und eine Exit-Strategie in die Cloud.
Storm Reply ist AWS Premier Consulting Partner mit Spezialisierung auf Industrial IoT und Manufacturing. Unser Migrations-Assessment für Greengrass V1 → V2 dauert zwei Wochen und liefert einen vollständigen Migrations-Plan mit Risikobewertung und Aufwandsschätzung.
Regulatorik: NIS2, Cyber Resilience Act und DSGVO
Edge Computing in der Fertigung bewegt sich im Schnittfeld dreier regulatorischer Anforderungen, die 2024 und 2025 scharf werden:
NIS2 (Network and Information Security Directive 2): Die NIS2-Richtlinie, die seit Oktober 2024 in deutschem Recht umgesetzt ist, verpflichtet Unternehmen kritischer Infrastruktur und "wichtige Einrichtungen" (Umsatz >50 Mio. EUR, 250+ Mitarbeiter oder niedrigere Schwellen für kritische Sektoren), ihre OT-Netzwerke in das Information-Security-Management einzubeziehen. Greengrass-Geräte im Produktionsnetz sind OT-Assets und müssen in das Asset-Inventory, Patch-Management und Incident-Response-Prozesse aufgenommen werden. AWS IoT Device Defender übernimmt Security Monitoring für Greengrass-Geräte und lässt sich in SIEM-Systeme integrieren.
Cyber Resilience Act (CRA): Der CRA (in Kraft seit 2024, Übergangsfrist bis 2027) stellt Anforderungen an Hersteller vernetzter Produkte — Security-by-Design, Vulnerability-Disclosure und Patch-Verpflichtungen über den gesamten Produktlebenszyklus. Für Fertigungsunternehmen, die eigene Greengrass-Komponenten entwickeln und deployen, entsteht eine Sorgfaltspflicht: SBOM (Software Bill of Materials), Dependency-Tracking und Update-Prozesse müssen dokumentiert werden. AWS bietet Inspector und CodeArtifact für SBOM-Generierung.
DSGVO und Datenresidenz: Produktionsdaten sind in der Regel keine personenbezogenen Daten — aber Ausnahmen existieren: Bediener-Identifikation an Maschinen, Schichtpläne, Zugangsdaten. Diese Daten dürfen Deutschland nicht verlassen. Greengrass Local Processing und Outposts garantieren physische Datenresidenz. Wer zusätzlich AWS-Region eu-central-1 (Frankfurt) für Cloud-Anteile nutzt, erfüllt auch technisch die DSGVO-Anforderungen für grenzüberschreitende Datenübertragungen.
Vorteile und Herausforderungen im Überblick
| Aspekt | Vorteil / Chance | Herausforderung / Risiko |
|---|---|---|
| Latenz | Sub-10-ms-Inferenz direkt auf der Anlage; keine WAN-Abhängigkeit für Echtzeit-Prozesse | Hardware-Sizing erfordert sorgfältige Modell-Benchmarks vor dem Kauf |
| Betriebskontinuität | Offline-Betrieb bei WAN-Ausfall; Greengrass puffert Daten lokal | Lokale Hardware benötigt Wartung und physischen Zugang im Notfall |
| Skalierung | Fleet Provisioning ermöglicht Zero-Touch-Deployment auf Tausende Geräte | Heterogene Geräte-Flotten (verschiedene CPU-Architekturen) erhöhen Komplexität |
| ML an der Edge | SageMaker Neo optimiert Modelle für spezifische Hardware; keine Cloud-Kosten für Inferenz | Modell-Drift erfordert regelmäßiges Retraining und Deployment-Prozesse |
| Security | IoT Device Defender, X.509-Zertifikate, Least-Privilege-IAM-Policies | OT/IT-Netzwerksegmentierung in Bestandsanlagen oft aufwändig |
| Kosten | Bandbreiten-Einsparung durch Edge-Filterung; keine Greengrass-Softwarekosten | Outposts-Investition signifikant; TCO-Berechnung notwendig |
Häufige Fragen (FAQ)
- Was ist der Unterschied zwischen AWS IoT Greengrass und AWS Outposts?
- AWS IoT Greengrass V2 ist ein leichtgewichtiger Edge-Runtime, der auf vorhandener Industrie-Hardware läuft und AWS-Dienste wie Lambda, ML-Inferenz und lokale Nachrichtenübermittlung an die Maschine bringt. AWS Outposts ist ein vollständiger AWS-Infrastruktur-Rack im eigenen Rechenzentrum oder der Fabrik — mit denselben EC2-Instanztypen, RDS, ECS und EKS wie in der Cloud. Greengrass eignet sich für latenzarme Steuerungsaufgaben direkt an der Maschine; Outposts für komplexe Workloads, die echte Server-Ressourcen und volle AWS-API-Kompatibilität benötigen.
- Was ändert sich bei der Migration von Greengrass V1 zu V2?
- Greengrass V1 erreicht am 30. Juni 2026 sein End-of-Support. Greengrass V2 bringt ein komponentenbasiertes Deployment-Modell (statt fester Lambda-Funktionen), verbesserte Fleet-Provisioning-Mechanismen, einen neuen Nucleus-Core als Systemdienst und native Integration mit AWS IoT Jobs. Lambda-Funktionen aus V1 lassen sich als Legacy Lambda-Komponenten in V2 weiterbetreiben — jedoch ohne die neuen Lifecycle-Hooks und Dependency-Features zu nutzen. Eine vollständige Neuentwicklung als native V2-Komponenten ist für neue Projekte empfohlen.
- Wie funktioniert ML-Inferenz mit SageMaker Neo an der Edge?
- Amazon SageMaker Neo kompiliert trainierte ML-Modelle (TensorFlow, PyTorch, MXNet, ONNX) für die Zielhardware — NVIDIA Jetson, Raspberry Pi, ARM Cortex, x86 — und optimiert dabei Speicherbedarf und Inferenz-Latenz. Das kompilierte Modell wird als Greengrass-Komponente paketiert und über Greengrass-Deployments auf beliebig viele Edge-Geräte verteilt. Latenz unter 10 ms für Bildklassifikation und Anomalie-Erkennung sind damit auch auf leistungsschwacher Industrie-Hardware erreichbar.
- Welche Regulatorik gilt für Edge-Daten in der Fertigung?
- NIS2 (ab Oktober 2024 in deutschem Recht) verpflichtet Unternehmen kritischer Infrastruktur und wichtige Einrichtungen, auch OT-Netzwerke in ihr Sicherheitsmanagement einzubeziehen. Der Cyber Resilience Act stellt Anforderungen an vernetzte Produkte — Greengrass-Geräte gelten als connected devices. Die DSGVO fordert Datenresidenz: Produktions- und Personendaten, die lokal an der Maschine verarbeitet werden, dürfen Deutschland oder die EU nicht verlassen. AWS Outposts und Greengrass Local Processing ermöglichen beide Datenverarbeitung ohne Daten-Transfer in die Cloud.
Quellen und weiterführende Informationen
- Bitkom: IoT in der Industrie — Treiber und Hemmnisse 2024, Berlin 2024
- AWS: AWS IoT Greengrass V2 Developer Guide, docs.aws.amazon.com/greengrass/v2/developerguide/
- AWS: AWS Outposts User Guide, docs.aws.amazon.com/outposts/latest/userguide/
- AWS: Amazon SageMaker Neo — Compile and Deploy Models, docs.aws.amazon.com/sagemaker/latest/dg/neo.html
- Bundesamt für Sicherheit in der Informationstechnik (BSI): NIS-2-Umsetzungsgesetz, bsi.bund.de
- Europäische Kommission: Cyber Resilience Act (EU) 2024/2847
Edge-Strategie für Ihre Fertigung entwickeln?
Storm Reply begleitet Sie von der Greengrass-V1-Migration bis zur vollständigen Edge-AI-Architektur. Sprechen Sie jetzt mit unseren Experten für Industrial IoT und AWS.
Kontakt aufnehmen