Security First: Warum Digitale Zwillinge eine vertrauenswürdige Grundlage brauchen
Security First: Warum Digitale Zwillinge eine vertrauenswürdige Grundlage brauchen
Digitale Zwillinge gelten als Schlüsseltechnologie der Industrie 4.0. Das hat sich auch auf der diesjährigen embedded world in Nürnberg spürbar abgezeichnet. Und wir durften mitdiskutieren – genauer gesagt unser Co-Founder. Welche Impulse Sebastian in seinem Beitrag im Rahmen des Digital Twin Tracks geleitet von Prof. Tim Fischer geben konnte, soll aber nicht nur den Messebesuchern vorbehalten sein. Daher hier für Sie ein Einblick in die Kernaussagen aus unserem Track, der um Vorträge von Pablo Antonio (Fraunhofer ISE) zu „Physical AI Co-Simulation“ und von Christopher Schwager (CarBytes) zu „Virtual Prototypes for Embedded Systems“ wie auch einer anschließenden Paneldiskussion ergänzt wurde.
Digitale Zwillinge – zwischen Wunsch und Wirklichkeit
Seit Jahren werden Digitale Zwillinge als zentrale Technologie für die industrielle Transformation gehandelt. Schließlich versprechen sie effizientere Produktionsprozesse, vorausschauende Wartung und neue Einblicke in industrielle Abläufe. Das funktioniert, indem Maschinen, Komponenten oder ganze Produktionslinien digital geklont werden und ihr Verhalten analysiert, simuliert und optimiert wird. Am Ende gewinnt die Produktion dadurch ein Mehr an Transparenz und Nachvollziehbarkeit.
Was einfach klingt, bringt in der Realität einige Hürden mit sich. Industriestrukturen sind meist historisch gewachsen. Eine Vielzahl an Systemen verhindert einen ganzheitlichen Überblick. Datenhygiene wurde vernachlässigt, sodass verschiedene Formate vorliegen. Uneinheitliche Schnittstellen und hohe Integrationsaufwände führen meist dazu, dass Teams Optimierungsbestrebungen schnell wieder einstellen. Diese fragmentierte Datenlandschaft erschwert letztlich die durchgängige Nutzung Digitaler Zwillinge erheblich. Sowohl Chris als auch Pablo haben dazu ähnliche Blickwinkel mit jeweils anderen Schwerpunkten ergänzt. Insbesondere die Verwaltungsschale und deren „Schachtelbarkeit“ vom kleinen Bauteil zur fertigen Maschine wurden mehrfach referenziert.
Damit verbunden sind nicht nur operative Schwierigkeiten, sondern echte Security-Schwachstellen: Mit der zunehmenden Vernetzung wächst die Angriffsfläche und Cyberkriminelle haben leichteres Spiel. Daher sollten Verantwortliche diesen sicherheitsrelevanten Leitsatz befolgen: Sobald Maschinen, Plattformen und IT-Systeme miteinander kommunizieren, braucht es neue Sicherheitsanforderungen. Chris betonte im Track außerdem, dass die Simulation einer Neuentwicklung in einer virtuellen Umgebung mit Digitalen Zwillingen das Go-to-Market deutlich beschleunigen und den begleitenden Testaufwand im Lebenszyklus reduzieren kann. Nicht nur für funktionale Tests – sondern natürlich auch für die Software als solche und die Sicherheitseinstellungen darin.
Parallel dazu wurde in anderen Tracks die Verwendung von (Docker) Containern und deren „interne Dependencies“ sowie die Software Bill of Materials (SBOM) immer wieder aufgenommen – da lacht das Herz des Anbieters des Application Supply Guards natürlich, denn CRA und NIS-2 waren ebenfalls in aller Munde. Damit sprach man auch von der Anforderung an das Produkt, bei Verkaufsstart frei von bekannten Sicherheitslücken zu sein. Was für den ganzen Lebenszyklus gilt: Anbieter müssen also jedes auszuliefernde Update und Upgrade an Software belegen.
Digital Twin kritisch hinterfragen
Digitale Zwillinge greifen auf eine Vielzahl von Datenquellen zu und verbinden physische Anlagen mit digitalen Plattformen. Gleichzeitig nutzen Unternehmen sie über ihre eigenen Grenzen hinweg – etwa entlang von Lieferketten oder in Partnernetzwerken. Ohne klare Sicherheitsstrukturen können dadurch neue Risiken entstehen. Sicherheit muss bei jeglicher Betrachtung von Digitalen Zwillingen also oberste Priorität einnehmen.
Als Beispiel nannte Pablo dazu die Formel 1, die wohl die am weitesten fortgeschrittenen Digitalmodelle überhaupt haben. Und dennoch treten bei > 40°C Außentemperatur plötzlich Probleme auf, die unsere Digitalen Zwillinge in der Simulation nicht gezeigt haben. Unseren virtuellen Räumen fehlt meist das „physische Modell“, Gravitation, Thermodynamik etc. Die Realität „beißt“ dann hart zurück.
Folgende Aspekte sollten dabei Berücksichtigung finden:
- der Schutz sensibler Produktions- und Betriebsdaten
- die sichere Kommunikation zwischen verschiedenen Systemen
- deren nachhaltige Sicherheit im Sinne von Krypto-Agilität
- die eindeutige Identifikation von Komponenten und Nutzern
- die Absicherung dieser Identitäten gegen Duplikation und Veränderung
- kontrollierte Zugriffe auf Daten und Funktionen
Nur wenn Datenintegrität, Zugriffskontrollen und Vertrauensmechanismen gewährleistet sind, lassen sich solche Systeme langfristig und unternehmensübergreifend betreiben. Die Produktion macht sich selbst also keinen Gefallen, wenn sie in blinden Aktionismus verfällt und die Technologie um der Technologie Willen umsetzt. Auch ihre Schwachstellen gilt es zu durchleuchten und für Abhilfe zu sorgen.
Die Asset Administration Shell als verbindender Standard
Dabei stellt sich zwangsläufig die Frage nach der technisch notwendigen Grundlage. Eine mögliche Antwort darauf ist die Asset Administration Shell (AAS). Sie wurde als standardisiertes Rahmenwerk konzipiert und entwickelt und verfolgt ein Ziel: Sie vernetzt Maschinen, Komponenten und IT-Systeme nicht nur interoperabel, sondern auch nachvollziehbar und kontrollierbar miteinander.
Über diese digitale Hülle können Informationen, Funktionen und Zustandsdaten über den gesamten Lebenszyklus hinweg einheitlich beschrieben und zwischen Systemen ausgetauscht werden. Somit gelingt eine strukturierte digitale Repräsentation der Produktion – dank gemeinsamer Bedeutungsebene. Weil Daten standardisiert, versioniert und kontrolliert bereitgestellt werden, schafft die AAS eine belastbare Basis für den Datenaustausch zwischen Produktion, IT, Zulieferern und Kunden.
Die AAS bringt ebenso strukturelle Elemente mit, die eine vertrauenswürdige Umsetzung gewährleisten. Dazu zählen unter anderem klar definierte Rollenmodelle, Versionierungskonzepte, Identitätsmanagement und Mechanismen zur Zugriffskontrolle. Standard heißt im Rahmen der AAS zudem, dass die Einbindung neuer Maschinen, Systeme und Partner in die bestehende Digital-Twin-Architektur einfach möglich ist. Somit gehören individuelle Punkt-zu-Punkt-Schnittstellen der Vergangenheit an.
Auch hier fanden sich Anknüpfungspunkte in Chris Simulationsumgebung für das Testing sowie der „bewusst limitierten FERAL-Umgebung“, die Antonio präsentierte. Wieder kam der Aspekt der „Schachtelung“ zum Tragen. Denn richtige Simulation und richtiges Testen gehen eben nur im „Gesamtkonzept“ – was alle Integrationsteile umfasst, statt nur die einzelnen Komponenten zu betrachten.
Effizienz und Sicherheit vorantreiben
Viele haben den Digitalen Zwilling schon „lokal“ im Einsatz. Doch häufig kann er sein Potenzial nicht vollständig entfalten. Einerseits entstehen Effizienzeinbußen, wo Datenquellen, Schnittstellen und Systeme nicht sauber zusammengeführt werden. Andererseits bestehen Sicherheitslücken, weil die zunehmende Vernetzung neue Angriffsflächen hervorruft, Organisationen dafür aber keine Schutzmaßnahmen einführen. Genau deshalb braucht der Digitale Zwilling ein standardisiertes und vertrauenswürdiges Fundament – und genau hier setzt die Asset Administration Shell an.
Was wir sonst noch auf der embedded world 2026 erlebt haben? Einen zweiten Blogbeitrag mit Messeeinblicken finden Sie auf der Website der Umbrella Security Operations GmbH.
Sie haben den Digitalen Zwilling schon im Einsatz und möchten ihn effizienter und sicherer nutzen? Wir zeigen Ihnen gerne die Vorteile der AAS auf!
Jetzt Termin vereinbaren