Warum Europas Datenökosystem Gaia-X eine leistungsfähigere Netzwerkinfrastruktur braucht

Im Interview mit Alina Rubina, Projektmanagerin Tellus

Elf Projekte, vom Bund gefördert mit 117,4 Mio. Euro, entwickeln derzeit Prototypen für Europas künftiges Datenökosystem Gaia-X. Sie arbeiten an Geschäftsmodellen, Cloud-Plattformen, Apps und Programmierschnittstellen. Doch nur eines der elf Projekte beschäftigt sich mit der untersten Infrastrukturebene, dem Netzwerk selbst. Projektmanagerin Alina Rubina erklärt im Interview, wie das Projekt „Tellus“ dem Internet ein Upgrade verpassen will.

Alina, du hast in der Forschung gearbeitet und wurdest mehrfach für deine wissenschaftlichen Veröffentlichungen ausgezeichnet. Heute arbeitest du als Projektmanagerin für das Gaia-X-Förderprojekt Tellus bei DE-CIX, einem der weltweit größten Betreiber von Internetknoten. Was ist dein fachlicher Hintergrund und was hat dich zu Gaia-X geführt?

Ich habe zwei Master in Kommunikationstechnik der Technischen Universitäten in Riga und Ilmenau. In meiner Abschlussarbeit an der TU Ilmenau untersuchte ich Pfadberechnungen zur drohnengestützten Lokalisierung mobiler Endgeräte. Nach meinem Abschluss 2015 führte ich meine Forschung in Ilmenau fünf Jahre lang als wissenschaftliche Mitarbeiterin weiter. Als ich im Mai 2020 zu DE-CIX wechselte, wurde ich sofort mit dem Projekt für Gaia-X betraut. Zu der Zeit gab es noch kein konkretes Förderprojekt. Meinem Arbeitgeber ging es zunächst darum, die damals im Aufbau befindliche Gaia-X-Initiative von Infrastrukturseite zu unterstützen.

Gaia-X dreht sich um Datensouveränität und Cloud-Dienste. Warum engagiert sich mit DE-CIX ein Betreiber von Internet-Knotenpunkten, also Netzspezialist, bei Gaia-X?

Ich glaube, die Diskussionen um Datensouveränität und datenbasierte Geschäftsmodelle vergessen oft die technische Basis: die Netzwerkinfrastruktur, die unsere Daten überträgt. Für die meisten sind Netze eine Blackbox. Aber das Internet, wie wir es kennen, ist für viele kritische und anspruchsvolle Anwendungen nicht leistungsfähig und zuverlässig genug. Diese Sichtweise und unserer Erfahrung auf diesem Feld wollen wir in die Entwicklung von Gaia-X einbringen.

Wozu braucht das Internet ein Upgrade?

Beim Breitbandausbau in Deutschland geht es darum, alle Haushalte und Unternehmen mit schnellen Internetzugängen auszustatten. Aber das Internet ist mehr als die Datensteckdose zu Hause oder im Büro. Die Bandbreite meines DSL- oder Kabelanschlusses von 50, 100 oder sogar 1.000 Megabit pro Sekunde sagt nur etwas darüber aus, wie schnell ich mit meinem lokalen Internetprovider verbunden bin. Dieser Wert ist aber keine Garantie dafür, ob mein Nutzungserlebnis eines digitalen Dienstes wirklich zufriedenstellend sein wird. Genauso wichtig ist der Weg, den die Daten zwischen meinem Rechner und den Servern zum Beispiel von Netflix zurücklegen. Für die meisten digitalen Anwendungen von heute reicht das Internet aus. Bisher jedenfalls. Während der Corona-Pandemie haben wir jedoch erlebt, was passiert, wenn weltweit sehr viel mehr Menschen datenintensive Angebote nutzen. Streaming-Anbieter mussten zeitweise die Qualität ihrer Videoübertragungen verringern, damit das Internet nicht zusammenbricht. Das gilt erst recht für fortschrittliche Anwendungen des kommenden Datenzeitalters wie Industrie 4.0, Robotik, KI oder Telemedizin. Dafür wurde das Internet nicht ausgelegt.

Warum überfordert zum Beispiel Industrie 4.0 das herkömmliche Internet?

Weil solche Systeme immer mehr in Echtzeit reagieren und dabei ganz andere Größenordnungen von Datenmengen verarbeiten als früher. Dazu müssen Netze die Daten nicht nur sehr schnell übertragen, sondern auch äußerst zuverlässig. Der Datenfluss darf nicht unterbrochen, verzögert oder fragmentiert werden. Das Internet überträgt Daten jedoch nur nach dem „Best-Effort-Prinzip“. Das heißt, es leitet Daten so schnell wie möglich weiter, über den aktuell besten verfügbaren Weg. Es gibt sein Bestes, aber ohne technische Garantie für eine fehlerfreie und zuverlässig schnelle Übermittlung.

Kannst du uns das Problem an einem Beispiel erklären?

Einer unserer Projektpartner bei Tellus ist Mimetik. Die Kollegen dort entwickeln einen intelligenten Datenhandschuh zur digitalen Unterstützung manueller Prozesse. Dazu erzeugt der Handschuh über Sensoren ein digitales Abbild von den Bewegungen einer menschlichen Hand. So kann ein Nutzer eine Industriemaschine virtuell fernsteuern. Oder der Handschuh unterstützt den Nutzer vor Ort bei der Bedienung, indem das angeschlossene System die Qualität der Abläufe überwacht oder vor Gefahren warnt. Was diese Anwendung aus Sicht der Netzwerktechnik so knifflig macht, ist: Handschuh und Maschine müssen sich nicht am selben Ort befinden. Es können Tausende Kilometer zwischen ihnen liegen. Vor Ort steht meist auch nicht die Rechenleistung zur Verfügung, um die Daten aus dem Handschuh zu verarbeiten. Sie müssen vorher in eine Cloud hochgeladen und von dort an die Maschine übermittelt werden. Trotzdem muss der ganze Vorgang in Echtzeit passieren, nur dann lässt sich mit dem Handschuh intuitiv im virtuellen Raum arbeiten.

Dadurch entstehen extreme Anforderungen an das Transportnetzwerk, vor allem an die Latenz, also die Reaktionszeit. Schwächen des Netzwerks kann das System von Mimetik zum Teil ausgleichen, indem es Echtzeit simuliert: Eine künstliche Intelligenz in der Cloud ahnt die nächste Bewegung der Hand voraus und leitet den Bewegungsbefehl an die Maschine weiter, bevor die kompletten Sensordaten vom Handschuh angekommen sind. Trotzdem reichen weder Leistung noch Vertraulichkeit und Integrität von Best-Effort-Verbindungen für solche Anwendungen aus.

Wie wollt ihr mit Tellus dieses Problem lösen?

Die Lösung in diesem Fall wäre eine softwarebasierte Ende-zu-Ende-Verbindung auf Netzwerkebene zwischen Datenhandschuh, der KI in der Cloud und der Maschine, die über den Handschuh gesteuert wird. Anstatt die Daten über einen beliebigen Verbindungsweg im Internet zu schicken, berechnet unsere Software einen Netzwerkpfad passend zu den technischen Anforderungen und schickt die Daten über die optimale Verbindung.  Für sie können wir alle wichtigen technischen Parameter garantieren. Doch das ist nur die halbe Miete.

Was braucht es mehr als eine optimale Netzverbindung?

Drei Voraussetzungen müssen erfüllt sein: Standards, Markttransparenz und Automation. Ende-zu-Ende-Netzverbindungen einzurichten, ist bisher noch mit hohem manuellem Aufwand verbunden. Der Schalt- und Bestellvorgang an sich kostet Zeit. Besonders aufwändig ist zudem die Recherche der technisch und wirtschaftlich optimalen Verbindung.

Was macht den Einsatz von Ende-zu-Ende-Verbindungen auf Netzwerkebene so aufwändig?

Zahl und Komplexität der Arbeitsschritte sind das Problem: Zuerst muss ein Unternehmen seine Anforderungen an eine Netzverbindung hinsichtlich Leistung, Zuverlässigkeit und Sicherheit bestimmen. Dann muss es einen Netzbetreiber finden, dessen Infrastrukturprodukt zum Bedarf und ins Budget passt. Sich hierzu einen Marktüberblick zu verschaffen, ist ebenfalls aufwendig. Das lässt sich Stand heute kaum automatisieren: Denn Anbieter arbeiten mit proprietären Systemen, es fehlen Standards, besonders für Prozesse und Schnittstellen. So bleiben Netzverbindungen für verteilte geschäftskritische Cloud-Anwendungen meist Stückwerk ohne durchgängige Servicegarantien.

Warum besteht in der Datenwirtschaft Handlungsbedarf beim Thema Netzinfrastruktur?

In der datenbasierten Wirtschaft werden komplexe Multi-Cloud-Anwendungen und der Echtzeit-Austausch zwischen und innerhalb von Datenräumen Alltag sein. In solchen Szenarien benötigen Unternehmen unzählige Ende-zu-Ende-Netzverbindungen. Über unterschiedliche Plattformen und Netzwerkanbieter hinweg. Datensouverän und datenschutzkonform. Initiativen wie Gaia-X erhöhen den Bedarf zusätzlich. Doch heute sind solche Hochleistungsverbindungen noch sehr umständlich zu handhaben: Unternehmen können sich nicht auf einheitliche Prozesse stützen. Dafür haben sie mit multiplen Verträgen zu kämpfen und bürokratischem Aufwand. Mit Tellus wollen wir das radikal vereinfachen: nur noch ein Vertrag, ein Standardablauf und wenig Begleitkommunikation.

Wo setzt ihr bei der Suche nach besseren Infrastrukturlösungen an?

Zuerst haben wir anspruchsvolle datenbasierte Anwendungen auf ihre technischen Anforderungen untersucht. Wo hakt es in der Praxis? Was sind die entscheidenden Stellschrauben? Aus unseren Erkenntnissen entwickelten wir ein Konzept für eine optimale technische Lösung.

Welche Lösungsstrategie leitet ihr daraus für mehr Interoperabilität und weniger Komplexität im Infrastrukturbereich ab?

Wir schaffen einen softwaretechnischen Überbau, das Tellus-Overlay. Damit machen wir die Systeme von Netzanbietern und Cloud-Plattformen endlich interoperabel. So lassen sich Ende-zu-Ende-Netzverbindungen viel einfacher und schneller einrichten. Auch bei der Auswahl der passenden Dienste wollen wir mehr Tempo und Qualität erreichen. Dazu beschreiben Anbieter ihre Services präzise und standardisiert in einem Gaia-X-kompatiblen Service-Katalog. So müssen Kunden nicht mehr auf Marketingversprechen vertrauen, sondern können Dienste anhand objektiver Kriterien auswählen. Bei uns soll das die Tellus-Software übernehmen und Anwendern passende Vorschläge machen.

Wie funktioniert das Tellus-Overlay?

Netzbetreiber und Cloud-Anbieter installieren die Tellus-Software auf ihren Systemen. Damit repräsentiert jeder von ihnen einen Node, also einen virtuellen Knoten in unserem Netzwerk. Herzstück dieser hierarchischen Architektur bildet der Super-Node. Die Tellus-Software auf dem Super-Node berechnet die jeweils beste Route für jede Ende-zu-Ende-Netzverbindung. Die benötigten Informationen zieht das System aus dem Service-Katalog, in dem alle Anbieter ihre Dienste mitsamt garantierter Leistung und Sicherheitsanforderungen hinterlegen. Der Super-Node übernimmt automatisch den Abgleich zwischen Kundenanforderungen und passenden Anbietern. Was Unternehmen bis heute in mühevoller Handarbeit erledigen müssen, wird sich dank Tellus künftig direkt per Codebefehl lösen und somit automatisieren lassen. Wir nennen das Network as a Code.

Wie trägt Tellus zu mehr Datensouveränität im Rahmen von Gaia-X bei?

Die Vision von Gaia-X ist eine sichere und vertrauenswürdige Dateninfrastruktur für selbstverwaltete Datenökosysteme. Das Projekt Tellus soll Gaia-X-konform sein. Entsprechend planen wir auch, die Gaia-X Federation Services (GXFS) einzusetzen. Mit unserem Beitrag wollen wir die passende Netzinfrastruktur für die künftigen europäischen Datenökosysteme beisteuern. Wir automatisieren den Zugang zu leistungsfähigen Datenverbindungen und integrieren uneinheitliche Netz- und Cloud-Dienste in einer interoperablen Architektur. Das heißt nicht, dass herkömmliche Internetverbindungen obsolet würden. Tellus ist die Lösung für anspruchsvolle Anwendungen, für die das Internet nicht genug bietet hinsichtlich Latenz, Bandbreite, Sicherheit, Resilienz, Dynamik und Monitoring.

Welche anderen Organisationen und Unternehmen beteiligen sich an Tellus und auf welche Bereiche konzentrieren sie sich?

Mit DE-CIX als Konsortialführer sind wir zehn Partnerunternehmen. Mimetik, IONOS und Trumpf forschen an konkreten Use-Cases. Mimetik an der Anwendung für den Datenhandschuh, IONOS an einem digitalen Zwilling für industrielle Anwendungen, Trumpf an einem Szenario für „Equipment-as-a-Service – Pay per Part“. Hierbei nutzen Geschäftskunden zum Beispiel einen Laserschneider zur Blechbearbeitung, ohne diesen kaufen oder leasen zu müssen. Die Partner Plusserver und Spacenet bringen ihre jahrelange Erfahrung als Anbieter von Cloud-Diensten ein, Wobcom als Internet-Service-Provider. KAEMI verstärken das Projekt mit ihrer Expertise als Infrastrukturspezialisten für Network & Security as a Service. CISPA kümmert sich um das Thema Sicherheit, und Cloud&Heat verstärken unser Projekt als Spezialisten für energieeffiziente Rechenzentrumsinfrastruktur.

Wie sieht euer Projektplan aus? Wie weit ist Tellus vorangeschritten? Und wie wollt ihr die GXFS-Dienste einsetzen?

Unser Projekt ist im November 2021 gestartet und auf drei Jahre ausgelegt. Unser Plan sieht fünf Meilensteine vor. Die vorhin erwähnte Anforderungsanalyse ist bereits abgeschlossen, ebenso haben wir die technische Architektur festgelegt und damit den zweiten Meilenstein erreicht. Aktuell haben wir Halbzeit und arbeiten am Konzept für die Netzwerk- und Cloud-Ebene. In dieser Phase werden wir auch festlegen, wie wir die GXFS implementieren und welche Module wir einsetzen. Das evaluieren wir gerade. Im Sommer wollen wir die Konzeptphase abschließen und im Herbst mit der technischen Umsetzung beginnen. Der Plan ist, Ende 2024 den Tellus-Prototypen der Öffentlichkeit vorzustellen.

Alina, vielen Dank für das Gespräch!


Andreas Weiss & Thomas Sprenger


Jeden Monat auf LinkedIn und www.gxfs.eu

Hier auf LinkedIn sowie auf www.gxfs.eu führen wir Sie jeden Monat durch die Welt von Gaia-X. Unsere Analysen und Interviews präsentieren ihnen Hintergründe und Einblicke, wie eine europäische Initiative und ihre Mitstreiter ein Ökosystem für die Wertschöpfung aus Daten schaffen wollen.

Kopf dieser Artikelreihe ist Andreas Weiss. Als Leiter für digitale Geschäftsmodelle bei eco sowie als Direktor von EuroCloud Deutschland_eco ist Andreas Weiss bestens mit der Internet- und Cloud-Industrie in Europa vernetzt und vertraut. Seine Erfahrungen bringt er in die Gaia-X Federation Services (GXFS) ein, dessen Projekteams für die Entwicklung der Gaia-X-Kerntechnologien verantwortlich sind. Unter Federführung des eco wird das GXFS-DE-Projekt zudem vom deutschen Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) gefördert und steht im engen Austausch mit der Gaia-X Association for Data and Cloud (AISBL). Unterstützt wird Weiss auf diesem Blog von Thomas Sprenger, der als Autor und Texter seit zwanzig Jahren über den digitalen Wandel schreibt.

Share on