Twilio Interconnect setzt auf Megaport beim Thema Leistung der Enterprise-Klasse

Private Konnektivität erhöht die Sicherheit und Leistung der Produkte von Twilio – und Twilio Interconnect macht seinen Kunden den Umstieg auf private Lösungen einfacher denn je.


Wahrscheinlich kennen Sie Twilio als eine der führenden Customer-Engagement-Plattformen, die Entwicklern leistungsstarke APIs zur Integration von Sprachlösungen, SMS und E-Mail in den Kundenservice zur Verfügung stellt. Die Produkte des börsennotierten (NYSE: TWLO) Unternehmens werden von Stripe, Airbnb, Lyft, Coca-Cola und vielen anderen zur Ermöglichung personalisierter Interaktionen und einer globalen Kommunikation genutzt. Allerdings haben Sie möglicherweise noch nichts von Twilio Interconnect gehört, der Infrastrukturlösung des Unternehmens, mit der Unternehmen sich direkt mit dem Twilio-Netzwerk verbinden können, um Qualität der Enterprise-Klasse für die Produkte von Twilio zu gewährleisten. Mit Twilio Interconnect können Kunden Verbindungen über physische Querverbindungen oder verschlüsselte VPN-Tunnel herstellen. Außerdem können sie auch Austauschlösungen von Drittanbietern nutzen, z. B. Network-as-a-Service (NaaS) von Megaport.


Erfüllen der Kundennachfrage nach privater Konnektivität


2016 entwickelte Twilio die erste Version von Twilio Interconnect als Reaktion auf die Nachfrage von Unternehmenskunden und Carriern nach privater Konnektivität aus Gründen der Compliance und Netzwerkleistung. Unter den ersten Verbindungen waren Kunden und Carrier, die Megaport nutzen wollten, um sich privat mit dem Twilio-Netzwerk zu verbinden.


„Wir wollen das Onboarding bei Twilio so einfach wie möglich machen, deshalb möchten wir unseren Kunden in der Regel entgegenkommen“, sagte Alex Seber, Director of Super Network bei Twilio.

„Unter den Austauschlösungen von Drittanbietern ist Megaport meiner Meinung nach einer unserer bevorzugten Anbieter, weil deren Kundenbasis ziemlich gut mit unserer zusammenpasst – Cloud-nativ … wollen schnell skalieren, erwarten ein Low-Touch-Modell.“

Twilio nutzt nur sieben Points of Presence (PoP) für den Betrieb in deutlich mehr als 100 Ländern. Die Partnerschaft mit Unternehmen wie Megaport stärkt seine Fähigkeit, schnell und mühelos eine Verbindung zu seinen weltweiten Kunden herzustellen.

Lisha Tseng, Staff Product Manager bei Twilio, sagte: „Das war einer der größten Vorteile bei der Nutzung von Austauschlösungen von Drittanbietern, weil wir uns nicht an denselben physischen Standorten befinden wie viele unserer Kunden. Wir nutzen die Austauschlösungen zur Erweiterung unserer globalen Reichweite.“

Verbesserung von Sicherheit und Leistung


Twilio Interconnect ist bei Unternehmen in stark regulierten Branchen wie beispielsweise der Finanzdienstleistungsbranche besonders beliebt, da diese Unternehmen strengere Sicherheits- und Compliance-Anforderungen erfüllen müssen. Private Konnektivität nimmt den Datenverkehr aus dem öffentlichen Internet, das häufig anfälliger für Cyberbedrohungen wie BGP-Routen-Hijacking ist. Die Sprachanwendungskunden von Twilio nutzen Twilio Interconnect häufig zur Minimierung von Problemen mit der Audioqualität, die unweigerlich entstehen, wenn ein Anruf über das öffentliche Internet läuft und auf dem Weg zum endgültigen Zielort von einem Netz zum anderen wechselt. Mit privater Konnektivität können Anrufe direkt von Twilios Netzwerk zum privaten Netzwerk des Unternehmens geleitet werden.


Warum Megaport?


Twilio nutzt Megaport nicht nur für redundante Konnektivität zu AWS, sondern auch als eine von mehreren Austauschlösungen von Drittanbietern, die auf Twilio Interconnect verfügbar sind. Seber zitiert mehrere wichtige Merkmale, auf die Twilio auf der Suche nach dem richtigen NaaS-Partner achtete.

„Die Abdeckung von Megaport ist riesig“, sagte Seber.

„Wir wollten eine softwareorientierte Lösung. Es war uns ziemlich wichtig, alles online erledigen zu können und mit keinem Vertriebsmitarbeiter sprechen zu müssen. Und das nutzungsbasierte Zahlungsmodell ist uns ebenfalls wichtig, weil es bei unserem schnellen Wachstum schwierig ist, IP-Zusagen von Carriern zu bekommen. Daher ist es gut zu wissen, dass wir eine Verbindung ziemlich schnell in Betrieb nehmen können. Wir entwickeln eines der wenigen Produkte bei Twilio, die mit physischen Geräten verbunden sind, daher kann die Bereitstellung im Vergleich zu den APIs, die wir verkaufen, etwas länger dauern. Dabei sind viele unserer Kunden Cloud-nativ und API-orientiert. Wenn wir ihnen sagen, dass sie einen Schaltkreis oder eine Querverbindung bereitstellen müssen, wissen sie entweder nicht, was das ist, oder sie machen sich um die Vorlaufzeiten Sorgen. Aus diesem Grund ist es auch sehr gut zu wissen, dass Megaport etwas schneller handeln kann.“

„Wir bemerken definitiv eine Umstellung bei unseren Kunden.“


Twilio Interconnect hat sich zu einem schnell wachsenden Dienst im Produktangebot von Twilio entwickelt. Die Menge der durch Austauschlösungen wie das Megaport-Netzwerk ermöglichten Verbindungen ist im Vergleich zum Vorjahr um 100 % gestiegen. Tseng glaubt, dass Austauschlösungen von Drittanbietern wie Megaport in Zukunft eine Wachstumschance für das Produkt bedeuten werden.

„Der Virtual Cross Connect war ein echter Game-Changer für unser Produktangebot“, sagte Tseng.

„Wir haben Megaport vor zwei Jahren an Bord geholt, und während die Kunden sich im ersten Jahr erst damit vertraut machen mussten, wird Megaport im zweiten Jahr zu einem integralen Bestandteil von Twilio Interconnect, und wir bemerken definitiv eine Umstellung bei unseren Kunden.“

Twilio plant, sein Kundenerlebnis zu verbessern und Unternehmen die Inbetriebnahme von privater Konnektivität direkt über die Twilio-Plattform zu erleichtern.

„Sobald der Kunde online ist, kann die Verbindung innerhalb weniger Tage in Betrieb genommen werden, was für einen Telekommunikationsdienstleister ziemlich schnell ist“, sagte Seber.

„Kunden mit einem traditionellen Telekommunikationshintergrund sind im Wesentlichen ziemlich zufrieden.“

Möchten Sie erfahren, wie Twilio Interconnect Ihnen helfen kann? Nehmen Sie hier Kontakt zu Twilio auf.

Drei versteckte Kostenpunkte im Multicloud-System

Wer die Gewinne seines Unternehmens verbessern möchte, sollte bei der Cloud einige versteckte Gebühren beachten. Hier erfahren Sie, wie Sie richtig damit umgehen.


Es ist kein Geheimnis, dass die Verbindung zur Cloud mit Kosten verbunden ist. Ob Abonnementgebühren oder Speicherpakete – Ihre Cloud-Rechnung schießt schnell in die Höhe.

Die Multicloud wird immer beliebter – es wird prognostiziert, dass bis 2024 94 % aller Unternehmen ein Multicloud-Netzwerk nutzen werden, und gleichzeitig findet nach der COVID-19-Pandemie zunehmend eine Umstellung auf Work-from-Anywhere-Modelle statt – und bietet zahlreiche Vorteile für Netzwerkleistung, Sicherheit und Management. Doch ohne die richtige Konfiguration wachsen die Kosten schnell an, und zwar an Stellen, an denen man am wenigsten damit rechnet. Glücklicherweise gibt es Möglichkeiten, diese versteckten Kosten zu reduzieren und besser zu handhaben, damit die Multicloud frei von bösen Überraschungen bleibt.

Die Vorteile


Wenn Ihr Unternehmen mit mehreren Cloud-Anbietern verbunden ist, entstehen dadurch Vorteile, die traditionelle Systeme aus einem einzigen Cloud-Netzwerk nicht garantieren können. Erstens sichern Sie sich die Freiheit, sich für die besten der von Ihnen benötigten Funktionen zu entscheiden, ohne an einen Anbieter gebunden zu sein (d. h. ein Benutzer ist gezwungen, einen Dienst weiterhin zu nutzen, weil ein Wechsel zu einem anderen Anbieter nicht praktikabel ist), und verfügen über einen sicheren und kosteneffizienten Disaster-Recovery-Plan für den Fall, dass einer Ihrer benachbarten Anbieter im Falle einer Datenschutzverletzung oder eines Systemausfalls unerwartet ausfällt.

Sind Sie noch dabei, sich mit der Multicloud vertraut zu machen? Lesen Sie unseren Einsteigerleitfaden 2022 und entdecken Sie weitere Vorteile für Ihr Unternehmen.



Die versteckten Kosten

Ohne die richtige Planung wird der Komfort der Cloud schnell teuer. Neben den unvermeidlichen Verbindungsgebühren müssen bei der Zusammenstellung des Budgets für die Cloud-Ausgaben Ihres Unternehmens drei wichtige Kostenpunkte berücksichtigt werden:

1. Gebühren für den Datenausgang – die Kosten für die Migration von Daten von einem Cloud Service Provider (CSP)
2. Netzwerk-Underlay – die Kosten für die Installation und den Betrieb von Konnektivität zu und zwischen Clouds
3. Hairpinning von Daten von Cloud zu Cloud – die Kosten des Routings zwischen Clouds über ein lokales Rechenzentrum (ein Kostenpunkt, der mithilfe eines virtuellen Cloud-Routers verringert werden kann).

Gebühren für den Datenausgang


Zwar können Sie so viele Daten, wie Sie möchten, zu einem CSP migrieren, doch wenn Sie die Daten von ihm wegmigrieren, wird Ihnen eine Gebühr pro GB Daten berechnet – daher der Begriff „Ausgang“. Häufig sind diese Gebühren deshalb verborgen, weil sie in der Regel nachträglich berechnet werden. Das bedeutet, die Gebühren können sich im Hintergrund ansammeln, weil Anwendungen kontinuierlich Daten extrahieren. Die Überwachung und Verwaltung der Ausgangsgebühren kann für große Organisationen, die sich zur Unterstützung globaler Workloads auf mehrere Cloud-Anbieter verlassen, zu einer gewaltigen Herausforderung werden.

Diese Gebühren variieren je nach Volumen der zu übertragenden Daten sowie deren Zielort (die Übertragung von Daten innerhalb von Verfügbarkeitszonen ist mit geringeren Gebühren verbunden als die Übertragung von Kontinent zu Kontinent). Darüber hinaus werden höhere Gebühren berechnet, wenn Datenverkehr oder Daten über eine öffentliche Verbindung wie beispielsweise das Internet geroutet werden. In unserem E-Guide zu Ausgangsgebühren beschäftigen wir uns detaillierter mit Gebühren für den Datenausgang.

Obwohl Gebühren für den Datenausgang ein unerwartetes Hindernis für das Wachstum Ihres Unternehmens darstellen können, gibt es Methoden, um sicherzustellen, dass Sie nicht zu viel zahlen müssen.


So werden die Gebühren für den Datenausgang reduziert

Es gibt mehrere Möglichkeiten, wie man sich vor hohen, versteckten Gebühren für den Datenausgang schützen kann. Durch eine strategische Planung und Migration der Datenmenge, die pro Cloud gespeichert werden soll, können Sie die Ausgangsgebühren der CSPs effektiv reduzieren und so mehr Budget für Dinge bereitstellen, die Sie benötigen.

Als Erstes ist es wichtig, Verbindungen über ein privates und sicheres Netzwerk statt eines riskanten öffentlichen Internet-VPN einzurichten. Bei CSPs ist diese Praxis gerne gesehen: Wenn Sie die private Verbindung des jeweiligen Anbieters nutzen (z. B. AWS Direct Connect oder Microsoft Azure ExpressRoute), profitieren Sie bei Ihrer Cloud-Migration von deutlich geringeren Gebühren für den Datenausgang.

Außerdem können Sie Ihre Multicloud-Infrastruktur flexibel gestalten. Durch den Einsatz von Network-as-a-Service (NaaS) im Unternehmen, einem Modell, bei dem man Netzwerkdienste von Cloud-Anbietern zum Betrieb des eigenen Netzwerks mietet, ohne eine eigene Infrastruktur besitzen zu müssen, können Sie Ihr System schneller und einfacher anpassen, wenn sich Ihre geschäftlichen Anforderungen ändern, und Ihre Datenspeicher- und Migrationsanforderungen im Einklang mit Ihren geschäftlichen Bedürfnissen herauf- oder herunterskalieren.

Erfahren Sie mehr darüber, wie Network-as-a-Service (NaaS) von Megaport Ihnen helfen kann.


Mithilfe von Cloud-Attached Storage kann Ihr Unternehmen fortschrittliche Datenanalysefunktionen sowie Deep Learning auf mehreren Clouds nutzen und somit auf die verschiedenen benötigten Anwendungen zugreifen und dabei den Bedarf verringern, Daten in Ihre und aus Ihrer lokalen Umgebung zu übertragen.

Außerdem können Sie überwachen, welche Daten wo gespeichert werden, und so eine effiziente Minimierung von Replikationen gewährleisten, wenn diese unnötig sind. Bei der Synchronisierung von Daten zwischen Clouds (häufig zum Sichern von Daten für Wiederherstellungszwecke) oder zwischen lokaler Infrastruktur und Cloud-Anbietern entsteht dadurch erhöhter Datenverkehr, der mit Gebühren für den Datenausgang verbunden sein kann. Diese Gebühren können deutlich reduziert werden, indem Sie die Sicherungsanforderungen für kritische Daten bewerten, auf unnötige Doppelungen prüfen und Daten vor der Übertragung in die Cloud komprimieren.

Netzwerk-Underlay


Auch wenn man sich die Cloud eher in der Luft vorstellt, wird sie tatsächlich durch eine komplexe Infrastruktur ermöglicht, die am Boden aufgebaut und betrieben wird. Der Begriff „Netzwerk-Underlay“ bezieht sich auf die physische und/oder virtuelle Netzwerkinfrastruktur, die ein Unternehmen mit einem CSP verbindet.

So haben beispielsweise virtuelle Netzwerkinfrastrukturen wie NaaS je nach gewählter Systemeinrichtung unterschiedliche Kosten und liefern je nach Unternehmensanforderungen unterschiedliche Kapazitäten. Kunden zahlen in der Regel eine monatliche oder On-Demand-Gebühr für einen Komplettservice inklusive Hardware und Management.


So können Underlay-Kosten verringert werden

Mit der Entscheidung für ein skalierbares und sicheres NaaS anstelle einer nicht skalierbaren Verbindung eines Telekommunikationsanbieters oder des Internets verschaffen Sie sich mehr Kontrolle und Transparenz bei allen Komponenten Ihres Multicloud-Netzwerks. Hier können Sie die Leistung des Underlays effizient überwachen und Störungen oder Ineffizienz im Netzwerk eindeutig identifizieren. Mit dem NaaS-Angebot von Megaport können Sie diese Statistiken in einem benutzerfreundlichen und leicht verständlichen Portal ansehen.

Da NaaS Redundanzvorfälle reduziert, die zu Produktivitätseinbußen und kostspieligen Ausfallzeiten führen, ist es häufig eine hervorragende Möglichkeit, die Kosten im Zusammenhang mit traditionellen physischen Underlays zu senken. Darüber hinaus ermöglicht NaaS die Automatisierung von Aufgaben über Programmierschnittstellen (APIs). So sorgt es für eine bessere Produktivität und damit niedrigere Ressourcenkosten und eine bessere geschäftliche Skalierbarkeit – und Sie zahlen nur für Ihre tatsächliche Nutzung.


Hairpinning von Daten von Cloud zu Cloud


Ohne die richtige Routing-Konfiguration stützen sich die Multicloud-Netzwerke von Unternehmen stark auf „Hairpinning“ – das Zurückholen von Datenverkehr. Bei dieser Methode werden Daten über eine lokale Umgebung, häufig ein Rechenzentrum, von CSP zu CSP und zwischen Cloud-Umgebungen übertragen.

Bei einem Hairpinning von Daten zwischen CSPs müssen diese einen weiteren Weg durch ein komplizierteres Netzwerk zurücklegen – so schießen Cloud-Ausgaben aufgrund umständlicher Pfade in die Höhe. Und aufgrund von mehr Points of Failure und eines längeren Weges von A nach B ist auch mit höherer Latenz und beeinträchtigter Leistung zu rechnen.


So können die Kosten von Hairpinning gesenkt werden

Um die Kosten von Hairpinning zu senken, benötigen Unternehmen ein Multicloud-System, in dem Daten nicht nur in und aus Clouds, sondern auch zwischen Clouds übertragen können – dies wird als „virtuelles Cloud-Routing“ bezeichnet.

Virtuelle Cloud-Router arbeiten über einem NaaS-Underlay und ermöglichen die Einrichtung von Verbindungen zwischen Clouds ohne Hardware, sodass Daten direkt von einer Cloud-Anwendung zur anderen übertragen werden können, ohne Kompromisse bei Netzwerkkosten, Leistung oder Redundanz eingehen zu müssen.

Bei der Verwendung eines virtuellen Cloud-Routers wie beispielsweise Megaport Cloud Router (MCR) lassen sich Verbindungen zwischen Clouds ebenfalls einfach einrichten – es muss einfach ein Virtual Cross Connect (VXC) über das Megaport Portal bereitgestellt werden, um die Cloud in Minutenschnelle zu verbinden. So profitieren Sie in Ihrer gesamten Multicloud von den On-Demand-Kostenvorteilen Ihres NaaS-Systems.



Erfahren Sie mehr darüber, wie MCR Ihre Interaktion mit der Cloud verändern kann.


Fazit


Die versteckten Kosten der Multicloud können sich im Hintergrund ansammeln, doch es gibt Möglichkeiten, diese Kosten zu finden und zu senken, um rund um die Cloud Geld zu sparen. Durch eine Überprüfung Ihrer Gebühren für den Datenausgang, die Nutzung eines privaten und sicheren NaaS und den Einsatz von Cloud-zu-Cloud-Routing können Sie die steigenden Ausgangsgebühren deutlich reduzieren und dabei von einer ganzen Reihe weiterer Vorteile profitieren.

Und mit einer strategisch klugen Zuweisung kosteneffizienter und optimierter Cloud-Migrationspfade innerhalb Ihrer Multicloud-Infrastruktur bleibt von dem Budget Ihres Unternehmens noch etwas für die Dinge übrig, die Sie am dringendsten brauchen.

Schadet Ihre Internetverbindung Ihrem Unternehmen?

Die Wahl der richtigen Cloud-Konnektivitätsmethode kann über Erfolg und Misserfolg eines Unternehmens entscheiden. Sollte man also das Internet meiden oder ist es ein nützlicher Bestandteil des Cloud-Netzwerks?

Cloud-basierte Dienste sind für viele Unternehmen von entscheidender Bedeutung, da sie den Mitarbeitenden ein virtuelles Büro zur Verfügung stellen und die nötige Flexibilität bieten, damit sie sich jederzeit und von jedem Ort aus verbinden können. Mit der steigenden Zahl der Anwendungsfälle für digitale Vernetzungsfähigkeit stellt sich jedoch weniger die Frage, warum Cloud-basierte Lösungen in die Geschäftsabläufe integriert werden sollen, sondern vielmehr, welche Art von Cloud-basierter Konnektivität man nutzen sollte.

Öffentliche Cloud-Netzwerke und Konnektivitätsmethoden – das öffentliche Internet – sind eine der beliebtesten und einfachsten Möglichkeiten, die Workloads eines Unternehmens zu vernetzen, und werden daher auch von vielen Unternehmen gerne genutzt. Aber sind sie wirklich die richtige Option für Ihr Unternehmen?

Öffentliche und private Netzwerke im Vergleich

Sehen wir uns zuerst an, worin genau sich öffentliche und private Konnektivität voneinander unterscheiden. Ein privates Cloud-Netzwerk ist genau das, wonach es klingt: privat und für keine andere Organisation zugänglich. Alle Rechenressourcen und Konnektivitätsmethoden zu privaten Clouddiensten werden über ein sicheres privates Netzwerk bereitgestellt und sind für die Nutzung durch ein einzelnes Unternehmen vorgesehen.

Größere Organisationen können ihr eigenes Netzwerk, eigene Rechenzentrums-Racks und so weiter aufbauen und verwenden, doch für die meisten Unternehmen ist die Nutzung eines bestehenden privaten Netzwerk-Layers über einen NaaS-Anbieter (Network-as-a-Service) eine deutlich flexiblere und erschwinglichere Option.

Ein öffentliches Cloud-Netzwerk basiert hingegen auf der Nutzung von Cloud-Plattformen und Konnektivitätsmethoden, die sich auf das öffentliche Internet stützen. Oder anders ausgedrückt: Sie werden von mehreren verschiedenen Kunden oder Unternehmen genutzt. Daten und Anwendungen werden zwar vor anderen Kunden verborgen, aber nicht geschützt.

Auf den ersten Blick wirken öffentliche Cloud-Netzwerke kosteneffizient und einfach bereitzustellen. Doch es gibt etliche Gründe, warum man sich bei seiner Unternehmenskonnektivität nicht ausschließlich auf das öffentliche Internet verlassen sollte.


Nachteile des öffentlichen Internets

Beeinträchtigte Sicherheit

Eine der größten Sorgen von Unternehmen beim Thema Cloud ist die Sicherheit. Die Cloud ist grundsätzlich sicher – tatsächlich hängt ihre gesamte Existenz von der Gewährleistung einer sicheren Umgebung ab. Das hält Hacker und Cyberkriminelle jedoch nicht davon ab, öffentliche Clouds und Konnektivitätspfade mit viel größerer Leichtigkeit zu unterwandern, als es ihnen bei privaten Verbindungen möglich wäre.

In einer Cloud-nativen Unternehmenslandschaft liegen viele persönliche und finanzielle Informationen auf Cloud-Plattformen. Müssen diese Daten jedoch öffentliche Netzwerke durchqueren, ist dies mit mehr Autonomous-System-Pfaden (AS-Pfaden) verbunden, sodass sie länger ungeschützt bleiben. Ohne integrierte End-to-End-Verschlüsselung oder FWaaS-Funktionen (Firewall-as-a-Service) überlässt man die Sicherheit seiner Daten dem Zufall.

Denken Sie daran: Wenn eine Sicherheitsverletzung zu Problemen für Kunden führt, muss Ihr Unternehmen die Konsequenzen tragen, nicht der Cloud-Anbieter.

Die Integration des Netzwerks kann entscheidend sein, um Cyberangriffe zu verhindern. Hier erfahren Sie, wie sie funktioniert.


Höhere Kosten

Es wird häufig angenommen, dass das wichtigste Verkaufsargument der öffentlichen Cloud lautet, dass sie kosteneffizienter ist – doch das ist nicht immer der Fall. Eine öffentliche Cloud-Lösung mag zunächst zwar sehr kosteneffizient sein, doch diese Kosten können auch schnell völlig außer Kontrolle geraten.

Die meisten Cloud-Anbieter berechnen höhere Gebühren für den Datenausgang, um Daten über das öffentliche Internet zu transportieren, als für den Transport über einen privaten Netzwerk-Layer. Außerdem können die häufigen Ausfallzeiten, von denen Benutzer öffentlicher Netzwerke berichten, in Verbindung mit mangelhafter Redundanz und Disaster Recovery in bedeutenden Verlusten resultieren – laut Gartner ganze 5.600 US-Dollar pro Minute. Berücksichtigt man die Produktivitätseinbußen durch Engpässe beim Datenverkehr und Ausfallzeiten, wird diese Zahl noch größer. Skaliert man diese Zahl dann über mehrere Monate für ein großes Unternehmen, sieht man sich mit enormen Kosten konfrontiert.

Die öffentliche Cloud eignet sich zwar gut für sofortigen Zugriff ohne Kapitalaufwand, allerdings müssen sich Unternehmen überlegen, ob die Implementierung ihrer eigenen Systeme und die Betrachtung Cloud-basierter Alternativlösungen vielleicht eine kosteneffizientere Option wären.

Lesen Sie unsere Tipps für ein kosteneffizienteres Netzwerk.


Schlechte Leistung

Denken Sie an das letzte Mal, als es bei Facebook eine Störung gab und Sie Ihren Newsfeed nicht aktualisieren konnten – ärgerlich, oder? Immer wenn es bei beliebten Websites wie Facebook oder Netflix zu Serverproblemen kommt, ist der Aufschrei gewaltig – und der Ruf dieser Anbieter wird infrage gestellt. Ein leistungsfähiges Cloud-Netzwerk ist entscheidend, um solche Katastrophen für Unternehmen und Kunden zu verhindern – und genau das kann das öffentliche Internet nicht garantieren.

Der Betrieb eines öffentlichen Cloud-Netzwerks bedeutet, dass man sich stark auf seinen Internetdienst verlässt, doch in Wahrheit bieten öffentliche Internetverbindungen einfach nicht das gleiche Maß an Zuverlässigkeit wie private Verbindungen. Da eine riesige Menge an Benutzern sich öffentliche Pfade teilt, müssen die Benutzer in Spitzenzeiten um Bandbreite kämpfen. Dadurch schießen die Latenzzeiten in die Höhe und der Betrieb kommt praktisch zum Erliegen. Kommt es dann auch noch zu Vorfällen mit der Redundanz – die häufiger auftreten, als man vielleicht glaubt –, bringt dies den Betrieb komplett und auf unbestimmte Zeit zum Stillstand. Aufgrund der Unvorhersehbarkeit des Internets können diese Vorfälle genau dann auftreten, wenn man am wenigsten damit rechnet.

Wenn Ihr Unternehmen wichtige Anwendungen in der Cloud ausführt und Ihre Verbindung schwächelt, kommt es auf jede Sekunde an. Dies kann Ihr Unternehmen nicht nur viel Geld kosten, sondern auch zu Produktivitätsverlusten, Geschäftseinbußen und sogar einer langfristigen Schädigung des Rufs Ihres Unternehmens führen. Im Allgemeinen sind Flexibilität und Kontrolle entscheidend, um sicherzustellen, dass Dienste zuverlässig und konsistent aufgerufen werden können – von Teams und Endbenutzern.

Wann sollte man das öffentliche Internet nutzen?

Trotz allem kann das öffentliche Internet in einigen Fällen erwünscht und geeignet sein. Beispielsweise bei der Verwendung als Teil eines SD-WAN-Netzwerks (softwaredefiniertes Weitverkehrsnetz) für die Edge-Konnektivität, das Internetverbindungen von verschiedenen verteilten Edge-Standorten zu einer sicheren End-to-End-Architektur aggregiert. Außerdem bietet das Internet eine günstige und einfache Lösung für Unternehmen, die risikoarme Aktivitäten durchführen, z. B. den Versand von E-Mails oder andere Vorgänge, bei denen keine vertraulichen oder kritischen Daten gefährdet werden.

Das öffentliche Internet kann darüber hinaus ein geeignetes Tool für die Migration kleiner, einmaliger Workloads in Einzelregionen von Cloud zu Cloud sein, wobei die Verwendung eines VPN als Sicherheitspuffer empfohlen wird. Während also das öffentliche Internet allein nicht empfohlen wird, ist es bei der zeitgleichen Nutzung mit einer privaten Lösung (oder wenn die öffentliche Cloud in Kombination mit einer privaten Cloud für eine „Best-of-both-worlds“-Lösung verwendet wird) eine gute Option für Unternehmen, die einfache Netzwerkfunktionen schnell und einfach durchführen oder das Fundament für ein komplexeres System legen möchten.

Umstellung auf private Konnektivität

Vermutlich haben Sie mittlerweile festgestellt, dass die Gefahren eines öffentlichen Cloud-Netzwerks für Ihr Unternehmen die Vorteile überwiegen. Was ist also die beste Alternative?

Wir haben viele Blog-Beiträge über private Konnektivitätsmethoden verfasst, von den verschiedenen Möglichkeiten für den Aufbau eines privaten Netzwerks bis hin zu den verschiedenen, von großen CSPs angebotenen privaten Konnektivitätslösungen. Eine Lösung, die sich für so gut wie jedes private System eignet – und dabei den einfachsten Einstieg bietet –, ist Network-as-a-Service (NaaS).

NaaS bildet einen privaten Cloud-Netzwerk-Layer, der Benutzern den Betrieb eines Netzwerks ermöglicht, ohne dass sie eine Infrastruktur besitzen, aufbauen oder betreiben müssen – und ohne Nutzung des öffentlichen Internets. Im Wesentlichen „mieten“ Unternehmen bei einem unabhängigen Anbieter einen privaten Netzwerkpfad zu (und manchmal auch zwischen) Cloud-Anbietern und müssen somit keine Netzwerkinfrastruktur von Grund auf einrichten. Stattdessen wird der Schwerpunkt auf Geschäftsergebnisse und Umsatzwachstum gelegt, während erfahrene Netzwerkexperten Ressourcen, Sicherheitsdienste, Appliances, Produkte und vieles mehr bereitstellen.

Bei der NaaS-Struktur – die wir in unserem Blog näher erläutern – kümmern Anbieter sich um alle Netzwerkfunktionen. So können Unternehmen ihre eigenen Netzwerke ganz ohne Hardware einrichten – sie brauchen lediglich Internetkonnektivität für die Verbindung zur NaaS-Fabric. Dies beseitigt nicht nur die Hardwarekosten, sondern bietet Benutzern auch eine flexible Skalierung, wenn sich die Anforderungen ändern, sowie eine einfache und schnelle Bereitstellung von Diensten.


NaaS und die öffentliche Cloud im Vergleich

Stellen Sie sich eine nicht unterstützte öffentliche Konnektivitätsmethode als öffentliche Straße vor. Sie haben keinerlei Schutz oder Privatsphäre und werden somit potenziell zur Zielscheibe für rücksichtslose Fahrer. Sie teilen sich die Straße mit vielen anderen Autos, wodurch es in Stoßzeiten häufig zu Verkehrsschwankungen oder Verzögerungen kommt. Außerdem zahlen Sie eine bestimmte Maut für die Nutzung der Straße, an der Sie nichts ändern oder anpassen können.

Stellen Sie sich jetzt NaaS als private Straße vor, die nur für Sie gebaut wurde. Keine anderen Autos nutzen die Straße, sodass es auch zu keinen Vorfällen mit rücksichtslosen Fahrern kommt – sie sind sicher und geschützt. Sie müssen nicht im Stau stehen – eine hervorragende Zuverlässigkeit und Leistung. Und Sie können die Größe der Straße je nachdem, wie viele Autos sie befahren sollen, ändern und damit Skalierbarkeit garantieren. Wenn Sie Ihr Netz ausbauen oder verschiedene Straßen miteinander verbinden möchten, können Sie ganz nach Bedarf weitere Straßen bauen. Sie können im Laufe der Zeit im Einklang mit den Prioritäten und Anforderungen Ihres Unternehmens flexibel wachsen.

Anhand dieser Analogie ist es leicht zu erkennen, warum NaaS nicht nur aufgrund seiner Benutzerfreundlichkeit, sondern auch wegen seiner Sicherheitsvorteile, seiner Zuverlässigkeit und seiner hohen Skalierbarkeit eine hervorragende Option für Unternehmen ist.

Fazit

Die optimale Cloud-Option für Ihr Unternehmen hängt im Wesentlichen stark von den Anforderungen Ihres Unternehmens ab. Ganz gleich, ob Sie ein Startup mit einem Standort und fünf Mitarbeitenden sind oder international mit einem Team aus 500 Mitgliedern agieren, sollten Sie bei der Bestimmung der geeignetsten Option für Ihr Unternehmen stets Faktoren wie Sicherheit, Leistung, Benutzerfreundlichkeit, Kosten und Skalierbarkeit berücksichtigen.

Eine sichere Internetverbindung ist entscheidend, um sicherzustellen, dass Ihr Unternehmen handlungsfähig bleibt und nicht Cyberkriminalität oder Rufschädigung zum Opfer fällt – unabhängig davon, ob Sie ein öffentliches Internetsystem in Verbindung mit einem Layer für private Konnektivität für mehr Sicherheit oder eine rein private Konnektivitätsmethode wie NaaS nutzen.

Buchen Sie eine Demo und erfahren Sie, wie das NaaS-Angebot von Megaport Sie auf den Weg zu einem schnellen und sicheren Netzwerk bringt.

Abhilfe gegen hohe Latenz bei Azure

Erfahren Sie, wie Sie die Latenz bei dem beliebten Cloud-Dienstanbieter reduzieren und eine bessere Netzwerkleistung erzielen können.


Unternehmen gelingt es nicht immer, ihre Cloud-Netzwerke optimal zu nutzen. Manchmal übersteigt der Bedarf die Kapazität, und es kommt zu Latenzproblemen im Netzwerk. Wenn Sie diesen Blog gefunden haben, wissen Sie vermutlich bereits, wie problematisch hohe Latenz für ein Unternehmen werden kann und wie aus Ineffizienz schnell Umsatzverluste werden können. Einem kürzlich veröffentlichten Bericht von Gartner zufolge kosten Ausfallzeiten ein Unternehmen im Schnitt 5.600 US-Dollar pro Minute – und unzuverlässige Latenz ist dabei ein zentraler Faktor. Wie kann man also den Bedarf decken und Latenzprobleme vermeiden, wenn die Anforderungen an das Netzwerk seine Kapazität übersteigen?

Die gute Nachricht: Den 70 Prozent der Unternehmen, die sich bei ihren Cloud-Netzwerken auf Microsoft Azure verlassen, stehen einfache Möglichkeiten zur Verfügung, die Latenz zu reduzieren, die sich nicht auf ihre Kosten niederschlagen und – in den meisten Fällen – eine optimale Nutzung vorhandener Assets ermöglichen. Hier sind drei wichtige Methoden, mit denen sich die Latenz von Azure reduzieren und eine bessere Netzwerkleistung erzielen lassen.


Methode 1: Accelerated Networking


Accelerated Networking, auch als „Single-Root Input-Output Virtualization“ (SR-IOV) bekannt, ist die am weitesten verbreitete Methode, die Latenz zu reduzieren. Vereinfacht gesagt: Bei Accelerated Networking geht es darum, den kürzesten Netzwerkpfad von A nach B zu finden.

Das Problem ist, dass viele Cloud-Systeme sich bei ihrer Administration zu stark auf einen Host verlassen. Mithilfe von Accelerated Networking fließt der Datenverkehr direkt über die Netzwerkschnittstelle der virtuellen Maschine (VM) und muss dabei nicht länger den Host und den virtuellen Switch passieren. Das Ergebnis: reduzierte Latenz, weniger Jitter und geringere CPU-Auslastung für die anspruchsvollsten Workloads. 

Accelerated Networking ist wichtig, weil es unnötige Komplexität im Netzwerk beseitigt (das Rätselraten hatten wir bereits in einem früheren Blog-Beitrag beendet). Ohne Accelerated Networking muss Datenverkehr in die und aus der VM den Host und den virtuellen Switch passieren. Accelerated Networking verringert die Anzahl der Sprünge, die der Datenverkehr benötigt, um sein Ziel zu erreichen. 

Bei korrekter Umsetzung liefert der virtuelle Switch sämtliche Durchsetzung von Richtlinien, die vorher vom Host übernommen wurde, wie beispielsweise Zugriffskontrolle und Netzwerksicherheit. 

Disaster Recovery ist hier das perfekte Beispiel für einen Anwendungsfall – ein Albtraum für jeden Netzwerkprofi und ein kostspieliger Vorgang für Unternehmen. In genau solch einer Situation zeigt eine Methode wie Accelerated Networking ihr Potenzial bei der Wiederherstellung des Netzwerkbetriebs, wenn der zentrale Host keine Option mehr ist und die virtuellen Switches seine Rolle übernehmen müssen. 

Microsoft verfügt über umfassende Dokumentation zu diesem Anwendungsfall, die alle lesen sollten, denen nicht nur Latenz ein wichtiges Anliegen ist, sondern der allgemeine Zustand ihres Cloud-Netzwerks. Die technischen Details sind in Microsofts Erklärung zu Accelerated Networking zu finden.


Haben Sie bei Azure mit hohen Ausgangsgebühren zu kämpfen? In unserem Blog lesen Sie vier Möglichkeiten, diese Kosten zu senken.


Methode 2: Receive Side Scaling (RSS)


Natürlich ist Accelerated Networking nicht für alle geeignet. Unternehmen, deren VM nicht zu den kompatiblen Szenarien für Accelerated Networking passt, bietet Receive Side Scaling (RSS) die beste Möglichkeit, ihre allgemeine Netzwerkleistung zu optimieren – unter anderem in Form einer Latenzreduzierung. Mit RSS besteht ein wichtiges Ziel darin, den kürzesten Pfad von A nach B zu finden. Der Unterschied: Statt den Host zu umgehen, sucht RSS die effizienteste Verteilung der Netzwerkverarbeitung auf mehrere CPUs.

RSS ist dabei der „Verkehrspolizist“ für das Netzwerk – bestimmter Datenverkehr wird durchgewinkt, anderer Verkehr erhält eine niedrigere Priorität. Ohne RSS versucht das Netzwerk, den Datenverkehr über einen einzigen Netzwerkpfad zu verarbeiten. Latenz ist der natürliche Effekt, wenn versucht wird, alles auf einmal zu erledigen. 

Azure bietet eine einfache Möglichkeit, RSS zu implementieren. Administratoren konfigurieren einfach die Netzwerkkarte (NIC) und den Miniport-Treiber so, dass die Deferred Procedure Calls (DPCs) auf anderen Prozessoren empfangen werden. Auch sehr praktisch: RSS garantiert, dass die Verarbeitung im Zusammenhang mit einer bestimmten Verbindung auf der zugewiesenen CPU bleibt. Netzwerkprofis müssen die Konfiguration nur einmal vornehmen und können sich dann anderen Aufgaben widmen. Die NIC kümmert sich um den Rest. 

RSS ist ein wahrer Segen, wenn man Verzögerungen bei der Verarbeitung reduzieren möchte, indem die Empfangsverarbeitung von der NIC auf mehrere CPUs verteilt wird. Das Ziel besteht hierbei nicht nur darin, die Latenz zu reduzieren. Es geht auch darum, das Netzwerk intelligenter zu machen, sodass eine CPU nicht mit Anfragen überhäuft wird, während die anderen untätig bleiben. 

Diese Methode der Latenzreduzierung eignet sich insbesondere für Unternehmen, die mit hochvolumigen Netzwerkvorgängen arbeiten, zum Beispiel Broker-Dealer, E-Commerce-Anbieter oder Unternehmen, die kurzfristig hohe Netzwerkkapazitäten benötigen. Wie bei Accelerated Networking bietet Microsoft eine hilfreiche Dokumentation, die Unternehmen bei einer schnellen und effizienten Einführung von RSS unterstützt.


Vergleichen Sie mit unserem Guide die private Konnektivität von Microsoft Azure mit AWS und Google Cloud.


Methode 3: Näherungsplatzierungsgruppen


Näherungsplatzierungsgruppen sind die unkomplizierteste Methode zur Latenzreduzierung und beziehen sich im Wesentlichen auf Colocation. Doch in diesem Fall betrifft Colocation nicht nur das Hosten von Netzwerk-Assets in derselben Hosting-Einrichtung. Der Begriff ist hier allgemeiner definiert und beschreibt die Verkürzung der Distanz zwischen den Rechenressourcen von Azure, um die allgemeine Netzwerklatenz zu reduzieren.

Näherungsplatzierungsgruppen können die Latenz zwischen On-Prem-VMs, VMs an mehreren Standorten (d. h. Verfügbarkeitsgruppen) oder mehreren Netzwerkgruppen (Skalierungsgruppen) reduzieren. Je weiter die Assets voneinander entfernt sind, desto größer ist natürlich die Wahrscheinlichkeit von Latenz und sonstigen Problemen. Das Ziel von Näherungsplatzierungsgruppen besteht darin, Netzwerkaufgaben über die Assets mit dem geringsten physischen Abstand zu routen. 

Um diese Methode intelligenter zu machen, empfiehlt Microsoft die Kombination von Näherungsplatzierungsgruppen und Accelerated Networking. Die Grundidee hierbei: Wenn nach der ersten virtuellen Maschine in der Näherungsplatzierungsgruppe gefragt wird, wird automatisch das Rechenzentrum ausgewählt.


Die einzige Warnung, die wir aussprechen müssen, ist, dass bei elastischen Workloads die Wahrscheinlichkeit von Fehlzuweisungen und Latenz umso größer ist, je mehr Beschränkungen der Platzierungsgruppe auferlegt werden. Daher sollten die Netzwerkadministratoren auch dann wachsam bleiben, wenn der Datenverkehr durch Accelerated Networking verarbeitet wird. Beispielsweise bleibt die Kapazität nicht erhalten, wenn eine VM angehalten (ihre Zuweisung entzogen) wird. 

Näherungsplatzierungsgruppen sind für Unternehmen am sinnvollsten, die versuchen, die Netzwerkfunktion in ihrer Heimatregion zu maximieren, und sicherstellen möchten, dass sie nicht zu viel Geld für Kapazität in einem neuen Markt ausgeben. 

Die Dokumentation von Microsoft Azure enthält zusätzliche Best Practices zu Näherungsplatzierungsgruppen, insbesondere für Netzwerkprofis, die Latenz und intelligente Netzwerke ernst genug nehmen, um ihre Möglichkeiten durch Accelerated Networking zu erweitern.


Schnellere Azure-Konnektivität mit Network-as-a-Service


Bei der Beschleunigung Ihres Netzwerks können die besprochenen Azure-Methoden einen gewaltigen Unterschied ausmachen – aber der beste Ausgangspunkt ist eine Betrachtung des Unternehmensnetzwerks als Ganzes. 

Bei der Verwendung des öffentlichen Internets ist ein Netzwerk Datenverkehrsschwankungen ausgesetzt, die seine Geschwindigkeit und Leistung stark ausbremsen können – worunter letztendlich das ganze Unternehmen leiden kann. Traditionelle Telekommunikationsanbieter können eine problematische Alternative sein, da sie Kunden an Verträge binden, unter denen die Bandbreite in Zeiträumen mit Nachfragespitzen nicht skaliert werden kann. Das Ergebnis: langsame, unzuverlässige Netzwerkleistung und der Bedarf nach ständigen Notfallbehebungsmaßnahmen durch die IT-Abteilung.

Mit Network-as-a-Service (NaaS) als Konnektivitätsmethode für Azure können Sie das öffentliche Internet umgehen und zu einem privaten Netzwerkpfad wechseln. Zusätzlich sichern Sie sich bei der Bereitstellung der NaaS-Konnektivität mit Megaport folgende Vorteile:

  • Bessere Leistung – vermeiden Sie durch Internet-Datenverkehrsschwankungen verursachte Engpässe und Ausfallzeiten. Mit Ihrer eigenen Verbindung zu AWS auf dem privaten Backbone von Megaport sichern Sie sich schnelle und konsistente Konnektivität.
  • Skalierbare Bandbreite – über das Megaport-Portal können Sie Verbindungen bereitstellen und die Bandbreite hochschrauben (in einigen Fällen bis zu 100 GB), um in Spitzenzeiten die benötigte Leistung zu erzielen, und diese wieder herunterfahren, wenn sie nicht mehr benötigt wird, um Geld zu sparen.
  • Immer verfügbare Redundanz – dank weltweit über 700 On-Ramps sind Sie mit dem Serviceverfügbarkeitsziel von Megaport von 100 Prozent vor Ausfallzeiten geschützt.
  • Megaport Cloud Router (MCR) – der virtuelle Routing-Service von Megaport bietet on-demand private Konnektivität auf Layer 3 für leistungsstarkes Routing von Cloud zu Cloud ohne Hairpinning zu und von On-Prem-Umgebungen.
  • Megaport Virtual Edge (MVE) – um die Vorteile eines latenzarmen Netzwerks auch am Edge zu ermöglichen, bietet MVE, der Megaport-Service zur Virtualisierung von Netzwerkfunktionen (NVF), eine direkte private Konnektivität von der Zweigstelle zur Cloud. So reduziert er Latenz und Jitter in geschäftskritischen Anwendungen.



Ob nur eines oder alle – mit Azure können Sie jede beliebige Kombination aus diesen Instrumenten nutzen, um Ihre Netzwerklatenz zu reduzieren. Unterstützt durch ein NaaS wie das von Megaport profitieren Sie von A bis Z von einem schnelleren Netzwerk und erzielen so produktivere Geschäftsabläufe und höhere Gewinne.

So werden AWS Direct Connect und Microsoft Azure ExpressRoute miteinander verbunden

Wenn Ihr Unternehmen sich auf die zwei führenden Hyperscaler verlässt – oder deren Einführung in Erwägung zieht –, können Sie Ihre Konnektivität deutlich optimieren, indem Sie sie miteinander verbinden. Hier erfahren Sie, wie es funktioniert.


Ein sicheres und zuverlässiges Unternehmensnetzwerk ist im Jahr 2022 nicht nur „nice to have“ – es ist eine Notwendigkeit. Zusätzlich zu den im Rahmen der Remote-Expansion von Unternehmen gestiegenen Geschwindigkeits-, Bandbreiten- und Zugänglichkeitsanforderungen ist auch ein rasanter Anstieg der Nutzung von Multiclouds zu beobachten. Es wird prognostiziert, dass 94 % aller Unternehmen bis 2024 über ein Multicloud-Netzwerk verfügen werden, und viele von ihnen profitieren bei der Unterstützung ihrer geschäftskritischen Anwendungen von den Vorteilen der Verwendung mehrerer Clouds.

Da immer mehr Unternehmens-Workloads in die Cloud migriert werden, benötigen viele Unternehmen neue Möglichkeiten, eine sichere und zuverlässige Verbindung zu Amazon Web Service (AWS) und Microsoft Azure herzustellen, den zwei weltweit größten Hyperscalern, um ihre Netzwerke zukunftssicher zu machen und die bestmögliche Kompatibilität zwischen verschiedenen Workloads zu gewährleisten. 

Das haben wir bereits behandelt: In unserem Blog-Beitrag „3 Wege, um Ihre AWS- und Microsoft Azure-Umgebungen miteinander zu verbinden“ haben wir die verschiedenen Methoden (einschließlich ihrer Vor- und Nachteile) beschrieben, mit denen AWS- und Azure-Cloud-Umgebungen für ein sichereres und leistungsfähigeres Multicloud-Erlebnis verbunden werden können. Aber wussten Sie auch, dass Sie noch einen Schritt weitergehen und die dedizierten privaten Verbindungen der Cloud-Anbieter – AWS Direct Connect und Azure ExpressRoute – miteinander verbinden können? 


Was sind dedizierte private Verbindungen und wie funktionieren sie?


Eine dedizierte Verbindung ist eine private Verbindung, die vom Cloud Service Provider (CSP) hergestellt wird, um das Netzwerk eines einzelnen Unternehmens mit seiner Cloud zu verbinden. Sowohl Direct Connect als auch ExpressRoute ermöglichen es ihren Kunden, ihre Cloud-Workloads über eine private Verbindung zu verbinden, die von keinem anderen Anbieter oder Kunden genutzt wird. Diese Verbindung bildet einen Pfad für ihre geschäftskritischen Daten, der nicht durch das öffentliche Internet führt (das ein potenzielles Risiko für die Zuverlässigkeit, Leistung und vor allem Sicherheit ihres Netzwerks darstellt). 

AWS Direct Connect ist der „schnellste Weg zu Ihren AWS-Ressourcen“. Mit Direct Connect bleibt der Netzwerkverkehr im globalen Netzwerk von AWS und kommt somit nicht mit dem öffentlichen Internet in Berührung. Damit sinkt das Risiko von Engpässen oder Latenz.

Azure ExpressRoute funktioniert ähnlich und ermöglicht die Herstellung privater Verbindungen zwischen Azure-Rechenzentren und Ihren eigenen Rechenzentren oder Ihrer On-Prem-Infrastruktur. Die Verbindung über ExpressRoute ist insbesondere für Unternehmen nützlich, die sich bei Services wie virtuellem Computing, Datenbankservices oder Cloud-Speicher stark auf die Microsoft-Cloud verlassen. Ähnliches gilt auch für die Cloud-Produkte von AWS. 

Sowohl Direct Connect als auch ExpressRoute ermöglichen eine kostenlose Datenübertragung in ihre Cloud. Ausgehende Daten werden allerdings nach Gigabyte in Rechnung gestellt. Die Preise hängen dabei von Region und Ziel ab (weitere Informationen sind in unserer Erklärung zum ExpressRoute-Preismodell zu finden). Auch die angebotenen Verbindungsgeschwindigkeiten sind ähnlich und reichen von 50 Mbit/s bis 100 Gbit/s. Beide Cloud-Anbieter setzen Layer-3-Routing mit eGBP (External Border Gateway Protocol) für die gemeinsame Nutzung von Routenpräfixen voraus.

Erfahren Sie in unserem Blog, wie Routenfilterung Ihre Multicloud verbessern kann.


Ein technischer Unterschied, der berücksichtigt werden sollte, besteht in der Unterstützung von VLANs (virtuellen lokalen Netzwerken) durch die beiden Lösungen. Bei AWS Direct Connect wird eine virtuelle Schnittstelle (VIF) – die als privat, Transit oder öffentlich konfiguriert werden kann – mit einem einzelnen VLAN verknüpft. Dies wird als einzelne 802.1q-Unterschnittstelle auf dem mit AWS gepeerten Layer-3-Endpunkt dargestellt. 

Bei Azure ExpressRoute wird QinQ 802.1ad unterstützt. Das externe VLAN-Tag (S-Tag) wird mit ExpressRoute als solches verknüpft, das interne Tag (C-Tag) mit dem Peering-Typ. Azure bietet privates Peering und Microsoft-Peering für ExpressRoute an. In unserem vorherigen Blog-Beitrag haben wir erklärt, in welchen Fällen dieses öfter zu verwenden ist. Es muss sichergestellt werden, dass der Layer-3-Endpunkt QinQ unterstützt. Viele Anbieter, beispielsweise Megaport, verfügen über Lösungen für die Arbeit mit Layer-3-Endpunkten, die QinQ nicht unterstützen. 

Weitere zu berücksichtigende technische Unterschiede sind die Größe der maximalen Übertragungseinheit (Maximum Transmission Unit, MTU) und Präfix-Limits für BGP-Routen. Diese variieren je nach Cloud-Anbieter und können in einigen Fällen auf Basis von Produkt-SKU und Konfigurationsoptionen konfiguriert werden. Einige Unterschiede im Produktangebot der CSPs beziehen sich auf Preismodelle und Service-Level-Vereinbarungen (SLAs).

In unserem Guide finden Sie einen Vergleich der privaten Konnektivitätsangebote von AWS, Microsoft Azure und Google Cloud.


Die Vorteile einer dedizierten Netzwerkverbindung


Die Verwendung der dedizierten Netzwerkverbindung eines CSP wie Direct Connect oder ExpressRoute statt des öffentlichen Internets, um eine Verbindung zu der jeweiligen Cloud herzustellen, bringt zahlreiche Vorteile, ähnlich wie die Vorteile der Nutzung einer privaten statt einer öffentlichen Cloud. Dazu gehören:

  • Stärkere Sicherheit – eine dedizierte, private Netzwerkverbindung bietet ein Extra an Sicherheit, da wichtige Daten in einer geschützten Pfadumgebung gehostet werden, die nur für Ihr Unternehmen erstellt wurde. Dadurch sinkt das Risiko von Cyberangriffen und Datensicherheitsverletzungen erheblich. Der Pfad über das öffentliche Internet kann hingegen durch anderen Unternehmensdatenverkehr kompromittiert werden.
  • Kosteneinsparungen – je nach dem Volumen der Daten, die zwischen Clouds ausgetauscht werden, können die Kosten bei der Verwendung privater Verbindungen niedriger ausfallen. Sowohl AWS als auch Azure berechnen bei der Verwendung des öffentlichen Internets statt ihrer privaten Netzwerkoptionen höhere Datenausgangsgebühren. Das bedeutet, dass Ersparnisse von Hunderten oder gar Tausenden von Euro möglich sind, indem bei der Migration von Anwendungen aus On-Prem-Infrastrukturen nur die dedizierten Verbindungen der Anbieter verwendet werden.
  • Bessere Überwachung und Kontrolle – Unternehmen können ihre Daten viel besser im Auge behalten und aufgrund ihrer privaten Natur „näher“ an ihrer Cloud-Migration sein, um ihre Daten effektiv überwachen und kontrollieren zu können (d. h. zu sehen, welche Daten wohin übertragen werden).
  • Stabile Leistung – eine private Netzwerklösung bietet eine bessere und konsistente Leistung beim Abruf von Daten in der Cloud. Das bedeutet reduzierte Latenz, weniger und seltenere Hops sowie weniger Jitter – und damit weniger Unterbrechungen des alltäglichen Betriebs.

Wozu die beiden Anbieter verbinden?


Es gibt ein paar häufige Anwendungsfälle für die Verbindung der zwei dedizierten Cloud-Konnektivitätspfade. Das bedeutet, dass die ExpressRoute eines Kunden direkt mit seinem Direct Connect-Pfad kommunizieren kann, statt nur seine AWS- und Azure-Clouds als Ganzes zu verbinden. 

  • Datenmigration – große Datenmigrationen können über private Verbindungen kosteneffizienter und vorhersehbarer ausfallen. Durch die Verbindung der beiden Anbieter kann die Datenmigration zwischen Ihren AWS- und Azure-Clouds im großen Maßstab schneller und zuverlässiger werden.
  • Multicloud-Workloads – wenn ein Unternehmen sich für AWS und Azure entscheidet und die Pfade miteinander verbindet, kann es die besten Produkt- und Preisoptionen beider Clouds nutzen. Außerdem ist mit der Multicloud im Notfall ein Backup wichtiger Daten gewährleistet. Erfahren Sie in unserem Einsteigerleitfaden mehr über die Multicloud.
  • Einfachere IT-Integration – dies ermöglicht eine Integration des Netzwerks ohne vollständige Migration von Cloud-Workloads. Das ist insbesondere bei Netzwerkzusammenlegungen nützlich. 

Erfahren Sie, wie Sie Ihren Cloud-Stack für eine leistungsstarke Multicloud-Umgebung noch stärker integrieren können.



So werden Direct Connect und ExpressRoute miteinander verbunden


Es gibt drei empfohlene Möglichkeiten, Direct Connect- und ExpressRoute-Workloads für eine bessere Leistung und Kompatibilität miteinander zu verbinden:

  1. Mithilfe des Rechenzentrums.
  2. Virtuelle Netzwerkfunktion (VNF).
  3. Multi-Protocol Label Switching (MPLS) beim Carrier.

Jede dieser Verbindungsmethoden kann vorteilhaft für das Unternehmen sein, je nachdem, wie das Multicloud-Netzwerk zusammengestellt und genutzt werden soll.

1. Mithilfe des Rechenzentrums


Durch die Verwendung der bestehenden Rechenzentren und die Erstellung von zwei Punkt-zu-Punkt-Leitungen von einem Netzwerkdienstleister (eine zu AWS Direct Connect, die zweite zu Azure ExpressRoute) können zwei Workloads effektiv miteinander verbunden werden. Stellen Sie die Verbindung her, indem Sie sie auf einem neuen oder bestehenden Layer-3-Endpunkt abschließen und Ihr Rechenzentrum als hybriden Multicloud-Knoten zwischen AWS und Azure verwenden.

Das Diagramm unten zeigt, wie diese Architektur aussehen würde. Wenn Sie damit fertig sind, haben Sie einen privaten Datenpfad zwischen AWS und Azure über Ihr Rechenzentrum hergestellt. Die angezeigten Direct Connect- und ExpressRoute-Standorte werden auf Basis der Region des Cloud-Anbieters und des Rechenzentrumsstandorts ausgewählt (häufig ist der Standort beider Cloud-Anbieter derselbe, verschiedene Standorte sind aber auch möglich). Sobald BGP zwischen dem Rechenzentrums-Router und dem Edge jedes Cloud-Anbieters eingerichtet ist, kann der Datenverkehr zwischen Azure und AWS fließen.

Vorteile 

  • Mehr Kontrolle und Anpassung – stimmen Sie Ihre Datenmigration präzise ab, damit Sie wählen können, welche Daten wohin übertragen werden.
  • Erweiterung des bestehenden Service – mit dieser Methode profitieren Sie bei der Einrichtung der Konnektivität von Ihrem bestehenden Sicherheits-Stack sowie der Netzwerkhardware und den Tools, mit denen Sie bereits vertraut sind.
  • Keine neue Lösung, die Sie erlernen oder in Ihre allgemeine Netzwerkstrategie integrieren müssen.


Nachteile 

  • Höhere Kosten – die Instandhaltung eines Rechenzentrums ist mit laufenden Kosten für fachkundige Wartung, Miete usw. verbunden.
  • Bereitstellungszeit – oftmals muss ein Dienstanbieter lokale Schleifen in das Rechenzentrum bereitstellen, was mit Laufzeitverträgen und hohen monatlichen Kosten verbunden sein kann. Die Bereitstellung dieser neuen Services dauert in der Regel Wochen oder sogar Monate.  
  • Mögliche Bandbreitenüberlastung – bei der Nutzung der bestehenden Netzwerkinfrastruktur sollte sichergestellt werden, dass die nötige Kapazität für die Durchsatzanforderungen vorhanden ist. Latenz kann ebenfalls ein Nachteil sein, wenn das Rechenzentrum sich nicht in der gleichen geografischen Region befindet wie die ExpressRoute- und Direct Connect-Standorte.


2. Virtuelle Netzwerkfunktion (VNF)

Dieses virtuelle Netzwerkgerät kann zum Layer-3-Endpunkt für den Austausch von Datenverkehr zwischen AWS und Azure werden. Network-as-a-Service (NaaS)-Anbieter wie Megaport bieten Cloud-basierte Lösungen, mit denen dedizierte Verbindungen mühelos miteinander verbunden werden können. Zwar variieren die Angebote je nach Anbieter, aber in der Regel kann eine vorgefertigte Lösung bestellt werden, die Lizenzen und Routenfunktionalität beinhaltet. 

Es sollte berücksichtigt werden, ob der NaaS-Anbieter auch ein AWS Direct Connect- und Azure ExpressRoute-Partner ist. Wichtig ist dies, weil in diesem Fall die Virtual Cross Connects (VXCs) von der VNF zu den jeweiligen Cloud-Anbietern nahtloser erstellt werden können.

Mit der VNF-Lösung ist es möglich, entweder einfach einen simplen Router zwischen den zwei CSPs bereitzustellen, eine Firewall zur Implementierung von Sicherheitsrichtlinien einzurichten oder eine vollständige Integration mit einer bereits bestehenden SD-WAN-Lösung vorzunehmen.


Im Diagramm unten rückt die Router-Instanz im Vergleich zur Rechenzentrumslösung näher an die Cloud. Der Datenpfad zwischen Azure und AWS muss in der Regel eine geringere physische Distanz zurücklegen. BGP endet nun zwischen den Cloud-Anbietern und die VNF-Instanz richtet die Datenpfade zwischen den beiden Clouds ein. Megaport bietet zwei VNF-Lösungen: Megaport Cloud Router (MCR) und Megaport Virtual Edge (MVE).


Vorteile

  • Bereitstellungszeit – diese Lösungen können über die Portalschnittstelle oder API des Cloud-Anbieters bereitgestellt werden, in der Regel innerhalb von Minuten. Sobald der virtuelle Router betriebsbereit ist, wird die Bereitstellung von Virtual Cross Connects zu ExpressRoute und Direct Connect äußerst einfach.
  • Niedrigere Kosten – indem Hairpinning im Rechenzentrum vermieden wird, werden weniger Daten von AWS oder Azure aus gesendet. So sparen Sie sich hohe Ausgangsgebühren. In unserem Blog sprechen wir über weitere Möglichkeiten, die Ausgangskosten bei Azure zu senken.
  • Höhere Netzwerkleistung – bei der Bereitstellung eines virtuellen Netzwerkgeräts näher an der Region des Cloud-Workloads profitieren Sie dank reduzierter Latenz und weniger Jitter von einer höheren Netzwerkleistung.
  • Flexible Laufzeitverträge – mit einer VNF-Lösung können Sie Ihre Router nach Bedarf herauf- und herunterskalieren und müssen keine Verträge mit langer Laufzeit für vom Carrier bereitgestellte MPLS-Leitungen unterzeichnen.


Nachteile 

  • Weniger anpassbar – vorgefertigte Lösungen haben eine feste Reihe von Funktionen, die Ihre Anforderungen entweder erfüllen oder nicht. Daher müssen Sie sich vergewissern, dass die benötigten Funktionen verfügbar sind. Stellen Sie sicher, dass der SD-WAN- oder Firewall-Anbieter, den Sie bereitstellen möchten, mit dem ausgewählten NaaS-Anbieter verfügbar ist.


3. Privates IP-VPN des Carriers


Da einige Netzwerk-Carrier auch AWS- und Azure-Partner sind, können sie Konnektivität über ihre private IP-VPN-Lösung (Internet Protocol Virtual Private Network) anbieten. IP-VPNs nutzen MPLS-Technologie (Multi-Protocol Label Switching) zur Vermeidung von Verbindungen über öffentliche Gateways. Diese Technologie bietet ähnliche Vorteile wie andere private Lösungen, wie stärkere Sicherheit, hohe Verfügbarkeit und bessere Leistung. Wenn Ihr aktueller Carrier Ihnen diese Art von Service bereits zur Verfügung stellt, sollten Sie ihn bei der Erfüllung dieses Konnektivitätsbedarfs in Erwägung ziehen.


Das Diagramm unten zeigt, wie ein IP-VPN-Netzwerk zur Verbindung von AWS Direct Connect mit Microsoft ExpressRoute genutzt werden kann. Bei dieser Architektur durchquert der Datenverkehr zwischen den beiden Cloud-Anbietern Ihren IP-VPN Provider Edge (PE-)Router. Im Gegensatz zu den vorher besprochenen Lösungen wird dieses Gerät nicht physisch oder virtuell von Ihnen verwaltet. 

Vorteile

  • Vollständig verwaltet – das Layer-3-Gerät (IP-VPN CE/PE) zwischen Ihren AWS- und Azure-Clouds ist vollständig verwaltet. Das bedeutet, dass Sie die Wartung den Experten überlassen können.
  • Serviceerweiterung – da Sie vielleicht bereits über eine Vereinbarung mit beiden oder einem der CSPs verfügen, kann die Verbindung noch schneller hergestellt werden.
  • Mitnutzungsmöglichkeit – wenn Sie über weitere Remote-Standorte im MPLS-Netzwerk verfügen, könnten diese dieselben Verbindungen als Schnittstelle zu AWS und Azure mitnutzen. 


Nachteile

  • Höhere Kosten – MPLS ist häufig die teuerste Option bei der Verbindungsherstellung zu Cloud-Anbietern und ist in der Regel mit einem Laufzeitvertrag verbunden.
  • Bereitstellungszeit – dies hängt zwar vom Carrier ab, doch einige stellen diese Verbindungen nach wie vor auf eine veraltete Art und Weise bereit. Damit kann die Bereitstellung der Verbindungen Wochen oder sogar Monate dauern, was eine Verzögerung bei Ihren Multicloud-Möglichkeiten bedeutet.
  • Kontrolle – sämtliche Routing-Funktionalität, Filterung und Sicherheit hängt von den Funktionen der Produkte des Carriers ab. Diese sind möglicherweise eingeschränkt, sodass Sie bei Ihren Daten weniger Überwachungs- und Anpassungsmöglichkeiten haben.


Ihre ideale Lösung – und wie Megaport Ihnen helfen kann


Die richtige Verbindungsmethode von AWS zu Azure für Ihr Unternehmen hängt von einer Reihe von Faktoren ab – von Ihrem Budget über die betroffenen Anwendungstypen bis hin zu den Anforderungen an Netzwerkleistung, Geschwindigkeit und Bandbreite. 

Die Verwendung des Rechenzentrums als hybridem oder Multicloud-Netzwerkknoten ist eine gute Lösung für Unternehmen, die bereits über ein Rechenzentrum verfügen und ihre Workloads auf nahtlosere Art und Weise verbinden möchten. Darüber hinaus bietet diese Lösung eine bessere Überwachung und Transparenz bei der Datenmigration.

Die virtuelle Netzwerkfunktion (VNF) eignet sich hingegen am besten für Unternehmen, die eine schnelle Verbindungslösung benötigen, da dieselben virtuellen Netzwerkgeräte über die Portalschnittstelle oder API eines NaaS-Anbieters in Minutenschnelle bereitgestellt werden können. Die Platzierung näher an der Cloud-Region des Workloads bedeutet eine höhere Netzwerkleistung. 

Die virtuellen Netzwerkfunktionen von Megaport Cloud Router (MCR) vereinfachen Netzwerke, indem sie eine blitzschnelle Layer-3-Verbindung ermöglichen und damit die Komplexität des Systems beseitigen. Es ist nicht nötig, sich tief in die Netzwerkmaterie einzuarbeiten: Melden Sie sich einfach bei Ihrem Megaport-Konto an und beginnen Sie mit ein paar Klicks mit dem Aufbau Ihres virtuellen Netzwerks. Außerdem unterstützt MCR Multicloud und ermöglicht privates Peering zwischen führenden Cloud-Anbietern. Megaport Virtual Edge (MVE), unser On-Demand-Service für die Virtualisierung von Netzwerkfunktionen (NFV), ermöglicht die Einrichtung neuer Verbindungen zwischen Clouds ganz ohne Hardware-Bereitstellung.


Unternehmen, die bestehende MPLS-Lösungen nutzen möchten, bietet die vom Carrier verwaltete MPLS-Option Vorteile, da die Konnektivität weniger Verwaltungsaufwand für das Unternehmen bedeutet – die Verwaltung wird von den Experten übernommen.


Ganz gleich, welches Multicloud-Netzwerkdesign das richtige für Ihr Unternehmen ist – Megaport bietet Lösungen, die sich schnell und einfach bereitstellen lassen, die Netzwerkleistung verbessern und die Kosten reduzieren können.

Vereinbaren Sie eine kostenlose Demo mit Megaport und entdecken Sie das Multicloud-Potenzial Ihres Unternehmens.


Was ist Firewall-as-a-Service (FWaaS)?

Sie lassen nicht jeden ungefragt in Ihr Haus – und dasselbe sollte auch für Ihr Netzwerk gelten. So dient eine Firewall-as-a-Service (FWaaS) als Sicherheitsvorkehrung für Cloud-Infrastruktur für einen besseren Datenschutz.


Cyberangriffe werden immer ausgeklügelter und finden immer häufiger statt. Daher war es nie wichtiger, einen kritischen Blick auf Ihre Netzwerksicherheit zu werfen. Immer mehr Unternehmen schöpfen ihr Cloud-Potenzial aus und wenden sich As-a-Service-Lösungen zu – beispielsweise Network-as-a-Service (NaaS) und Software-as-a-Service (SaaS) –, um sich die vielen Vorteile der Cloud-Technologie zunutze zu machen. Doch es gibt eine weitere Cloud-Lösung, die einen wichtigen Beitrag zum Schutz Ihres Netzwerks leisten könnte: Infrastructure-as-a-Service (IaaS) oder konkreter Firewall-as-a-Service (FWaaS). 

Von „As-a-Service“-Modellen spricht man, wenn IT-Services remote oder über die Cloud eines NaaS-Anbieters (Network-as-a-Service) on-demand bereitgestellt werden. Da diese Services Cloud-nativ sind, erfordern sie allenfalls einen geringen Investitionsaufwand und lassen sich in der Regel im Laufe der Zeit skalieren, um veränderten Unternehmensanforderungen gerecht zu werden. Somit unterscheidet FwaaS sich von traditionellen Firewalls, da sie dem Kunden über die Cloud oder einen NaaS-Anbieter zur Verfügung gestellt wird – ohne jegliche Hardware-Installation oder Instandhaltung einer On-Prem-Infrastruktur. 

Eine Netzwerk-Firewall lässt sich mit dem Sicherheitsdienst eines Gebäudes vergleichen, der die Identität von Personen überprüft, die das Gebäude betreten möchten, und denjenigen, die keine Erlaubnis haben, den Zutritt verweigert. Die Netzwerk-Firewall übernimmt eine ähnliche Funktion: Indem Datenverkehr, der in das Netzwerk zu gelangen versucht, bewertet wird, kann das Netzwerk vor unbekannten und unerwünschten Bedrohungen geschützt werden. 

Bevor Unternehmen zunehmend globalisiert und dezentralisiert wurden, reichten herkömmliche Firewalls, die auf einzelne Standorte beschränkt waren, vollkommen aus, und die IT-Abteilungen mussten eine Firewall nicht über ihren ursprünglichen Installationsort hinaus erweitern. Doch heute sind die Grenzen von Firewalls deutlich ausgeweitet, da sich überall Endpunkte befinden, die die Anforderungen globaler Belegschaften und Geräte ohne eindeutig definierte Netzwerkgrenzen erfüllen.


Wie funktioniert eine Firewall-as-a-Service?


Die FWaaS befindet sich zwischen dem Unternehmensnetzwerk und dem öffentlichen Internet und schützt die Unternehmensarchitektur mithilfe verschiedener Filter- und Sicherheitsmaßnahmen, die verhindern, dass eingehende Bedrohungen in das Netzwerk gelangen, vor Cyberangriffen. Diese Maßnahmen umfassen automatisierte Reaktionen bei Erkennung einer Bedrohung, vollständige Ereignisprotokollierung und Sicherheit durch Intrusion Prevention Systems (IPS) und Domain Name Systems (DNS).

Wenn Datenverkehr versucht, in das Unternehmensnetzwerk zu gelangen, wird er zuerst von der FWaaS-Lösung auf etwaige Bedrohungen untersucht. Durch die Analyse der Informationen in jedem Datenpaket – z. B. woher es kam oder Anzeichen von schädlichen Inhalten – kann sie den Datenverkehr daraufhin entweder akzeptieren oder ablehnen und daran hindern, in das Netzwerk zu gelangen.

Darüber hinaus bieten Next-Generation Firewalls (NGFW) einen deutlich größeren Funktionsumfang als traditionelle, ältere Firewalls, darunter Beobachtung und Kontrolle von Anwendungen, erweiterter Malware-Schutz durch Sandboxing und tief integrierte IPS. 

IT-Abteilungen können ihre FWaaS an ihre konkreten Anforderungen anpassen, z. B. welche Mitarbeiter auf welche Daten zugreifen können, indem sie bestimmte Anmeldungen, Websites, IP-Adressen usw. herausfiltern. Damit werden Unternehmen vor Bedrohungen von innen und außen geschützt.

Diagramm einer Firewall-as-a-Service (FWaaS) mit Verbindung zu AWS, Azure und Google Cloud über das Internet und Megaport Virtual Edge (MVE).


Deshalb brauchen Unternehmen FWaaS


Die Entscheidung für FWaaS anstelle von traditioneller Hardware vor Ort, Firewalls oder alternativen Netzwerkschutzvorrichtungen kann aus etlichen Gründen vorteilhaft sein:

  • Transparenz – FWaaS bietet on-demand Transparenz und Kontrolle über Sicherheitsmaßnahmen, Benutzer, Anwendungen und Standorte. Indem jede Sitzung detailliert protokolliert wird und Angriffsmuster mithilfe von Deep Learning erkannt werden, können Unternehmen bessere Einblicke in Netzwerkschwachstellen gewinnen.
  • Zero-Trust-Fähigkeit – in Sachen Cloud-Sicherheit gibt es keine bessere Option als ein Zero-Trust-Framework. Mit einer FWaaS als Bestandteil eines Zero-Trust-Modells werden Sicherheitsrichtlinien im Einklang mit einem Secure Access Service Edge (SASE-)Framework – ein absolutes Muss im Zeitalter der Remote-Arbeit – auf die Endpunkte der Benutzer angewendet. Darüber hinaus reduziert Zero Trust die Latenz, indem direkt über das Internet eine Verbindung mit Anwendungen hergestellt wird.
  • Globale Rechenleistung in Echtzeit und schnelle Bereitstellung – aufgrund von Problemen in der Lieferkette müssen viele IT-Abteilungen viel zu lange auf Hardware-Firewalls warten. Mit FWaaS können diese Funktionen hingegen in Echtzeit bereitgestellt werden.
  • Geografische, Zugriffs- und technologische Redundanz – im Zusammenhang mit einer Funktion zur Virtualisierung von Netzwerkfunktionen (NFV) für SD-WAN wie beispielsweise MVE lässt sich FWaaS für Redundanz- und Diversity-Zwecke in anderen Rechenzentren bereitstellen. Außerdem ist – als Backup für die primäre Glasfaser-Route – der Zugriff per IPSec über das Internet auf das Netzwerk möglich.
  • Benutzerdefinierte Konfigurationen – mit dem richtigen Anbieter lässt sich eine FWaaS als maßgeschneiderter Router verwenden und so konfigurieren, dass Sie einen noch größeren Nutzen aus Ihrem Netzwerk ziehen – beispielsweise indem Sie die Beschränkungen von AWS-Transit-Gateways überwinden.


Erfahren Sie in unserem Blog, wie Sie mit einem interoperablen Netzwerk die Sicherheit Ihres Unternehmens stärken und mehr Kontrolle gewinnen können.


FWaaS als Bestandteil eines SASE


Eine FWaaS-Lösung kann als Bestandteil einer Secure Access Service Edge (SASE-)Infrastruktur verwendet werden. SASE ist „ein Framework, das die besten Elemente von softwaredefinierten Netzwerken und SD-WAN mit modernisierter Edge-Sicherheit vereint“. Es umfasst Elemente wie ein softwarebasiertes Weitverkehrsnetz (SD-WAN), Secure Web Gateway (SWG) und Zero Trust Network Access (ZTNA) und bildet so ein optimales, sicheres Edge-Netzwerk für das Unternehmen.

Im Rahmen eines SASE-Frameworks arbeitet FWaaS zusammen mit anderen Sicherheitsprodukten und schützt den Netzwerkperimeter vor Cyberangriffen. Kunden können sich dabei auf einen einzigen Anbieter verlassen, statt mehrere Drittanbieter heranziehen zu müssen. Das Ergebnis ist eine rundum erneuerte Netzwerkarchitektur, die dynamisch, flexibel und sicher ist und die nötige Leistung für die rund um die Uhr aktiven Anwendungen von heute sowie Ressourcen liefert, die in öffentlichen, privaten und hybriden Clouds gehostet werden.


Informieren Sie sich in unserem Einsteigerleitfaden über die Grundlagen von SASE.


Anwendungsfälle


Die Vorteile einer in Cloud-Infrastrukturen integrierten FWaaS sind nun klar, aber für wen eignet sich diese Lösung am besten? Es gibt eine ganze Reihe von Anwendungsfällen für die Implementierung einer FWaaS. Dazu gehören:

  •  Sichere Unterstützung aller erforderlichen Anwendungen in Unternehmensnetzwerken – erkennen Sie über Unternehmensanwendunge erfolgte Angriffe. Setzen Sie spezifische Kontrollen für Anwendungsfunktionen durch, überwachen Sie die Daten und Inhalte von Anwendungen und vieles mehr.
  • Schutz vor bekannten und unbekannten Bedrohungen unabhängig von den für die Übermittlung der Bedrohungen genutzten Anwendungen – FWaaS ermöglicht eine sehr präzise Kontrolle für Netzwerkanwendungen. Mit Deep Packet Inspection-Funktionen und einer zustandsorientierten Echtzeituntersuchung von Anwendungen bildet eine Next-Generation Firewall (NGFW) eine robuste Verteidigungslinie gegen bekannte und unbekannte Bedrohungen für Webanwendungen.
  • Bereitstellung von Notfallzugriff und Langzeitredundanz – richten Sie FWaaS als temporäre Zugriffsmethode für Regionen ein, in denen es zu Netzwerkproblemen auf der letzten Meile oder MPLS-Ausfällen im Kernnetzwerk kommt. Der redundante Pfad, der durch die FWaaS gebildet wird, ist außerdem eine gute Backup-Option für Langzeitredundanz.  
  • Sichere VPN-Gateways – eine FWaaS bildet bei ihrer Verwendung als Sicherheits-Layer für VPN-Gateways einen zentralen Netzwerkzugangspunkt für sicherere und leistungsstärkere Netzwerkverbindungen. Zudem ist eine schnelle und einfache Erstellung eines einzelnen Gateways möglich. So sparen Sie Zeit, Geld und Arbeit und vermeiden das Chaos im Zusammenhang mit der Verwaltung mehrerer Tunnel. Darüber hinaus ermöglicht eine FWaaS Kunden die Bereitstellung von SASE-Endpunkten für strikte, richtlinienbasierte Services für Endbenutzer.
  • Überwinden von durch die Cloud erzwungenen Begrenzungen oder Quoten – mithilfe maßgeschneiderter Konfigurationen der Firewalls können bestimmte Zugriffs-Limits der CSPs (beispielsweise die bereits erwähnten Transit-Gateway-Limits von AWS) umgangen werden.


Keine FWaaS zu haben ist wie „keinen Virenschutz auf dem Computer zu haben“, daher ist es ratsam für jedes Unternehmen, das täglich mit der Cloud interagiert oder geschäftskritische oder vertrauliche Daten verarbeitet, eine FWaaS einzuführen. FWaaS eignet sich am besten für große Unternehmen mit vielen Remote-Mitarbeitern, die über verschiedene Geräte auf Anwendungen zugreifen. 

So kann Ihnen Megaport helfen


Mithilfe von Megaport Virtual Edge (MVE) können Kunden eine FWaaS für ihr Unternehmensnetzwerk in mehr als 20 Metroregionen mit einem nutzungsbasierten und skalierbaren Modell bereitstellen.

Mit einer über MVE bereitgestellten FWaaS kommen Benutzer in den Genuss einer Next-Generation Firewall (NGFW) – einer Netzwerksicherheitsvorrichtung, die über die Funktionen einer herkömmlichen Firewall hinausgeht und nicht nur den ein- und ausgehenden Datenverkehr im Netzwerk untersucht, sondern auch eine tiefgreifendere Anpassung sowie Deep Learning für Bedrohungen und Muster ermöglicht.


Firewall-as-a-Service kann sich als wertvoller und notwendiger Layer für die Infrastruktur eines Unternehmensnetzwerks erweisen und Benutzer mit on-demand verfügbaren Funktionen die vollständige Kontrolle über ihr Netzwerk ermöglichen. Ihr Team kann sich darauf verlassen, dass die FWaaS eingehende Bedrohungen aktiv überwacht und konstant als zusätzlicher Sicherheits-Layer für das Netzwerk dient und es vor Cyberbedrohungen schützt.

Erfahren Sie, wie eine über MVE bereitgestellte FWaaS Ihrem Unternehmen helfen kann – buchen Sie noch heute eine Demo.

Drei Gründe, warum Sie Ihre Clouds untereinander verbinden sollten

Mehrere Cloud-Anbieter sind allein kein Garant für die Zukunftssicherheit Ihres Unternehmens. Hier erfahren Sie, warum Ihr nächster Schritt sein sollte, Ihre Clouds untereinander zu verbinden.

Wie Megaport in einem früheren Blog-Post berichtete, schätzt Gartner die durchschnittlichen Kosten von Ausfallzeiten für ein Unternehmen auf bis zu 5.600 US-Dollar pro Minute. Und bei der Arbeit in einer Multicloud-Umgebung vervielfachen sich diese Kosten. Ausfallzeiten können sowohl von einer Reihe von Latenz- und Sicherheitsproblemen verursacht werden als auch zu diesen führen. Zudem entstehen häufig Folgekosten, die sich auf den Gewinn Ihres Unternehmens auswirken.

Wie können Sie im Zeitalter von mobiler Arbeit, grassierender Cyberkriminalität und ungeduldigen Kunden Risiken mindern, Ihre Leistung steigern und Ihren Ruf cloudübergreifend schützen? Die einfachste (und beste) Möglichkeit besteht in der privaten Verbindung Ihrer Clouds untereinander. In anderen Worten: Cloud-zu-Cloud-Routing.

Wir stellen Ihnen drei wichtige Vorteile eines in sich verbundenen Multicloud-Netzwerks vor, die sich positiv auf Ihre Produktivität, Ihre Rentabilität und Ihren Ruf auswirken.

Erfahren Sie, wie Megaport Cloud Router (MCR) Ihr Multicloud-Netzwerk privat intern verbindet.



1. Netzwerklatenz reduzieren und Leistung steigern

Blöcke in zunehmender Anzahl nach rechts gestapelt, mit nach oben zeigenden Pfeilen


Jeder kennt diese ärgerlichen Situationen: unterbrochene Videokonferenzen oder Audioprobleme, Verzögerungen bei mobilen Zahlungen oder das „Ladesymbol“ bei stockenden Downloads von Software-Updates. Verbraucher und Kunden sind ungeduldig, und jede Verzögerung kann dazu führen, dass sie Ihre Website verlassen – oder Ihre Mitarbeitenden sind frustriert, was ihre Produktivität beeinträchtigen kann.

Netzwerklatenz beeinträchtigt die gesamte Arbeit Ihres Unternehmens, sei es bei der Werbung für Ihre neuesten Digitaldrucke, bei der Aktualisierung der Verfügbarkeit von Sitzplätzen in einem Stadion, beim Handel mit Kryptowährungen oder beim Betrieb von Notfalldiensten. Latenz wirkt sich darauf aus, wie schnell ein Benutzer oder ein System Ihre Daten empfangen kann und umgekehrt. Sie kann sogar die öffentliche Wahrnehmung Ihres Unternehmens beeinflussen. Gemeint ist damit die zeitliche Verzögerung bei der Übertragung von Informationen, die physikalisch bedingt ist: Es ist die Geschwindigkeit, mit der ein Gerät Anfragen über drahtlose oder hardwarebasierte Router und Wireless-Verbindungen sendet und empfängt. Latenz steigt in Form von Hops zwischen Routern oder Satelliten und Bodenstationen und wird durch den „Konkurrenzkampf“ zwischen den riesigen Datenmengen verschlimmert, die täglich über das öffentliche Internet übertragen werden.

Erfahren Sie mehr über die wahren Kosten von hoher Netzwerklatenz – und wie Sie sie vermeiden können.



Ist ein Multicloud-Netzwerk nicht in sich verbunden, müssen Daten, die zwischen den Clouds übertragen werden, „Spitzkehren“ bewältigen („Hairpinning“): Sie werden über ein Rechenzentrum oder einen Remote-Zwischenpunkt übertragen, die Zahl an Hops steigt und Ihr Netzwerk wird langsamer. In Kombination mit dem öffentlichen Internet, das mit Datenverkehrsschwankungen und Redundanzproblemen einhergeht, ergibt sich eine beeinträchtigte Netzwerkleistung für Ihr gesamtes Unternehmen.

Latenzprobleme äußern sich für Benutzer unter anderem in Puffermeldungen. Beim Buffering zerlegen Server und Geräte Daten in kleinere Stückchen, um sie zu verarbeiten. Diese „Stückchen“ werden in Puffern gespeichert. Die Daten „warten“ auf die Übertragung – ähnlich wie bei einem überlasteten Flugplatz mit begrenzten Runways. Die meisten Benutzer, die eine Puffermeldung zu sehen bekommen, sind schnell frustriert und verstehen oder kümmern sich nicht um die technischen Probleme, sondern suchen die Schuld woanders.

Bandbreite ist wichtig, aber Latenz (Geschwindigkeit) ist ebenfalls ausschlaggebend für die nahezu sofortige Bedürfnisbefriedigung, nach der Benutzer verlangen – und die Ihr Unternehmen für einen effizienten Betrieb braucht. Selectra hat dafür die passende Analogie: „Die Bandbreite entspricht dem maximalen Wasservolumen, das eine Leitung transportieren kann, und die Latenz entspricht der Zeit, die das Wasser braucht, um die Länge der Leitung zu durchlaufen.“ Je höher die Bandbreite, desto höher die Download- und Upload-Geschwindigkeit – und eine niedrige Latenz bedeutet, dass Daten schnell übertragen werden.

Denken Sie über diese Statistiken nach: 

  • Die Abbruchraten schnellen um 87 % in die Höhe, wenn es beim Laden zu einer 2-sekündigen Verzögerung kommt.
  • Google strebt 2022 eine Ladezeit von einer halben Sekunde an.
  • Besucher kehren nicht zu Websites zurück, die länger als 4 Sekunden laden, und bekommen einen schlechten Eindruck vom Unternehmen.
  • Benutzer brechen häufig den Checkout-Prozess aufgrund von Verzögerungen ab – sie werden abgelenkt und fangen an, in anderen Online-Shops zu surfen.

Mit einem virtuellen Cloud-Router wie Megaport Cloud Router (MCR) übertragen und empfangen Unternehmen Daten über einen Virtual Cross Connect (VXC), der in der Nähe von Cloud-Anbindungsstellen bereitgestellt wird. Sie erhalten damit eine private, dedizierte Leitung zwischen ihren Clouds, die Daten zwischen führenden Anbietern und Plattformen routet. Dieser schnelle und effiziente Datenfluss senkt die Latenz und sorgt nahezu sofort für eine bessere Netzwerkleistung.

2. Durch Skaleneffekte Kosten optimieren

auf Holzblöcke gestapelte Münzen


Als die Pandemie ausbrach, sahen sich viele Unternehmen gezwungen, ihre Arbeitskräfte schnell auf externe Arbeitsplätze umzustellen, und der Bedarf an Cloud-Speicher und -Bereitstellung sprengte ihre Budgets. Die Ergebnisse von Flexeras 2020 State of the Cloud Report sind ernüchternd. Die Befragten gaben an, dass sie „das Cloud-Budget im Durchschnitt um 23 Prozent überschritten haben – und erwarten, dass die Cloud-Ausgaben im nächsten Jahr um 47 Prozent steigen werden“, und schlimmer noch: „30 Prozent der Cloud-Ausgaben sind Verschwendung.“ In Flexeras 2022 State of the Cloud Report berichten die Teilnehmer, dass auch heute noch ähnlich verschwenderisch mit Cloud-Budgets umgegangen wird. Die oberste Priorität für mehr als 700 Befragte ist die Optimierung der Cloud-Nutzung – und eine Lösung ist ein verstärkter Einsatz der Multicloud.

Der Wunsch nach Cloud-Diversifizierung spiegelt sich in einer Umfrage von VMware wider. In seiner Benchmark Study on Digital Momentum für die 2. Jahreshälfte des Geschäftsjahrs 2022 berichtet VMware, dass 73 % der befragten Unternehmen zwei Public Clouds nutzen, 26 % drei oder mehr und 81 % der Teilnehmer bis 2024 die Nutzung von Multicloud-Diensten planen. Facundo Navarro von DevOps.com sagt, eine Multicloud-Strategie kann „bei korrekter Implementierung Kostenoptimierungen ermöglichen“. Dies ist eine strategische Möglichkeit, Anbieterverträge zu vermeiden, deren Bedingungen und Laufzeiten nicht immer zu Ihrer aktuellen Geschäftssituation passen. Stattdessen nutzen Sie das Beste dessen, was mehrere Anbieter Ihnen bieten können.

Der globale Multicloud-Markt ist von immer mehr Anbietern umkämpft, was für Ihr Unternehmen vorteilhaft sein kann. Sie können Ihre Optionen vergleichen und nach Merkmalen wie „flexible Zahlungen, anpassungsfähige Verträge und anpassbare Kapazität“ Ausschau halten.

Ein virtueller Cloud-Routing-Dienst von einem NaaS-Anbieter (Network-as-a-Service) ist eine ideale Option, um Ihre Clouds privat untereinander zu verbinden und die Kontrolle und Verwaltung Ihrer Dienste an einem zentralen Ort zu optimieren. Ihr Unternehmen hat vermutlich Datenströme mit unterschiedlichen Sicherheitsanforderungen, Zwecken oder Dringlichkeiten. Mit einem in sich verbundenen Cloud-Netzwerk können Sie Ihre Datenströme je nach Bedarf und der Spezialisierung bzw. den Stärken des Anbieters problemlos auslagern und flexibel auf unterschiedliche Anbieter verteilen. Zur Integration in Ihre Business-Apps von Microsoft können Sie beispielsweise Azure heranziehen und Ihre Retails-Daten an Google Cloud senden, wo Trends durch Big Data analysiert werden können.

Multicloud-Routing-Lösungen vereinfachen die Verwaltung und optimieren die Kosten im Zusammenhang mit der Verschiebung von Daten von Cloud zu Cloud, indem sie Hops (den ausschlaggebenden Faktor für Latenz) verkürzen. Und wenn Sie Ihre Clouds untereinander verbinden und die Konnektivität über den richtigen Anbieter verwalten, müssen Sie nicht mehr zwischen verschiedenen Anbietern hin- und herwechseln, jeden Vertrag bewerten oder sich an einen Vertrag binden, dessen Kosten bei hoher Datennutzung in die Höhe schießen. Stattdessen können Sie Ihre Verbindungen on-demand herauf- und herunterskalieren und nur für die tatsächliche Nutzung zahlen.

3. Die Sicherheit durch direktes, privates Peering stärken

Vorhängeschloss auf gelbem Hintergrund


Neben Datenschutzverletzungen durch Cyberkriminalität entstehen für Unternehmen auch in Notfällen Probleme, ob durch einfache Stromausfälle, Software- oder Hardware-Fehlfunktionen oder Naturkatastrophen. Doch bei einer privaten Cloud-zu-Cloud-Routing-Option ist Redundanz bereits integriert. Das bedeutet, dass Daten und Anwendungen schneller und kostengünstiger wiederhergestellt werden können.

Verbindet man sich direkt privat anstelle eines öffentlichen Internetzugangs, werden die Sicherheitsrisiken dadurch deutlich minimiert – und das Gleiche gilt auch für Verbindungen zwischen einzelnen Clouds. Durch privates Cloud-zu-Cloud-Routing können Sie Ihre Daten vor Cyberangriffen schützen, ihre Übertragung verkürzen und Redundanzprobleme reduzieren. Sobald Ihre Daten die einzelnen Anbieter erreichen, werden sie durch deren übergeordnete Sicherheitsfilter geleitet. Diese müssen ihre Infrastruktur schützen, daher verfügen sie über modernste Sicherheitsmaßnahmen, die regelmäßig aktualisiert werden.

MCR bietet dieses Maß an Netzwerk-Underlay und routet Unternehmensdaten virtuell zwischen Anbietern und Plattformen – ohne Umweg über ein Rechenzentrum. Durch die Verwendung von VXCs auf dem privaten softwaredefinierten Netzwerk (SDN) von Megaport zum Umgehen des öffentlichen Internets ermöglicht MCR Ihnen privates Peering zwischen Public-Cloud-, Infrastructure-as-a-Service (IaaS-) und Software-as-a-Service (SaaS-)Anbietern. Mehrere Cloud-Interaktionen laufen über nur eine Hauptverbindung nahtlos hinter den Kulissen ab.

MCR ermöglicht Unternehmen die Nutzung der naturgemäß sicheren Funktionen von softwaredefinierten Netzwerken im großen Maßstab, was auch mehr Sicherheit bedeutet. „Durch die Verwendung eines virtuellen Cloud-Routers mit einem NaaS-Anbieter können Sie im Gegensatz zum unsicheren und unzuverlässigen öffentlichen Internet Ihre Clouds schnell und sicher miteinander verbinden und so einfacheres Multicloud-Networking ermöglichen.“



Auch wenn Ihr Multicloud-Netzwerk heute nur aus zwei oder drei Anbietern besteht, wird Ihr Unternehmen auf Jahre hinweg von einer Verbindung Ihrer Clouds untereinander profitieren, wenn Sie Ihre Architektur erweitern. Ein in sich verbundenes Cloud-Netzwerk verbessert Ihre Netzwerkleistung, erleichtert die Verwaltung Ihres Netzwerks, bietet besseren Schutz für Ihre Daten und macht Ihr Unternehmen damit letztendlich produktiver und rentabler.

So vereinfachen Sie Ihre Multicloud-Verwaltung im Jahr 2022

Die Verwaltung Ihres Multicloud-Netzwerks sollte mit zunehmender Komplexität nicht schwieriger werden. Hier erfahren Sie, wie Sie mit Ihren vorhandenen Tools Zeit, Kosten und Leistung Ihrer Multicloud richtig handhaben.


Eine kürzlich durchgeführte Umfrage von Gartner® zur Cloud-Nutzung ergab, dass „63 % der Unternehmen einen primären Cloud-Dienstanbieter (CSP) haben und zusätzlich weitere Cloud-Anbieter nutzen, während 13 % mehrere Anbieter nutzen, ohne einen primären Anbieter zu benennen. Das bedeutet, dass 76 % der Unternehmen mehrere Cloud-Anbieter nutzen.“1

Da die Multicloud immer mehr zur Norm wird, müssen Sie nicht nur die steigenden Kosten und Ressourcenanforderungen in Ihrem gesamten Team bewältigen, sondern Ihr Netzwerk auch flexibel genug gestalten, damit es eine effektive Leistung erzielt und Ihre Daten schützt. Wie können Sie also Ihre immer weiter wachsende und immer komplexere Infrastruktur erfolgreich verwalten?

Vier Trends können den meisten Anwendern bei einer erfolgreichen und nachhaltigen Multicloud-Verwaltung helfen. Hier finden Sie eine Erklärung dieser Trends sowie Beispiele, die Sie auf Ihrem eigenen Weg begleiten sollen.

Sehen Sie sich noch einmal die Grundlagen mit unserem Einsteigerleitfaden für die Multicloud an. Lesen Sie ihn hier.




1. Verwendung von APIs zur Automatisierung der Prozesse in allen Ihren Clouds


Bei einer offenen API (manchmal auch als öffentliche API bezeichnet) handelt es sich um eine Programmierschnittstelle, die Entwicklern die Anpassung einer proprietären Softwareanwendung oder eines Webdienstes ermöglicht. Wie die allgemeinen Regeln, aus denen jedes Computerprogramm besteht, sind auch APIs Sätze von Anforderungen, die bestimmen, wie eine Anwendung mit einer anderen kommuniziert und interagiert – womit sie auch zu einem wichtigen Tool zur Stärkung Ihrer Netzwerksicherheit werden.

Offene APIs sind für Entwickler eine große Hilfe, da sie ihnen die Automatisierung von Prozessen in ihrer gesamten Multicloud ermöglichen. Eine kürzlich durchgeführte Studie des MIT zeigt, dass eine Vielzahl von Unternehmen APIs im Rahmen einer schrittweisen Transformation nutzt. Die Erwartungen der Kunden sind hoch und Echtzeitsysteme sind genauso wichtig wie reale Straßen – daher lautet die Grundidee hinter APIs, parallele Verbesserungen zu implementieren, die nach und nach den Platz bestehender Systeme einnehmen, die nach konstanter Wartung und Überwachung einzelner Netzwerkanwendungen verlangen. 

Informieren Sie sich über die Automatisierung Ihrer Multicloud mit dem Megaport Terraform Provider.


Bei der Multicloud-Infrastruktur eines Unternehmens können APIs alltägliche Aufgaben automatisieren, damit die Mitarbeitenden sich auf andere Projekte konzentrieren können. Wenn Sie einen Cloud-zu-Cloud-Router wie Megaport Cloud Router (MCR) verwenden, können APIs sogar zur Automatisierung von Virtual Cross-Connects (VXCs) eingesetzt werden, einer Punkt-zu-Punkt-Verbindung auf Layer 2 zwischen zwei Ihrer Netzwerkendpunkte. APIs können sogar basierend auf Tageszeit, Datenverkehrsnutzung oder ereignisorientierten Anforderungen zur Automatisierung von Datenraten verwendet werden. So müssen Unternehmen nicht zu viel Geld für Kapazität oder die Ressourcen zur Überwachung dieser Kapazität ausgeben. 

Das Resultat ist ein Netzwerk auf dem neuesten Stand der Technik mit besserer Transparenz und einfacherer Verwaltung, und Netzwerkteams können sich stattdessen auf Projekte konzentrieren, die Ihr Unternehmen voranbringen.

2. Verbindung zu einem NaaS-Anbieter zur Überwachung aller Ihrer Clouds an einem zentralen Ort


Neben der Automatisierung administrativer Aufgaben in Ihrer gesamten Multicloud ist die Ausrichtung an einem Network-as-a-Service (NaaS-)Anbieter ebenso wichtig für die Verbesserung der Netzwerkverwaltung. Falls Ihnen der Begriff unbekannt ist: NaaS gibt Teams die nötigen Tools an die Hand, damit sie alle ihre Cloud-Anwendungen auf einem privat bereitgestellten Netzwerk-Layer ausführen, dabei das öffentliche Internet umgehen und alle ihre Cloud-Bereitstellungen an einem zentralen Ort verwalten können. Die Konsolidierung Ihrer Cloud-Verbindungen bei einem NaaS-Anbieter macht Sprünge von Netzwerk zu Netzwerk überflüssig, und wenn alles an einem Ort sichtbar ist, können Unternehmen noch mehr Zeit sparen. 

Darüber hinaus reduziert NaaS Ihre Investitions- und Betriebskosten, indem die Bereitstellung oder Instandhaltung physischer Infrastrukturen unnötig gemacht wird. Drittens: Da NaaS on-demand funktioniert, zahlen Unternehmen nur für ihre tatsächliche Nutzung und müssen somit nicht zu viel in Infrastruktur oder Kapazität investieren. 

Und der letzte und vielleicht wichtigste Punkt: Mit NaaS können Unternehmen alle ihre bestehenden Clouds zuerst nutzen, bevor sie auf neue Netzwerke zugreifen. Wie überall sonst lautet die Devise auch hier Effizienz und Kostenoptimierung. 


3. Orchestrierung Ihres Multicloud-Netzwerks für organisches Wachstum


Sobald Sie ein automatisiertes und konsolidiertes Netzwerk eingerichtet haben, ist der nächste Schritt die Umsetzung Ihrer Erkenntnisse in der gesamten Infrastruktur. Hier kommt ein softwaredefiniertes Wide Area Network (SD-WAN) zum Tragen – der neue Standard für Unternehmen, die nach der ultimativen Netzwerkagilität streben. 

Wir haben die Vorteile von SD-WAN in unseren vorherigen Blogs behandelt, einschließlich des höheren Maßes an Flexibilität, Kontrolle und Sicherheit für Ihr gesamtes Netzwerk. In Kombination mit anderen Cloud-nativen Sicherheitstechnologien für eine Secure Access Service Edge (SASE-)Architektur werden diese Vorteile noch weiter verstärkt – was hier im Detail betrachtet wird.

Ganz egal, ob Sie erst begonnen haben, sich mit SD-WAN für Ihr Unternehmen zu befassen, oder bereits über eine durchdachte SASE-Architektur verfügen – der grundsätzliche Vorteil ist immer der gleiche: Sie können Benutzer, Systeme und Endpunkte überall auf sichere Weise mit Anwendungen und Diensten verbinden.

Das Ergebnis für Ihre Multicloud ist ein intelligentes, integriertes und sicheres Netzwerk mit der nötigen Leistung für die rund um die Uhr aktiven Anwendungen von heute, dessen Ressourcen in Public, Private und Hybrid Clouds gehostet werden. Wenn Sie auf einem NaaS-Netzwerk-Layer mit APIs aufbauen, wird die Verwaltung Ihrer Clouds einfacher als je zuvor, und der Ausbau Ihres Netzwerks geschieht durch wenige Klicks.

Unternehmen, die diese Möglichkeit nutzen möchten, sollten über einen Anbieter nachdenken, der mit einem Network Function Virtualization (NFV-)Dienstanbieter zusammenarbeitet – wie beispielsweise Megaport Virtual Edge (MVE) –, um ihre Netzwerkgeschwindigkeit, Sicherheit und Verwaltung von der Zweigstelle bis zur Cloud zu optimieren.

MVE maximiert nahtlos den Nutzen Ihrer SD-WAN-Fabric und bringt private Netzwerke näher an den Edge – mit Integrationen auf API-Ebene zwischen Megaport und branchenführenden SD-WAN-Anbietern wie Cisco, Fortinet, Versa, Aruba und VMware.

Gehen Sie mit der Integration Ihres Cloud-Stacks noch einen Schritt weiter. Mehr Infos gibt es hier.



4. Nutzung eines Cloud-zu-Cloud-Routing-Dienstes zur Integration Ihrer Clouds und Verbindung Ihrer Workloads


Der letzte Schritt bei der Vereinfachung Ihrer Multicloud ist die effektive Verwaltung Ihres Datenverkehrs und die Optimierung Ihrer Cloud-zu-Cloud-Routing-Pfade. Multicloud-Routing führt häufig zu sogenanntem „Hairpinning“. Dabei muss der Datenverkehr zwischen Clouds einen Umweg über ein Rechenzentrum oder eine andere On-Prem-Umgebung nehmen, was höhere Latenz und einen langsameren Betrieb nach sich zieht. Virtuelles Cloud-zu-Cloud-Routing behebt dieses Problem. Es reduziert Latenz und Ausgangskosten, indem es Ihren verschiedenen Cloud-Anbietern die Kommunikation untereinander ermöglicht.

Beispielsweise können Sie mit MCR privates Peering zwischen Ihren Cloud- und As-a-Service-Anbietern einrichten, indem Sie Virtual Cross Connects (VXCs) als benutzerdefinierte virtuelle Pfade bereitstellen. Sie können sich diese als private Überholspuren vorstellen, die Sie on-demand für Ihr Netzwerk in Betrieb nehmen können. Das Resultat sind benutzerdefiniertes Routing für eine bessere Kontrolle unabhängig von Anbieter und Region, geringere Kosten, ein schnellerer Betrieb, einfachere Verwaltung und Cloud-native Funktionen, die Ihrem Unternehmen ungeahnte Möglichkeiten im Networking-Bereich liefern.



Fazit


Multicloud-Verwaltung ist heute nicht mehr nur „nice to have“ – für Unternehmen hat sie sich zur Priorität entwickelt. Durch die Vereinfachung Ihrer Multicloud-Verwaltung mit Tools, die Automatisierung, Integration und zentralisierte Verwaltung ermöglichen und Ihnen die nötige Flexibilität für Ihr Wachstum liefern, können Sie Ihre Gewinne steigern, Ihre Markteinführungszeit verkürzen und die Produktivität Ihres Teams verbessern.

Sie müssen sich auch nicht in der oben aufgeführten Reihenfolge mit diesen wichtigen Trends befassen und sie implementieren – tatsächlich wäre es am besten, sie miteinander zu prüfen, da einige anbieterneutrale Netzwerkakteure (z. B. Megaport) alle oben genannten Punkte anbieten können, um Ihre Multicloud-Verwaltung noch einfacher zu machen. Jede Implementierung unterstützt die anderen. So entsteht letztendlich ein Netzwerk, das höhere Gewinne, zufriedenere Kunden und schnellere Innovationen für Ihr Unternehmen bedeutet.

Wir helfen Ihnen gerne bei der Vereinfachung Ihres Multicloud-Netzwerks. Sprechen Sie mit einem Lösungsarchitekten über Ihre Anforderungen, und wir kümmern uns um den Rest.


1 Gartner, How to Plan for Optimal Multicloud and Intercloud Data Management, von Nina Showell, Adam Ronthal, 6. August 2021.

GARTNER ist eine eingetragene Marke und Dienstleistungsmarke von Gartner, Inc. und/oder seiner Tochtergesellschaften in den USA und anderen Ländern und wird hier mit Genehmigung verwendet. Alle Rechte vorbehalten.

Drei einfache Möglichkeiten, Ihr Cloud-Netzwerk zu modernisieren

Da Cloud-Netzwerke immer stärker verteilt sind, ist es entscheidend, über ein dynamisches Netzwerk zu verfügen, das zusammen mit Ihrem Unternehmen wächst. Hier erfahren Sie, wie das funktioniert.


In den letzten Jahren mussten wir alle unsere Arbeitsweise und unsere Arbeitsorte überdenken. Dank der Cloud und ihrer Fähigkeit, verteilte und remote arbeitende Belegschaften zu unterstützen, sind viele Unternehmen noch im Geschäft, die die Pandemie andernfalls vielleicht nicht überstanden hätten. Gleichzeitig hat diese rasche Abkehr von On-Prem-Modellen aber auch für eine Situation gesorgt, die nach ständigen Änderungen und Upgrades verlangt.

Hierzu haben Sie zwei Möglichkeiten: Sie können bei Bedarf schrittweise Änderungen vornehmen, die nach ständigen Prüfungen und Kapitalinvestitionen verlangen. Oder Sie können Ihr Netzwerk im Hinblick auf Flexibilität orchestrieren, sodass es sich auf wechselnde Anforderungen einstellen und im Einklang mit Ihrem Unternehmen und zu vertretbaren Kosten wachsen kann.

Natürlich ist letztere Option vorzuziehen. Aber wie können Sie diese Flexibilität in Ihr Netzwerk integrieren? In diesem Blog finden Sie drei einfache Möglichkeiten, wie Sie Ihr aktuelles Cloud-Netzwerk im Hinblick auf bessere Sicherheit, Leistung und besseres Kostenmanagement modernisieren und ihm langfristiges Wachstum im Einklang mit Ihrem Unternehmen mit minimalem Wartungsaufwand ermöglichen können.



1. Ausschließliche Nutzung von privater Konnektivität


Wenn Sie schnell eine Verbindung zu oder zwischen Clouds herstellen müssen, kann es verlockend sein, dafür einfach das öffentliche Internet zu nutzen. Schließlich ist das die schnellste Möglichkeit, oder? Kurzfristig mag es so sein, doch es müssen auch klare Nachteile berücksichtigt werden.

Geringe Zuverlässigkeit
Ein leistungsstarkes Netzwerk erfordert hohe Verfügbarkeit, die das öffentliche Internet nicht bieten kann. Datenverkehrsschwankungen auf öffentlichen Pfaden können Engpässe verursachen, insbesondere in Zeiten mit Nachfragespitzen, was zu langsamen Reaktionszeiten und unvorhersehbarer Latenz führt. Dies kann wiederum Ihre Produktivität und Ihre Gewinne beeinträchtigen.

Wenn Sie das öffentliche Internet für Ihre CSP-Verbindungen nutzen, geben Sie die Kontrolle über Ihr Netzwerk auf und überlassen die Geschwindigkeit und Konsistenz Ihrer Verbindung diesen Datenverkehrsschwankungen und Ausfällen.

Höhere Kosten
Da Ihr Unternehmen das öffentliche Internet vermutlich bereits für eine Reihe von Unternehmensfunktionen nutzt, scheint es der kosteneffizienteste Weg zu sein, über diese bestehende Verbindung auf Ihre Cloud-Dienstanbieter (CSPs) zuzugreifen. Doch diese Konnektivitätsmethode ist trügerisch.

CSPs berechnen nicht nur in der Regel höhere Ausgangsgebühren, wenn Sie das Internet als Konnektivitätsmethode nutzen, sondern die geringe Zuverlässigkeit der Verbindung kann Ihrem Unternehmen auch anderweitig teuer zu stehen kommen. Und ohne die Möglichkeit, Ihre Verbindung im Einklang mit der benötigten Bandbreite zu skalieren, müssen Sie für Ihr bandbreitenintensivstes Szenario planen – und dafür zahlen.

Gefährdete Sicherheit
Früher beschrieben wir die Verbindung zum öffentlichen Internet als „Platzieren Ihrer Daten in einem offenen Safe, bevor Sie sie zu ihrem Ziel senden.“ Wenn Ihre Daten einen frei nutzbaren Pfad wie das Internet durchqueren, sind sie deutlich anfälliger für Cyberangriffe. Außerdem sind sie diesen Bedrohungen länger ausgesetzt, da sie mehr autonome Systeme (AS) durchqueren müssen, um ihr Ziel zu erreichen.

Die beste Konnektivitätsmethode bei der Modernisierung Ihres Cloud-Netzwerks besteht in privater Konnektivität – und diese lässt sich mit Network-as-a-Service (NaaS) am einfachsten erzielen. Mit diesem virtuellen, privaten Netzwerk-Layer können Sie nicht nur die höheren Kosten, Sicherheitsrisiken und die unzuverlässige Leistung im Zusammenhang mit Internetanbietern (ISPs) vermeiden, sondern können mit dem richtigen NaaS-Anbieter Ihre Verbindung auch im Laufe der Zeit nach Bedarf skalieren, um stets über die nötige Leistung für Ihr wachsendes Unternehmen zu verfügen.

Mit einem durch NaaS optimierten Netzwerk profitieren Unternehmen von mehr Zuverlässigkeit und Konsistenz und bleiben von Nachfragespitzen verschont. Und was vielleicht am wichtigsten ist: Mit privaten Verbindungen können Sie Ihre Kosten mit besserer Netzwerktransparenz und niedrigeren Ausgangskosten kontrollieren, da CSPs Kostenanreize für private Verbindungen bieten.

Erfahren Sie, wie Sie mit dem NaaS von Megaport skalierbare und leistungsstarke private Konnektivität erhalten.


2. Integration Ihres Cloud-Stacks


Bei der Cloud-Modernisierung geht es nicht nur um die Nutzung der richtigen Konnektivitätsmethode – wenn Ihr System nicht integriert ist, profitieren Sie nicht von allen Leistungsvorteilen der privaten Konnektivität. Die Integration Ihres Cloud-Stacks, damit Sie alle Cloud-Anbieter/-Dienste in Ihrem gesamten Netzwerk beaufsichtigen können, ist ebenfalls ein wichtiger Schritt, um Ihre Netzwerkleistung zu steigern und das Wachstum im Laufe der Zeit zu vereinfachen.

Hier erfahren Sie mehr über die Integration Ihres Cloud-Stacks.


Einfach ausgedrückt: Die Integration Ihres Cloud-Stacks bedeutet, dass Sie alle Ihre Cloud-Anbieter und -Dienste auf einer anbieterunabhängigen Plattform zusammenbringen, auf der Sie alles zentral ansehen und verwalten sowie konsistente Richtlinien für Ihr gesamtes Netzwerk anwenden können.

Die Integration Ihres Cloud-Stacks, einschließlich Ihrer Multicloud und/oder Hybrid Cloud, vereinfacht die Verwaltung des Netzwerks und seine Erweiterung im Laufe der Zeit. Dank einer klaren Übersicht Ihrer Dienste haben Sie einen besseren Überblick über potenzielle Leistungs- oder Redundanzlücken und erhalten konsistente Sicherheit und Funktionalität in Ihrem gesamten Stack.

Und wenn Sie diesen Stack mit dem richtigen Dienstanbieter integrieren, profitieren Sie darüber hinaus von verbrauchsbasierten Preisen und offenen APIs und können so Ihre Prozesse anwendungsübergreifend automatisieren und damit Zeit und Aufwand sparen.

Erfahren Sie mehr darüber, wie Megaport Cloud Router (MCR) Ihnen bei der Integration Ihrer Multicloud für leistungsstarkes virtuelles Routing hilft.


Dank vereinfachter Verwaltung und automatisierter Prozesse wird es durch die Integration Ihres Netzwerk-Stacks deutlich einfacher, dieses im Laufe der Zeit im Einklang mit der Erweiterung Ihres Systems zu verwalten.

3. Einrichtung einer SASE-Architektur


Nach der Integration Ihres NaaS-optimierten Netzwerk-Stacks ist Ihr Unternehmen ideal aufgestellt, um die Konnektivität von Zweigstelle zu Cloud (bzw. SD-WAN) auf die Probe zu stellen.

SD-WAN hat sich in den letzten Jahren aufgrund der gestiegenen Anforderungen und Möglichkeiten bei der Datenverarbeitung, einer neuen Generation von softwaredefinierten Lösungen für zentrale Netzwerkherausforderungen und einer verstärkten Automatisierung und Intelligenz zur besseren Versorgung geschäftskritischer Anwendungen und Workloads weiterentwickelt – mit dem Ergebnis einer schnellen Monetarisierung am Edge.

SASE ist das Framework, das durch diese Verbesserung entstanden ist, und kombiniert die praktischsten SD-WAN-Tools mit modernster Edge-Sicherheit. SASE ergänzt SD-WAN durch identitätsbasierte sichere Web-Gateways, Firewall-as-a-Service, kontextbasierten Zero-Trust-Zugriff und weitere Edge-Tools, die Ihr Cloud-Netzwerk für ein neues Zeitalter sicher machen und modernisieren. Das Ergebnis ist ein moderner WAN-Stack, der dynamisch, flexibel, automatisiert und sicher ist und die nötige Leistung für die rund um die Uhr aktiven Anwendungen von heute sowie Ressourcen liefert, die in Public, Private und Hybrid Clouds gehostet werden.


Anbieter wie Versa, Cisco und Fortinet haben SASE-Funktionen für ihre SD-WAN-Angebote eingeführt, mit einem Schwerpunkt auf die Vereinfachung der Cloud-Modernisierung und die Transformation der Edge-Funktionen von Kunden. Was noch vor kurzer Zeit nach Zukunftsmusik aussah, ist heute entscheidend für das betriebliche und finanzielle Wohlergehen Ihres Unternehmens – und wird auch entscheidend für die Weiterentwicklung Ihres Netzwerks sein.

Erfahren Sie, wie Megaport Virtual Edge (MVE) Ihr SASE-Netzwerk optimieren kann.


Cloud-Netzwerke werden mit der Zeit immer komplexer und stärker verteilt. Nie war es wichtiger für Unternehmen, ihr Netzwerk durch private, virtualisierte End-to-End-Konnektivität zukunftssicher aufzustellen.

Wenn Sie es richtig angehen, liefert Ihnen die Modernisierung Ihres Netzwerks mit diesen drei Tipps folgende Vorteile: 

  • Stärkere Sicherheit mit einem Zero-Trust-Modell, das Daten während der Übertragung und auf Endpunkten schützt, sowie Firewalls und weitere Sicherheitsfunktionen. 
  • Vereinfachte Cloud-Infrastruktur, da Unternehmen ihr gesamtes Cloud-Netzwerk über eine zentrale Oberfläche verwalten. 
  • Geringere Kosten und bessere Leistung dank eines einfacheren Workflows, der mehrere Appliances und On-Prem-Infrastruktur durch einen einzigen Software-Stack und zentralisierte Netzwerkverwaltung ersetzt, um die Anforderungen notwendiger Schwankungen zu erfüllen.

Nutzen Sie diese und weitere Möglichkeiten zur Modernisierung Ihres Netzwerks – mit Megaport. Fangen Sie noch heute an.