Twilio Interconnect utilise Megaport pour optimiser les performances de niveau entreprise

La connectivité privée renforce la sécurité et les performances des produits de Twilio, et Twilio Interconnect facilite plus que jamais le passage au privé pour ses clients.


Vous connaissez probablement Twilio comme l’une des principales plateformes d’engagement client qui offre aux développeurs de puissantes API pour intégrer la voix, les SMS et les e-mails dans le service client. Les produits de la société cotée en bourse (NYSE : TWLO) sont exploités par Stripe, Airbnb, Lyft, Coca-Cola et bien d’autres pour piloter les interactions personnalisées et les communications mondiales. En revanche, vous ne connaissez peut-être pas Twilio Interconnect, la solution d’infrastructure de la société qui permet aux entreprises de se connecter directement au réseau Twilio pour garantir une qualité de niveau entreprise pour les produits Twilio. Twilio Interconnect permet aux clients de se connecter à l’aide d’interconnexions physiques ou de tunnels VPN cryptés. Ils peuvent également utiliser des services de communication tiers, tels que le réseau en tant que service (NaaS) de Megaport.


Répondre à la demande de connectivité privée des clients


En 2016, Twilio a conçu la première version de Twilio Interconnect en réponse à la demande des entreprises clientes et des opérateurs qui recherchaient une connectivité privée pour des raisons réglementaires et de performance réseau. Parmi les premiers connectés, certains étaient des clients et opérateurs demandant à utiliser Megaport pour se connecter en privé au réseau de Twilio.


« Nous voulons que l’intégration à Twilio soit aussi simple que possible. C’est pourquoi nous rencontrons les clients là où ils se trouvent », déclare Alex Seber, Directeur de Super Network chez Twilio.

« Parmi les services de communication tiers, je dirais que Megaport est l’un de nos fournisseurs préférés, car leur clientèle correspond assez bien à la nôtre : cloud-native, voulant évoluer rapidement… une sorte de modèle low-touch. »

Opérant dans plus de 100 pays à partir de sept points de présence (PoP) seulement, Twilio développe des partenariats avec des entreprises comme Megaport pour étendre sa capacité à se connecter rapidement et facilement à ses clients mondiaux.

Comme l’observe Lisha Tseng, Staff Product Manager chez Twilio, « C’est l’une des valeurs les plus intéressantes des services de communication tiers, car nous ne sommes généralement pas situés dans la même région que la plupart de nos clients. Ces réseaux d’intercommunication nous permettent d’augmenter notre présence mondiale. »

Améliorer la sécurité et les performances


Twilio Interconnect est particulièrement apprécié des entreprises des secteurs fortement réglementés comme les services financiers, qui sont confrontés à des exigences de sécurité et de conformité plus strictes. La connectivité privée retire le trafic de l’Internet public, qui peut être plus vulnérable aux cybermenaces telles que le détournement de route BGP. Les clients voix de Twilio utilisent souvent Twilio Interconnect pour minimiser les problèmes de qualité audio, inévitables lorsqu’un appel circule sur l’Internet public, transitant d’un réseau à un autre vers sa destination finale. Grâce à la connectivité privée, les appels peuvent passer directement du réseau de Twilio au réseau privé de l’entreprise.


Pourquoi Megaport ?


En plus d’utiliser Megaport pour une connectivité redondante à AWS, Twilio propose Megaport comme l’un des nombreux systèmes de communication tiers disponibles sur Twilio Interconnect. Évoquant les recherches d’une solution NaaS à laquelle s’associer, Alex Seber déclare que Twilio souhaitait disposer de plusieurs attributs clés.

« La couverture de Megaport est énorme », dit-il.

« Nous voulions que la solution soit pilotée par logiciel. Il était essentiel de pouvoir tout faire en ligne sans avoir à discuter avec un vendeur. Le modèle de paiement à l’utilisation est également important, car avec notre croissance rapide, il est difficile d’avoir des engagements IP avec les opérateurs. Alors savoir que nous pouvons établir une connexion rapidement nous rassure. Nous sommes l’un des seuls produits chez Twilio à être liés à un équipement physique. Le provisionnement peut donc prendre un peu plus de temps par rapport à toutes les API que nous vendons. C’est pourquoi beaucoup de nos clients sont cloud natifs et privilégient les API. Lorsque nous leur disons qu’ils doivent prévoir un circuit ou une interconnexion, soit ils ne savent pas ce que c’est, soit ils ont peur des délais. Savoir que Megaport fonctionne plus rapidement est donc très important. »

« Nous voyons réellement nos clients évoluer. »


Le service Twilio Interconnect a rapidement pris de l’ampleur dans la gamme de produits Twilio. Le nombre de connexions rendues possibles par les systèmes d’échanges comme le réseau Megaport a augmenté de 100 % d’une année sur l’autre. Lisha Tseng est convaincue que les systèmes de communication tiers comme Megaport représentent un domaine de croissance pour le produit à l’avenir.

« La connexion transversale virtuelle a changé la donne pour notre suite de produits », dit-elle.

« Nous avons intégré Megaport il y a deux ans. La première année, les clients le découvraient, mais au cours de la deuxième année, Megaport est devenu une partie intégrante de Twilio Interconnect, et nous voyons réellement nos clients évoluer. » 

Twilio prévoit d’améliorer l’expérience client, en permettant aux entreprises d’activer plus facilement la connectivité privée directement à partir de la plateforme Twilio.

« Une fois que le client est en ligne, nous pouvons assurer la mise en service en quelques jours, ce qui est plutôt rapide dans le secteur des télécommunications », explique-t-elle.

« Les clients qui viennent d’un environnement télécom traditionnel sont généralement très satisfaits. »

Vous souhaitez savoir comment Twilio Interconnect peut vous aider ? Contactez Twilio ici.

Les trois coûts cachés dans votre configuration multicloud

Si vous cherchez à améliorer les résultats de votre entreprise, sachez que le cloud implique des coûts rampants dont vous devez tenir compte. Voici comment les gérer.


Chacun sait que se connecter au cloud a un coût. Qu’il s’agisse de frais d’abonnement ou de forfaits de stockage, votre facture cloud peut monter en flèche rapidement. 

Le multicloud est de plus en plus prisé (selon les estimations, 94 % des organisations devraient opter pour un réseau multicloud d’ici 2024), et le passage au modèle « travailler depuis n’importe où » a été favorisé par la pandémie de COVID-19. Cette configuration présente de nombreux avantages pour les performances, la sécurité et la gestion de votre réseau. Mais sans la bonne configuration, les coûts peuvent facilement s’accumuler là où vous les attendez le moins. Fort heureusement, il existe des moyens de réduire et de gérer ces coûts cachés afin d’éviter des surprises dans votre fonctionnement multicloud.

Les avantages


Lorsque votre entreprise se connecte à plusieurs fournisseurs de cloud, vous pouvez bénéficier de nombreux avantages que les configurations réseau classiques ou à un seul cloud ne peuvent offrir. Tout d’abord, vous vous donnez la liberté de choisir le meilleur parmi les fonctionnalités dont vous avez besoin, sans être bloqué par un fournisseur (en continuant d’utiliser un service car changer de fournisseur n’est pas pratique). Vous disposez également d’un plan de reprise après sinistre sûr et économique en cas de défaillance inattendue de l’un de vos fournisseurs adjacents en raison d’une violation des données ou d’une panne du système.

Vous apprenez encore les ficelles du multicloud ? Lisez notre Guide du débutant 2022 et découvrez d’autres avantages pour votre entreprise.



Les coûts cachés

Sans une bonne planification, la commodité du cloud peut se payer au prix fort. En plus des frais de connexion inévitables, il existe trois catégories de coûts à prendre en compte dans la budgétisation des dépenses cloud de votre entreprise :

1. Les frais de sortie – les coûts liés au transfert des données en dehors d’un fournisseur de services cloud (CSP)
2. Les frais de réseau sous-jacent – les coûts d’installation et de gestion de la connectivité vers et entre les clouds 
3. Le hairpinning des données de cloud à cloud – le coût du routage entre les clouds via un centre de données sur site (qui peut être réduit en utilisant un routeur cloud virtuel). 

Frais de sortie


Bien que vous puissiez migrer autant de données que vous le souhaitez vers un CSP, leur acheminement vers l’extérieur vous sera facturé au nombre de Go, d’où le terme de sortie, qui signifie « quitter ». Ces frais sont cachés car ils sont généralement facturés à terme échu. Ils peuvent donc augmenter en coulisses à mesure que les applications continuent d’extraire les données. La surveillance et la gestion des frais de sortie peuvent devenir un défi considérable pour les grandes entreprises qui s’appuient sur plusieurs fournisseurs de cloud pour l’exécution de charges de travail au niveau mondial.

Ces frais peuvent varier en fonction du volume de données déplacées et de leur destination (le transfert de données entre les zones de disponibilité sera moins coûteux, mais le transit à travers les continents, par exemple, peut faire grimper la facture cloud). De plus, tous ces frais sont facturés plus cher lors du routage du trafic ou des données via une connexion publique comme Internet. Vous trouverez plus de détails sur les frais de sortie dans notre E-Guide de la sortie.

Ainsi, bien que les frais de sortie puissent constituer un obstacle inattendu à la croissance de votre entreprise, il existe des méthodes pour ne pas vous ruiner.


Comment réduire vos frais de sortie

Il existe quelques moyens de vous prémunir contre les frais de sortie cachés et onéreux. En organisant et en migrant stratégiquement la quantité de données que vous stockez sur les différents clouds, vous pouvez réduire efficacement les factures de sortie des CSP et allouer une enveloppe plus conséquente aux éléments dont vous avez besoin.

Vous devez d’abord établir les connexions via un réseau privé et sécurisé au lieu de passer par un VPN Internet public risqué. Les CSP vous en récompenseront pour les raisons suivantes : En vous connectant à la propre connexion privée de chaque fournisseur (par exemple, AWS Direct Connect ou Microsoft Azure ExpressRoute), vos frais de sortie seront considérablement réduits avec la migration vers le cloud. 

Vous pourrez aussi intégrer davantage de flexibilité dans la conception de votre infrastructure multicloud. Lorsque vous utilisez un réseau en tant que service (NaaS) dans votre entreprise, vous louez des services de mise en réseau auprès de fournisseurs de cloud pour exploiter votre propre réseau. Vous n’avez donc pas besoin de votre propre infrastructure, vous pouvez personnaliser plus rapidement et facilement votre configuration et augmenter ou réduire vos capacités de stockage et de migration à mesure que les besoins de votre entreprise évoluent.

Découvrez comment le réseau en tant que service (NaaS) de Megaport peut vous aider.


Le stockage connecté au cloud permet à votre entreprise d’exploiter des capacités avancées d’analyse des données et de deep learning partagées sur plusieurs clouds. Vous accédez ainsi aux différentes applications dont vous avez besoin et réduisez considérablement la nécessité de déplacer des données vers et depuis votre environnement sur site.

Vous pouvez également surveiller quelles données sont stockées et où, de façon à minimiser efficacement la réplication là où elle n’est pas nécessaire. Lorsque vous synchronisez des données sur plusieurs clouds (généralement pour la sauvegarde à des fins de récupération) ou entre différents fournisseurs sur site et fournisseurs de cloud, le trafic de données augmente et peut entraîner des frais de sortie. En effectuant l’évaluation des exigences de sauvegarde des données critiques, la vérification des doublons inutiles et la compression des fichiers avant leur transfert dans le cloud, vous réduirez ces frais dans des proportions considérables.

Réseau sous-jacent


Bien que le cloud s’apparente à un nuage dans le ciel, son existence n’est possible que grâce à l’infrastructure complexe construite et entretenue sur le terrain. Le réseau sous-jacent désigne l’infrastructure réseau physique et/ou virtuelle qui permet de connecter une entreprise à un CSP.

Par exemple, les infrastructures de réseau virtuel comme le NaaS ont des coûts variables qui dépendent de la configuration que vous choisissez et offrent diverses capacités en fonction des besoins de votre entreprise. Les clients paient généralement selon une facturation mensuelle ou à la demande pour un service complet qui comprend le matériel et la gestion.


Comment réduire les coûts de réseau sous-jacent

En choisissant un NaaS évolutif et sécurisé plutôt qu’une connexion non évolutive auprès d’un fournisseur de télécommunications ou que l’Internet public, vous bénéficiez d’un contrôle accru et d’une meilleure visibilité sur chaque composant de votre réseau multicloud. Vous pouvez alors surveiller les performances du réseau sous-jacent de manière efficace, et identifier précisément les défaillances ou les points faibles du réseau. L’offre NaaS de Megaport vous permet de consulter ces statistiques sur un portail accessible et complet.

Comme le NaaS réduit les incidents de redondance qui entraînent des coûts liés à la perte de productivité et aux temps d’arrêt, il constitue une excellente méthode pour réduire les coûts associés aux sous-couches physiques traditionnelles. Le NaaS permet également l’automatisation des tâches via une interface de programmation d’application (API) pour une meilleure productivité, ce qui réduit les coûts des ressources et améliore l’évolutivité de votre entreprise puisque vous ne payez que ce que vous utilisez.


Hairpinning des données de cloud à cloud


Sans la bonne configuration de routage, les réseaux multicloud d’entreprise s’appuient fortement sur le « hairpinning » (circuit de communication entre points de sortie), ou la redirection du trafic (backhauling). Selon cette méthode, les données circulent entre les CSP via un environnement sur site, souvent un centre de données, entre les environnements cloud.

Lorsque les données passent d’un CSP à l’autre, elles doivent voyager plus loin à travers un réseau plus complexe. Vos dépenses cloud peuvent alors monter en flèche puisque la distance supplémentaire parcourue vous est facturée. De plus, le nombre de points de défaillance potentiels étant plus nombreux et le trajet plus long du point A au point B, vous pouvez également subir une latence plus élevée et une baisse des performances.


Comment réduire les coûts de hairpinning

Pour réduire les coûts de hairpinning, les entreprises doivent disposer d’une configuration multicloud qui permet aux données de transiter non seulement vers et depuis les clouds, mais aussi entre les clouds, ce qu’on appelle « routage cloud virtuel ».

Les routeurs cloud virtuels fonctionnent sur une sous-couche NaaS et permettent de créer des connexions intercloud sans matériel. Les données sont ainsi acheminées directement d’une application cloud à l’autre sans sacrifice en termes de coûts, de performances ou de redondance du réseau.

En utilisant un routeur cloud virtuel comme un Megaport Cloud Router (MCR), par exemple, les connexions intercloud sont également faciles à configurer : déployez simplement une connexion transversale virtuelle (VXC) via le portail Megaport pour connecter vos clouds en quelques minutes et étendre les avantages de la facturation à la demande de votre configuration NaaS dans votre multicloud.



Découvrez comment un MCR peut changer la manière dont vous interagissez avec le cloud.


Conclusion


Bien que les coûts cachés liés au multicloud puissent grimper, il existe des moyens de les identifier et de les réduire pour économiser sur vos dépenses cloud globales. En examinant vos frais de sortie, en utilisant des NaaS privés et sécurisés et en adoptant le routage de cloud à cloud, vous réduirez considérablement les frais de sortie rampants et profiterez de nombreux autres avantages.

En outre, en établissant une carte stratégique des chemins de migration simplifiés et économiques vers le cloud au sein de votre infrastructure multicloud, vous permettrez à votre entreprise de réaliser des économies au profit des éléments dont vous avez le plus besoin.

Votre connexion Internet est-elle un frein pour votre activité ?

La méthode de connectivité cloud que vous choisissez est déterminante pour votre entreprise. Ainsi, devez-vous éviter d’utiliser Internet ou a-t-il sa place dans votre réseau cloud ?

Les services basés sur le cloud sont essentiels pour de nombreuses entreprises, offrant aux employés un bureau virtuel et la possibilité de se connecter partout et à tout moment. Cependant, alors que les cas d’utilisation de l’interconnectivité numérique se multiplient, il s’agit moins désormais de savoirpourquoi des solutions basées sur le cloud devraient être intégrées à votre entreprise, mais davantage quel type de connectivité cloud vous devez utiliser.

Pour les entreprises, les réseaux et les méthodes de connectivité des clouds publics, soit l’Internet public, sont l’un des moyens les plus courant et les plus faciles de se connecter à leurs charges de travail, aussi sont-elles nombreuses à y recourir. Mais est-ce forcément la meilleure option pour votre entreprise ?

Réseaux publics et réseaux privés

Tout d’abord, examinons précisément les différences entre connectivité publique et connectivité privée. Un réseau cloud privé est exactement ce qu’il est, privé, c’est-à-dire non partagé avec une autre organisation. Toutes les ressources informatiques et les méthodes de connectivité aux services cloud privés sont fournies via un réseau privé sécurisé et dédié à l’usage d’une seule entreprise.

Si les grandes organisations peuvent concevoir et utiliser leur propre réseau, racks de centre de données, etc., pour la plupart, l’exploitation d’une couche réseau privée existante via un fournisseur de réseau en tant que service (NaaS) est une solution bien plus flexible et abordable.

À l’inverse, un réseau cloud public implique l’utilisation de plateformes et de méthodes de connectivité cloud qui s’appuient sur l’Internet public ; en d’autres termes, il est partagé entre différents clients ou entreprises. Bien que les données et les applications ne soient pas accessibles aux autres clients, elles ne sont pas protégées.

À première vue, les réseaux cloud publics semblent économiques et faciles à provisionner. Cependant, vous devez réfléchir à deux fois avant de confier la connectivité de votre entreprise au seul Internet public, et ce pour plusieurs raisons.


Les inconvénients de l’Internet public

Une sécurité insuffisante

La sécurité dans le cloud est l’une des principales préoccupations des entreprises. Le cloud est généralement sûr, mais en réalité, son existence repose entièrement sur le maintien d’un environnement sécurisé. Cela n’empêche pas les pirates informatiques et les cybercriminels d’infiltrer les clouds publics et les voies de connectivité beaucoup plus facilement que les connexions privées.

Dans un environnement d’entreprise cloud natif, les plateformes cloud traitent une quantité considérable d’informations personnelles et financières. Mais lorsque ces données doivent transiter par les réseaux publics, elles doivent emprunter davantage de chemins de systèmes autonomes (AS). Elles sont exposées plus longtemps et ne sont pas protégées par un chiffrement de bout en bout ou des fonctionnalités de pare-feu en tant que service (FWaaS). La sécurité de vos données est alors confiée au hasard.

Gardez à l’esprit qu’en cas de problèmes avec les clients en raison d’une violation, votre marque devra en assumer les conséquences, et non vos fournisseurs de services cloud.

L’intégration de votre réseau peut être la clé pour éviter les cyberattaques. Découvrez comment.


Des coûts plus élevés

Selon l’argument de vente généralement avancé, il est communément admis que le cloud public est plus économique. Or, ce n’est pas toujours le cas. S’il est vrai qu’une solution de cloud public semble moins onéreuse au départ, les coûts peuvent rapidement devenir incontrôlables.

Tout d’abord, la plupart des fournisseurs de cloud facturent des frais de sortie plus élevés pour acheminer les données sur l’Internet public que sur une couche réseau privée. De plus, étant donné les faibles capacités de redondance et de reprise après sinistre, les temps d’arrêt fréquents des utilisateurs du réseau public peuvent entraîner d’énormes pertes, qui, selon Gartner, peuvent atteindre les 5 600 $ par minute. Ajoutons à ces sommes colossales la baisse de productivité due aux goulots d’étranglement et aux temps d’arrêt. Imaginez les coûts exorbitants que cela représente sur plusieurs mois pour une grande entreprise.

Si le cloud public fonctionne bien pour un accès instantané sans coûts d’investissement initiaux, les entreprises ont tout intérêt à étudier d’autres solutions basées sur le cloud plus économiques, avec mise en œuvre de leur propre équipement.

Découvrez nos conseils pour obtenir un réseau plus économique.


Des performances médiocres

Pensez à la dernière fois que Facebook était en panne et que vous ne pouviez pas actualiser votre fil d’actualité. Ennuyeux, n’est-ce-pas ? Chaque fois que des sites Web populaires comme Facebook ou Netflix connaissent des problèmes de serveur, le tollé peut être énorme, et la réputation de ces fournisseurs remise en question. Il est essentiel de disposer d’un réseau cloud performant pour éviter ces désastres à votre entreprise et vos clients, ce que l’Internet public ne peut garantir.

Le maintien d’un réseau cloud public dépend fortement de la capacité de votre service Internet à gérer la charge de travail. Or, le fait est que les connexions Internet publiques n’offrent pas la même fiabilité que les connexions privées. Avec un grand nombre d’utilisateurs partageant des chemins publics, les périodes de forte demande obligent à se démener pour gagner de la bande passante, augmentant la latence jusqu’à interrompre quasiment les opérations. Et lorsque des incidents de redondance se produisent, ce qui est plus fréquent qu’on ne le croit, les opérations s’arrêtent complètement pour un temps indéterminé. L’Internet étant imprévisible, ces incidents peuvent se produire au moment où vous vous y attendez le moins.

Lorsque votre entreprise exécute des applications critiques dans le cloud et que votre connexion est erratique, chaque seconde compte. Non seulement cela peut coûter très cher, mais il en résulte également une perte de productivité, une perte d’activité et même des dommages à long terme pour la réputation de votre entreprise. En général, la flexibilité et le contrôle sont essentiels pour garantir un accès fiable et cohérent aux services, tant par vos équipes que par vos utilisateurs finaux.

Quand utiliser l’Internet public

L’Internet public peut toutefois être souhaitable et convenir à certains cas d’utilisation. Par exemple dans le cadre d’un réseau étendu défini par logiciel (SD-WAN) pour la connectivité périphérique, qui regroupe les connexions Internet sur des emplacements en périphérie distribués dans une architecture sécurisée de bout en bout. L’Internet peut également fournir une solution abordable et simple pour les entreprises exerçant des activités à faible risque, comme l’envoi d’e-mails ou d’autres opérations qui ne mettent pas en danger les données confidentielles ou critiques. 

L’Internet public peut aussi être un bon choix pour migrer de petites charges de travail ponctuelles entre clouds dans une seule région, bien que l’utilisation d’un VPN comme tampon de sécurité soit recommandée. Ainsi, bien que l’Internet public seul ne soit pas conseillé, lorsqu’il est utilisé avec une solution privée (ou lorsque le cloud public est exploité en combinaison avec un cloud privé pour une solution optimale), il s’avère intéressant pour les entreprises qui recherchent un moyen simple et rapide d’exécuter des fonctions réseau de base, d’établir les fondations ou de créer une configuration plus sophistiquée.

Comment passer au privé

À ce jour, vous avez peut-être déterminé que les menaces liées à l’utilisation d’un réseau cloud public pour votre entreprise semblent l’emporter sur les avantages. Alors, quelle est la meilleure alternative ?

Nous avons écrit de nombreux articles de blog sur les méthodes de connectivité privée, des différentes façons de créer un réseau privé aux diverses solutions de connectivité privée proposées par les principaux FSC. Mais la seule solution capable de prendre en charge presque toutes les configurations privées, et la plus facile à mettre en œuvre, est le réseau en tant que service (NaaS).

Le NaaS est une couche réseau cloud privée qui permet aux utilisateurs d’exploiter un réseau sans avoir à posséder, construire ni entretenir une infrastructure, et sans utiliser l’Internet public. Sommairement, les entreprises « louent » un chemin de réseau privé vers (et parfois entre) les fournisseurs de cloud auprès d’un fournisseur indépendant de l’opérateur, ce qui leur évite d’avoir à construire une infrastructure réseau à partir de zéro. Vous pouvez ainsi vous concentrer sur les résultats commerciaux et la croissance des revenus, tout en mettant à profit l’expérience des professionnels des réseaux pour la fourniture des ressources, des services de sécurité, des appareils, des produits, etc.

Dans la structure NaaS – que nous décrivons plus loin dans notre article de blog – toutes les fonctions réseau sont prises en charge par les fournisseurs. Les entreprises peuvent ainsi configurer leurs propres réseaux sans matériel et n’ont besoin que d’une connectivité Internet pour accéder à la structure NaaS. Non seulement les coûts de matériel sont éliminés, mais cela permet également aux utilisateurs d’augmenter ou de réduire la capacité en fonction de l’évolution de la demande, comme de déployer des services rapidement et facilement.


NaaS et cloud public

Considérez une méthode de connectivité publique non gérée comme une voie publique. Vous ne bénéficiez d’aucune protection ni d’aucune intimité, et vous pouvez donc être pris pour cible dans les incidents dus à l’agressivité au volant. Vous partagez la route avec de nombreux autres véhicules et subissez les fluctuations du trafic et les retards pendant les heures de pointe. Vous payez également un prix fixe aux péages pour utiliser la route, alors que vous ne pouvez rien faire pour en modifier ou personnaliser le dimensionnement.

Considérez maintenant le NaaS comme une voie privée construite juste pour vous. Aucun autre véhicule ne la partage avec vous et vous n’êtes plus soumis à l’agressivité des conducteurs. Autrement dit, vous êtes protégé et en sécurité. Vous n’êtes plus retardé par les embouteillages, ce qui se traduit par une grande fiabilité et de bonnes performances. De plus, vous pouvez modifier les dimensions de la route en fonction du nombre de voitures que vous souhaitez acheminer, ce qui garantit l’évolutivité. Et si vous souhaitez étendre votre réseau ou relier différentes routes les unes aux autres, vous pouvez en construire d’autres à la demande. Votre entreprise peut se développer sans heurt au fil du temps, en fonction de l’évolution des priorités et des besoins.

Grâce à cette analogie, il est facile de comprendre pourquoi le NaaS présente des avantages indéniables pour les entreprises. Outre sa facilité d’utilisation, il offre des conditions de sécurité et de fiabilité optimales, ainsi qu’une évolutivité élevée.

Le verdict

D’une manière générale, la meilleure option cloud dépend essentiellement des besoins de votre entreprise. Que vous soyez une start-up avec un seul bureau et cinq employés ou que vous opériez à l’échelle internationale avec une équipe de 500 personnes, des facteurs comme la sécurité, les performances, la facilité d’utilisation, le coût et l’évolutivité doivent être pris en compte pour déterminer ce qui convient le mieux à votre entreprise.

Quel que soit votre choix, configuration Internet publique utilisée conjointement avec une couche de connectivité privée pour une sécurité renforcée ou méthode de connectivité purement privée comme le NaaS, il est essentiel que vous disposiez d’une connexion Internet sécurisée afin que votre entreprise reste à flot et ne soit pas victime de cybercriminalité ou d’une réputation entachée.

Découvrez comment le NaaS de Megaport peut vous mettre sur la voie d’un réseau rapide et sécurisé en réservant une démonstration.

Qu’est-ce qu’un pare-feu en tant que service (FWaaS) ?

Vous ne laisseriez pas n’importe qui entrer dans votre maison, il en est de même pour votre réseau. Découvrez comment la technologie de pare-feu en tant que service (FWaaS) agit comme un bouclier pour votre infrastructure cloud, pour une meilleure protection des données.


Les cyberattaques étant plus fréquentes et plus complexes que jamais, il est aujourd’hui indispensable de sécuriser votre réseau. Alors que de plus en plus d’entreprises réalisent le potentiel du cloud et se tournent vers des solutions en tant que service — telles que le réseau en tant que service (NaaS) et le logiciel en tant que service (SaaS) — pour exploiter les nombreux avantages de la technologie cloud, il existe une autre solution pour vous aider à protéger votre réseau : Infrastructure en tant que service (IaaS), plus spécifiquement pare-feu en tant que service ou FWaaS. 

Les modèles « en tant que service » désignent simplement les cas où les services informatiques sont fournis à la demande à distance via le cloud ou par l’intermédiaire d’un fournisseur de réseau en tant que service (NaaS). Ces services basés sur le cloud ne requièrent que peu ou pas de dépenses d’investissement et peuvent être adaptés par la suite pour répondre aux besoins changeants de votre entreprise. En tant que tel, le modèle FWaaS diffère des pare-feu traditionnels. En effet, il est fourni au client par le biais du cloud ou d’un fournisseur NaaS, sans qu’il soit nécessaire d’installer et d’assurer la maintenance matérielle d’une quelconque infrastructure sur site. 

Un pare-feu de réseau pourrait être comparé au gardien d’un bâtiment, vérifiant l’identité de ceux qui tentent d’entrer et refusant de laisser passer ceux qui n’en ont pas l’autorisation. Votre pare-feu de réseau joue un rôle similaire. En évaluant le trafic qui tente d’entrer, il permet de protéger votre réseau des menaces inconnues et indésirables. 

Avant que les entreprises ne se mondialisent et ne deviennent plus éclatées, les pare-feu traditionnels localisés dans les bureaux étaient suffisants, et les services informatiques n’avaient pas besoin d’étendre un pare-feu au-delà de son site d’installation initial. Mais aujourd’hui, les frontières des pare-feu sont élargies, avec des points d’application partout dans le monde pour répondre aux demandes d’une main-d’œuvre et d’appareils répartis sur la planète, sans limites de réseau clairement définies.


Comment fonctionne le modèle de pare-feu en tant que service ?


Placée entre votre réseau d’entreprise et l’Internet public, la technologie FWaaS protège votre architecture des cyberattaques grâce à de multiples mesures de filtrage et de sécurité qui empêchent les menaces de pénétrer dans votre réseau. Ces mesures incluent des réponses automatisées dès la détection d’une menace, l’enregistrement complet des événements, un système de prévention des intrusions (IPS) et la sécurité DNS (système de noms de domaine).

Lorsque le trafic tente de pénétrer dans votre réseau, la solution FWaaS l’inspecte d’abord afin de détecter tout type de menace. En analysant les informations de chaque paquet de données – comme sa provenance ou tout signe de contenu malveillant – il peut ensuite l’accepter ou le rejeter et l’empêcher de pénétrer dans votre réseau.

De plus, les pare-feu de nouvelle génération (NGFW) offrent des capacités bien plus importantes que les pare-feu traditionnels plus anciens, avec une connaissance et un contrôle des applications, une détection avancée des logiciels malveillants via le sandboxing et un IPS profondément intégré. 

Les services informatiques peuvent personnaliser leur FWaaS pour l’adapter à leurs besoins spécifiques, notamment pour déterminer quel personnel peut accéder à quelles données en filtrant certains identifiants, sites Web, adresses IP, etc. Cela permet de protéger les entreprises contre les menaces internes et externes.

Schéma du pare-feu en tant que service (FWaaS) se connectant à AWS, Azure et Google Cloud via Internet et Megaport Virtual Edge (MVE).


Pourquoi les entreprises ont besoin de FWaaS


Opter pour le modèle FWaaS plutôt que pour du matériel sur site ou des pare-feu traditionnels ou encore d’autres mesures de protection du réseau être avantageux pour de nombreuses raisons, notamment :

  • Visibilité – le modèle FWaaS offre une visibilité et un contrôle à la demande sur vos mesures de sécurité, vos utilisateurs, vos applications et vos sites. En enregistrant chaque session en détail et en utilisant l’apprentissage profond pour reconnaître les modèles d’attaque, votre entreprise obtient de meilleures informations sur les vulnérabilités du réseau.
  • Compatibilité avec la confiance zéro – quand il s’agit de la sécurité via le cloud, il n’y a pas de meilleure option qu’une architecture confiance zéro. En exploitant le modèle FWaaS avec la confiance zéro, vous pouvez apporter des politiques de sécurité aux utilisateurs sur leurs points d’accès, conformément à un cadre de service d’accès sécurisé en périphérie (SASE), indispensable à l’ère du travail à distance. De plus, le modèle de confiance zéro réduit la latence en se connectant aux applications directement sur Internet.
  • Une capacité de calcul global en temps réel et un déploiement rapide – en raison de problèmes de chaîne d’approvisionnement, de nombreux services informatiques doivent patienter très longtemps pour utiliser des pare-feu matériels. Le modèle FWaaS offre cette capacité en temps réel.
  • La redondance géographique, d’accès et technologique – utilisée dans le cadre d’une solution de virtualisation des fonctions réseau (NFV) pour SD-WAN, comme MVE, vous pouvez fournir le système FWaaS dans d’autres centres de données pour la redondance et la diversité. Vous pouvez également accéder à votre réseau en utilisant IPSec sur Internet, en tant que solution de secours à votre réseau principal en fibre optique.
  • Les configurations personnalisées – avec le bon fournisseur, vous pouvez utiliser le modèle FWaaS comme un routeur sur mesure et le configurer pour obtenir encore plus d’avantages pour votre réseau – par exemple, surmonter les limites de la passerelle AWS Transit.


Sur notre blog, découvrez comment un réseau interopérable peut renforcer la sécurité de votre entreprise et vous offrir un meilleur contrôle.


Le modèle FWaaS comme partie intégrante de votre SASE


Une solution FWaaS peut également faire partie de votre infrastructure de service d’accès sécurisé en périphérie (SASE). SASE désigne « un cadre permettant de faire converger les meilleurs éléments du réseau défini par logiciel et du SD-WAN avec une sécurité de pointe », et englobe des éléments tels que le réseau étendu défini par logiciel (SD-WAN), la passerelle Web sécurisée (SWG) et le ZTNA (Zero Trust Network Access) pour créer un réseau robuste, sécurisé et modernisé pour votre entreprise.

Dans un cadre SASE, le modèle FWaaS fonctionne aux côtés d’autres produits de sécurité pour défendre le périmètre du réseau contre les cyberattaques. Les clients peuvent s’appuyer sur un fournisseur unique plutôt que sur de multiples fournisseurs tiers. On obtient ainsi une architecture réseau transformée : moderne, dynamique, flexible, automatisée et sécurisée, elle est capable de fournir les performances nécessaires aux applications et ressources actuelles, qui fonctionnent 24 heures sur 24 et 7 jours sur 7, hébergées dans des clouds publics, privés et hybrides.


Découvrez toutes les subtilités du SASE grâce à notre Guide pour débutant.


Cas d’utilisation


Les avantages de l’intégration du modèle FWaaS dans les infrastructures cloud sont clairs, mais à qui cette solution convient-elle le mieux ? Il existe plusieurs cas d’utilisation pour la mise en œuvre de FWaaS. Ils incluent :

  •  Sécuriser l’activation de toutes les applications requises sur les réseaux d’entreprise – aider à détecter les attaques par le biais des applications d’entreprise. Appliquer des contrôles spécifiques aux fonctionnalités des applications, surveiller les données et le contenu des applications, etc.
  • Protection contre les menaces connues et inconnues, indépendamment des applications utilisées pour les transporter – le modèle FWaaS permet des contrôles très granulaires pour les applications réseau. Grâce à ses capacités d’inspection approfondie des paquets et d’inspection complète des applications en temps réel, le pare-feu nouvelle génération (NGFW) offre une défense solide contre les menaces connues et inconnues pour vos applications Web.
  • Accès d’urgence et redondance à long terme – le modèle FWaaS peut être configuré comme méthode d’accès temporaire pour les régions qui rencontrent des problèmes d’accès au réseau ou des échecs de protocole MPLS. Le chemin redondant que fournit le modèle FWaaS est également une bonne option de sauvegarde pour une redondance à long terme.  
  • Sécuriser les passerelles VPN – en utilisant le modèle FWaaS comme couche de sécurité pour toutes les passerelles VPN que vous créez, vous obtiendrez un point d’entrée de réseau central pour des connexions réseau plus sûres et plus performantes. De plus, vous pouvez rapidement et facilement architecturer une seule passerelle, ce qui permet d’économiser du temps, des coûts, des efforts et d’éviter la confusion qui peut résulter de la gestion de plusieurs tunnels. Le modèle FWaaS permet en outre aux clients de fournir également des points de terminaison SASE afin d’offrir aux utilisateurs finaux des services de sécurité strictement basés sur les politiques.
  • Surmonter les limites ou quotas imposés par le cloud – en fournissant des configurations sur mesure sur les pare-feu, vous pouvez contourner certaines limites d’accès imposées par les CSP (comme les limites de passerelle de transit AWS mentionnées précédemment).


Ne pas avoir de FWaaS, c’est « comme ne pas avoir d’antivirus sur son ordinateur ». Le modèle FwaaS est conseillé à toute entreprise qui interagit quotidiennement avec le cloud, ou qui traite des données critiques ou de nature privée. Le modèle FWaaS convient le mieux aux grandes entreprises qui ont de nombreux employés à distance accédant aux applications sur plusieurs appareils. 

Comment Megaport peut vous aider


Grâce à Megaport Virtual Edge (MVE), les clients peuvent activer le modèle FWaaS pour leur réseau d’entreprise dans plus de 20 zones avec une configuration évolutive et un paiement à l’utilisation.

Avec FWaaS fourni via MVE, les utilisateurs peuvent profiter des avantages du pare-feu de nouvelle génération (NGFW), un dispositif de sécurité de réseau qui va au-delà des capacités traditionnelles du pare-feu pour inspecter le trafic entrant et sortant sur votre réseau, mais aussi permettre une plus grande personnalisation et un apprentissage profond des menaces et des modèles de données.


Le modèle pare-feu en tant que service peut s’avérer une couche précieuse et nécessaire à l’infrastructure de votre réseau d’entreprise, en donnant aux utilisateurs le contrôle total de leur réseau grâce à des fonctions disponibles à la demande. En agissant comme un gardien à l’affût des menaces entrantes, le modèle FWaaS agit constamment comme une couche de sécurité supplémentaire sur votre réseau, le protégeant des cybermenaces et vous offrant une grande tranquillité d’esprit.

Découvrez comment le FWaaS fourni par MVE peut aider votre entreprise – réservez une démo dès aujourd’hui.

Comment remédier à une mauvaise latence d’Azure

Découvrez comment réduire votre latence et obtenir de meilleures performances réseau grâce au célèbre fournisseur de services cloud.


Les entreprises ne tirent pas toujours le meilleur parti de leurs réseaux cloud. Il arrive que les besoins dépassent la capacité et que les réseaux souffrent de problèmes de latence. Puisque vous êtes sur ce blog, vous savez probablement déjà à quel point une mauvaise latence peut être problématique pour une entreprise, et comment son manque d’efficacité se traduit rapidement par une perte de revenus. Selon un récent rapport de Gartner, les temps d’arrêt coûtent aux entreprises, en moyenne, 5 600 USD par minute – et la latence non fiable en est un facteur clé. Ainsi, lorsque les besoins du réseau dépassent sa capacité, comment pouvez-vous suivre le rythme et éviter les problèmes de latence ?

La bonne nouvelle est que pour les 70 % d’entreprises qui s’appuient sur Microsoft Azure pour leur mise en réseau dans le cloud, il existe des moyens faciles de réduire la latence qui n’augmenteront pas les coûts et, dans la plupart des cas, vous permettront d’optimiser les actifs existants. Découvrez comment réduire votre latence et obtenir de meilleures performances réseau.


Méthode 1 : Mise en réseau accélérée


La mise en réseau accélérée, également appelée Single-Root Input-Output Virtualization (SR-IOV), est la méthode la plus courante pour réduire la latence. La mise en réseau accélérée consiste à trouver le chemin le plus court entre A et B sur le réseau.

Le problème est que de nombreuses configurations cloud dépendent trop fortement d’un hôte pour l’administration. Mais avec la mise en réseau accélérée, le trafic circule directement depuis l’interface réseau de la machine virtuelle (MV), sans passer par l’hôte et le commutateur virtuel. On obtient une réduction de la latence, de la gigue et de l’utilisation du processeur pour les charges de travail les plus exigeantes. 

La mise en réseau accélérée est importante car elle élimine la complexité inutile du réseau (traitée sur notre blog auparavant). Sans mise en réseau accélérée, le trafic entrant et sortant de la machine virtuelle doit passer par l’hôte et le commutateur virtuel. La mise en réseau accélérée réduit le nombre de sauts pour que le trafic atteigne sa destination. 

Si cela est bien fait, le commutateur virtuel fournit l’application de la politique qui était auparavant assurée par l’hôte, comme le contrôle d’accès et la sécurité du réseau. 

Un exemple parfait de cas d’utilisation est la reprise après sinistre, le cauchemar des professionnels des réseaux et une opération coûteuse pour les entreprises. C’est dans cette situation qu’une méthode comme la mise en réseau accélérée montre tout son intérêt pour rétablir le fonctionnement du réseau lorsque l’hôte central n’est plus une option, et que les commutateurs virtuels doivent assumer son rôle. 

Microsoft dispose d’une documentation exhaustive sur ce cas d’utilisation, que toute personne s’intéressant sérieusement à la latence, mais aussi à la santé et au bien-être de son réseau cloud global, devrait lire. Pour tous ceux qui souhaitent profiter d’une exploration technique approfondie, les explications de Microsoft sur la mise en réseau accélérée sont essentielles.


Azure vous facture des frais d’entrée de données élevés ? Sur notre blog, découvrez quatre façons de les réduire.


Méthode 2 : Mise à l’échelle côté réception (RSS)


La mise en réseau accélérée n’est bien entendu pas pour tout le monde. Pour les entreprises dont la MV ne correspond pas aux scénarios compatibles pour permettre la mise en réseau accélérée, la mise à l’échelle côté réception (RSS) est la meilleure solution pour gérer les performances globales du réseau, y compris la latence. Avec la RSS, un objectif clé est de trouver le chemin le plus court entre A et B. La différence, cependant, est qu’au lieu de contourner l’hôte, la RSS trouvera la distribution la plus efficace du traitement du réseau sur plusieurs processeurs.

La RSS joue le rôle « d’agent de circulation » pour votre réseau : certains trafics sont laissés de côté tandis que d’autres sont moins prioritaires. Sans la RSS, le réseau tente de traiter le trafic par un seul chemin réseau, et la latence est la conséquence logique de tout ce qui essaie de se produire en même temps. 

Azure offre un moyen simple d’implémenter la RSS. Les administrateurs configurent simplement la carte d’interface réseau (NIC) et le pilote de miniport pour recevoir les appels de procédure différés (DPC) sur d’autres processeurs. Également pratique : la RSS garantit que le traitement associé à une connexion particulière reste sur un processeur assigné. Les utilisateurs du réseau définissent la configuration une seule fois, puis passent à d’autres tâches pendant que la NIC s’occupe du reste. 

La RSS est idéale pour réduire les délais de traitement en acheminant le traitement de réception de la NIC vers plusieurs processeurs. L’objectif ici n’est pas simplement de réduire la latence. Il s’agit aussi de construire une meilleure intelligence du réseau afin qu’un processeur ne soit pas submergé de demandes tandis que les autres restent inactifs. 

Cette méthode de réduction de la latence est une bonne nouvelle pour les entreprises qui gèrent des réseaux à fort volume, comme les courtiers, les fournisseurs du secteur du e-commerce et les entreprises qui ont besoin d’une capacité de réseau élevée à tout moment. Comme pour la mise en réseau accélérée, Microsoft propose une documentation utile pour permettre aux entreprises de déployer la RSS rapidement et efficacement.


Comparer les offres de connectivité privée de Microsoft Azure, AWS et Google Cloud grâce à notre guide.


Méthode 3 : Groupes de placement de proximité


Les groupes de placement de proximité sont la méthode de réduction de la latence la plus évidente, elle s’appuie essentiellement sur la colocation. Mais dans ce cas, la colocation ne consiste pas seulement à héberger des ressources réseau dans le même centre d’hébergement. Il s’agit plutôt d’une application plus large du terme, qui consiste à réduire la distance entre les ressources informatiques Azure afin de réduire la latence globale du réseau.

Les groupes de placement de proximité peuvent réduire la latence entre les machines virtuelles sur site, les machines virtuelles situées à plusieurs endroits (c’est-à-dire les ensembles de disponibilité) ou plusieurs groupes de mise en réseau (ensembles d’échelle). Bien entendu, plus les actifs sont éloignés les uns des autres, plus le risque de latence et d’autres problèmes est élevé. L’objectif avec les groupes de placement de proximité est de réfléchir à la façon d’acheminer les tâches du réseau en utilisant les actifs avec la distance physique minimum. 

Pour une efficacité optimale, Microsoft recommande de coupler les groupes de placement de proximité avec la mise en réseau accélérée. L’idée ici est de s’assurer que lorsque vous demandez la première machine virtuelle dans le groupe de placement de proximité, le centre de données est automatiquement sélectionné.


La seule mise en garde que nous formulons est que, dans le cas de charges de travail élastiques, plus vous imposez de contraintes au groupe de placement, plus le risque d’erreurs d’allocation est élevé et plus la probabilité de latence est forte. Même si la mise en réseau accélérée gère le trafic, nous conseillons fortement aux administrateurs de réseau de rester vigilants. Par exemple, la capacité n’est pas conservée lorsque vous arrêtez (désallouez) une MV. 

Les groupes de placement de proximité sont les plus judicieux pour les entreprises qui cherchent à maximiser la fonction réseau dans leur région d’origine, ainsi qu’à s’assurer qu’elles ne dépensent pas trop en capacité sur un nouveau marché. 

La documentation de Microsoft sur Azure propose des bonnes pratiques supplémentaires sur les groupes de placement de proximité, en particulier pour les réseauteurs suffisamment concernés par la latence et le réseau intelligent pour augmenter leurs capacités avec la mise en réseau accélérée.


Obtenez une connectivité Azure plus rapide avec le réseau en tant que service


Lorsqu’il s’agit d’accélérer votre réseau, les méthodes Azure que nous avons évoquées peuvent faire une différence considérable. Le meilleur point de départ est toutefois d’examiner votre réseau d’entreprise dans son ensemble. 

L’utilisation de l’Internet public laisse votre réseau à la merci des fluctuations de trafic qui peuvent avoir un impact sévère sur la vitesse et les performances – ce qui peut finalement nuire à votre entreprise. Les fournisseurs de télécommunication traditionnels peuvent constituer une alternative problématique, car ils obligent les clients à s’engager dans des contrats avec lesquels la bande passante ne peut pas être augmentée pour répondre aux pics de demande. Résultat : des performances réseau lentes et peu fiables, et la nécessité pour votre service informatique d’atténuer constamment les effets des perturbations.

En utilisant le réseau en tant que service (NaaS) comme méthode de connectivité Azure, vous pouvez contourner l’Internet public et passer à un réseau privé. De plus, lorsque vous fournissez une connectivité NaaS avec Megaport, vous bénéficiez des avantages suivants :

  • Meilleures performances – pour éviter les goulots d’étranglement et les temps d’arrêt causés par les fluctuations du trafic Internet. Avec votre propre connexion à AWS sur le backbone privé de Megaport, votre connectivité sera rapide et constante.
  • Bande passante modulable – pour fournir des connexions et augmenter la bande passante (dans certains cas, jusqu’à 100 Go) à la demande via le portail Megaport. Cela permet d’offrir les performances dont vous avez besoin en période de pointe, puis de diminuer la bande passante lorsqu’elle n’est plus nécessaire, pour commencer à économiser instantanément.
  • Redondance continue – avec plus de 700 rampes d’accès dans le monde, vous êtes protégé contre les temps d’arrêt grâce à l’objectif de 100 % de disponibilité de service de Megaport.
  • Megaport Cloud Router (MCR) – Le service de routage virtuel de Megaport fournit une connectivité privée à la demande au niveau de la couche 3, pour un routage cloud vers cloud hautes performances sans hairpinning vers et depuis vos environnements sur site.
  • Megaport Virtual Edge (MVE) – Pour bénéficier des avantages d’un réseau à faible latence directement à la périphérie, utilisez MVE, le service de virtualisation des fonctions réseau (NFV) de Megaport. Vous obtiendrez une connectivité directe et privée de la succursale au cloud, réduisant ainsi la latence et la gigue sur vos applications critiques.



Utilisez-en un, ou utilisez-les tous ; avec Azure, vous pouvez tirer parti de n’importe quelle combinaison de ces outils pour réduire la latence de votre réseau. Lorsqu’il est soutenu par un NaaS comme celui de Megaport, vous bénéficiez d’un réseau plus rapide de bout en bout pour une entreprise plus productive et plus rentable.

Comment connecter AWS Direct Connect et Microsoft Azure ExpressRoute

Si votre entreprise utilise ou envisage d’utiliser les deux principaux hyperscalers pour votre réseau, vous pouvez faire passer votre connectivité au niveau supérieur en les intégrant correctement. Voici comment faire.


En 2022, disposer d’un réseau sécurisé et fiable pour votre entreprise n’est pas une option : c’est une nécessité. Les besoins en matière de vitesse, de bande passante et d’accessibilité ayant augmenté parallèlement au développement à distance des entreprises, nous avons également assisté à une adoption massive du multicloud. Selon les prévisions, 94 % des entreprises disposeront d’un réseau multicloud d’ici 2024, car beaucoup réalisent les avantages de l’utilisation de plusieurs clouds pour prendre en charge leurs applications critiques.

Étant donné que de plus en plus de charges de travail d’entreprise migrent vers le cloud, de nombreuses entreprises recherchent des moyens de connecter de manière sécurisée et fiable Amazon Web Service (AWS) et Microsoft Azure, les deux principaux hyperscalers, pour pérenniser leurs réseaux et assurer la meilleure compatibilité entre les charges de travail. 

Nous avons déjà abordé ce sujet : Dans notre article de blog « Trois moyens de connecter vos environnements AWS et Microsoft Azure », nous avons partagé les différentes méthodes (ainsi que leurs avantages et inconvénients) pour connecter vos environnements cloud AWS et Azure pour une expérience multicloud plus sécurisée et performante. Savez-vous que vous pouvez aller encore plus loin et connecter les connexions privées dédiées des fournisseurs de cloud, Direct Connect d’AWS et ExpressRoute d’Azure, entre elles ? 


Qu’est-ce qu’une connexion privée dédiée, et comment fonctionne-t-elle ?


Une connexion dédiée est une connexion privée créée par le fournisseur de services cloud (CSP) pour connecter le réseau d’une seule entreprise à son cloud. Direct Connect et ExpressRoute permettent aux clients de se connecter à leurs charges de travail dans le cloud via une connexion privée non partagée avec d’autres fournisseurs ou clients. Cela fournit alors un chemin pour vos données critiques pour l’entreprise qui ne passe pas par l’Internet public (ce qui pourrait affecter la fiabilité, les performances et surtout la sécurité de votre réseau). 

AWS Direct Connect est le « le chemin le plus court vers vos ressources AWS ». Avec Direct Connect, votre trafic réseau reste sur le réseau mondial d’AWS et n’intègre donc jamais l’Internet public, ce qui réduit les risques d’engorgement ou de latence.

Azure ExpressRoute agit de manière similaire et vous permet de créer des connexions privées entre les centres de données Azure et vos propres centres de données ou votre infrastructure sur site. La connexion via ExpressRoute peut s’avérer utile pour les entreprises qui dépendent fortement du cloud Microsoft pour des services tels que le calcul virtuel, le service de base de données ou le stockage cloud, comme c’est également le cas pour les produits cloud AWS. 

Direct Connect et ExpressRoute vous permettent tous deux de transférer gratuitement des données dans leur cloud. Toutefois, les données sortantes sont facturées au gigaoctet, en fonction de la région et de la destination (voir notre explication sur la tarification d’ExpressRoute pour plus d’informations). Les vitesses de connectivité offertes sont également similaires, allant de 50 Mbits/s à 100 Gbits/s. Les deux fournisseurs de cloud ont besoin d’un routage de couche 3 avec eBGP (External Border Gateway Protocol) pour partager les préfixes de route.

Sur notre blog, découvrez comment le filtrage des routes peut améliorer votre multicloud.


L’une des différences techniques à prendre en compte est la prise en charge de l’étiquetage VLAN (Virtual Local Area Networks) par ces deux solutions. AWS Direct Connect associe une interface virtuelle (VIF) – qui peut être configurée comme privée, de transit ou publique – à un seul VLAN. Cela sera présenté comme une seule sous-interface 802.1q sur le point de terminaison de couche 3 en peering avec AWS. 

QinQ 802.1ad est pris en charge avec Azure ExpressRoute. La balise VLAN extérieure ou balise S est associée à ExpressRoute lui-même et la balise intérieure ou balise C est associée au type de peering. Azure offre le peering privé et le peering Microsoft à travers ExpressRoute – nous avons expliqué quand l’utiliser dans notre article de blog précédent. Vous devez vous assurer que votre terminal de couche 3 prend en charge QinQ. De nombreux fournisseurs, tels que Megaport, disposent de solutions pour travailler avec des terminaux de couche 3 qui ne prennent pas en charge QinQ. 

Les autres différences techniques que vous devrez prendre en compte sont les tailles des unités de transmission maximales (MTU) et les limites des préfixes de route BGP. Celles-ci varient en fonction du fournisseur cloud et, dans certains cas, peuvent être configurées en fonction du SKU du produit et des options de configuration. Il existe quelques différences dans l’offre de produits, liées aux modèles de tarification et aux accords de niveau de service (SLA) proposés par chaque CSP.

Comparer les offres de connectivité privée de Microsoft Azure, AWS et Google Cloud grâce à notre guide.


Les avantages de l’utilisation d’une connexion réseau dédiée


Il existe de nombreux avantages à utiliser la connexion réseau dédiée d’un CSP, comme Direct Connect et ExpressRoute, pour se connecter à son propre cloud plutôt qu’à l’Internet public, de la même manière que l’on utilise un cloud privé plutôt qu’un cloud public. Cela inclut :

  • Sécurité renforcée – la connexion via un réseau privé dédié garantit un niveau de sécurité supplémentaire en hébergeant vos données critiques à l’intérieur d’un environnement au chemin protégé conçu uniquement pour votre entreprise. Il en résulte une réduction significative des menaces de cyberattaques et de violations de données. Le chemin que fournit l’Internet public peut quant à lui être compromis par le trafic d’autres entreprises.
  • Économies sur les coûts – selon le volume de données que vous échangez entre les clouds, vos coûts pourraient être plus faibles si vous utilisiez des connexions privées. AWS et Azure facturent tous deux des tarifs de données de sortie plus élevés pour l’utilisation de l’Internet public par rapport à l’utilisation de leurs options de réseau privé. Cela signifie que vous pourriez économiser des centaines voire des milliers d’euros en conservant leurs connexions dédiées lors de la migration des applications de votre infrastructure sur site.
  • Surveillance et contrôle accrus – les entreprises peuvent affiner leurs données dans une bien plus large mesure et être « au plus près » de leur migration vers le cloud en raison de sa nature privée, afin de superviser et de contrôler efficacement leurs données (c’est-à-dire voir quelles données vont où).
  • Stabilité des performances – une solution de réseau privé vous offrira des performances améliorées et constantes lorsque vous accédez à vos données dans le cloud. Cela signifie une réduction de la latence, des sauts moins nombreux et moins fréquents, et des niveaux de gigue plus faibles, pour des interruptions réduites dans vos opérations quotidiennes.

Pourquoi connecter les deux ?


Il existe plusieurs cas d’utilisation courants pour connecter les deux chemins de connectivité cloud. Cela signifie que l’ExpressRoute d’un client peut communiquer directement avec son chemin Direct Connect, plutôt que de simplement connecter l’ensemble de ses clouds AWS et Azure. 

  • Migration des données – les migrations de données importantes sont plus rentables et plus prévisibles avec la connectivité privée. En connectant AWS et Azure, la migration massive des données entre ces clouds peut être plus rapide et plus fiable.
  • Charges de travail multicloud – en optant pour des chemins AWS et Azure et en les connectant, votre entreprise peut utiliser les meilleures options de produits et de prix pour chaque cloud. Le multicloud assure également une sauvegarde de vos données critiques en cas de catastrophe. Apprenez-en plus sur le multicloud avec notre Guide du débutant.
  • Une intégration plus facile – vous pouvez intégrer votre réseau sans avoir à migrer entièrement vos charges de travail dans le cloud. Ceci est particulièrement utile pour les fusions de réseaux. 

Apprenez à intégrer davantage votre pile cloud pour un environnement multicloud performant.



Comment connecter Direct Connect et ExpressRoute


Il y a trois façons recommandées de connecter vos charges de travail Direct Connect et ExpressRoute pour de meilleures performances et compatibilité :

  1. Utilisation de votre centre de données.
  2. Fonction de réseau virtuel (VNF).
  3. Carrier Multiprotocol Label Switching (MPLS).

Chacune de ces méthodes de connexion peut s’avérer bénéfique pour votre entreprise, selon la manière dont vous comptez concevoir et tirer parti de votre réseau multicloud.

1. Utilisation de votre centre de données


En utilisant l’un de vos centres de données existants et en établissant deux circuits point à point à partir d’un fournisseur de services réseau (l’un vers AWS Direct Connect et le second vers Azure ExpressRoute), vous pouvez connecter efficacement vos deux charges de travail. Établissez la connexion en la faisant aboutir sur un point de terminaison de couche 3 nouveau ou existant et utilisez votre centre de données comme nœud multicloud hybride entre AWS et Azure.

Le schéma ci-dessous montre à quoi ressemblerait cette architecture. Une fois cette opération terminée, vous aurez établi un chemin de données privé entre AWS et Azure via votre centre de données. L’emplacement de Direct Connect et ExpressRoute indiqué sera choisi en fonction de la région du fournisseur cloud et de l’emplacement du centre de données (il s’agit souvent du même emplacement pour les deux fournisseurs cloud, mais il peut aussi s’agir d’emplacements différents). Une fois que le protocole BGP est établi entre le routeur du centre de données et la périphérie de chaque fournisseur cloud, le trafic peut alors passer entre Azure et AWS.

Avantages 

  • Meilleur contrôle et personnalisation – affinez votre migration de données pour sélectionner leur destination.
  • Expansion du service existant – avec cette méthode, vous pouvez profiter de votre pile de sécurité existante ainsi que du matériel et de l’ensemble d’outils réseau que vous connaissez déjà pour établir la connectivité.
  • Aucune nouvelle solution à apprendre ou à intégrer dans votre stratégie globale de réseau.


Inconvénients 

  • Coûts plus élevés – le maintien d’un centre de données nécessite des coûts continus de maintenance par des experts, de loyer, et plus encore.
  • Temps de déploiement – souvent, cela nécessitera un fournisseur de services pour livrer des boucles locales dans votre centre de données, ce qui peut s’accompagner d’accords et de coûts mensuels élevés. Le déploiement de ces nouveaux services prend généralement des semaines ou des mois.  
  • Possibilité de sollicitation de la bande passante – si vous utilisez votre infrastructure réseau existante, assurez-vous d’avoir la capacité nécessaire pour les exigences de débit. La latence peut également être un inconvénient si votre centre de données ne se trouve pas dans la même zone géographique qu’ExpressRoute et Direct Connect.


2. Fonction de réseau virtuel (VNF)

Ce périphérique réseau virtuel peut devenir votre point de terminaison de couche 3 pour échanger du trafic entre AWS et Azure. Des fournisseurs de réseau en tant que service (NaaS) comme Megaport proposent des solutions basées sur le cloud qui vous permettent de connecter facilement vos connexions dédiées. Bien que les offres varient selon les fournisseurs, vous pouvez généralement commander une solution clé en main qui inclut les licences et les fonctionnalités de routage. 

Il convient également de vérifier si le fournisseur NaaS est également un partenaire d’AWS Direct Connect et d’Azure ExpressRoute. Cela deviendra important car vous pourrez alors construire de manière plus transparente ces connexions transversales virtuelles (VXC) de votre VNF aux fournisseurs cloud respectifs.

La solution VNF vous donne la possibilité de déployer un simple routeur entre les deux CSP, de créer un pare-feu pour mettre en œuvre des politiques de sécurité ou de l’intégrer entièrement à votre solution SD-WAN déjà en place.


Dans le schéma ci-dessous, l’instance du routeur est rapprochée du cloud par rapport à la solution de données. Le chemin de données entre Azure et AWS parcourt généralement moins de distance physique. Le protocole BGP va maintenant se terminer entre les fournisseurs cloud et l’instance VNF en établissant les chemins de données entre les deux clouds. Megaport propose deux solutions VNF : Megaport Cloud Router (MCR) et Megaport Virtual Edge (MVE).


Avantages

  • Déploiement – vous pouvez déployer ces solutions en utilisant l’interface du portail ou l’API de votre fournisseur NaaS, généralement en quelques minutes. Une fois votre routeur virtuel opérationnel, le déploiement de connexions transversales virtuelles avec ExpressRoute et Direct Connect devient très simple.
  • Réduction des coûts – en évitant l’hairpinning des centres de données, vous réduisez la quantité de données que vous sortez d’AWS et d’Azure, ce qui permet de réduire les lourds frais de sortie. Nous partageons d’autres façons de réduire vos frais de sortie d’Azure sur notre blog.
  • Hautes performances réseau – lorsque vous déployez votre dispositif de réseau virtuel à proximité de la région de charge de travail cloud, vous pouvez bénéficier de meilleures performances réseau en raison de la réduction de la latence et de la gigue.
  • Contrats à durée flexible – en utilisant une solution VNF, vous pouvez faire évoluer vos routeurs en fonction des besoins, ce qui est impossible dans le cadre de contrats à long terme pour des circuits MPLS fournis par les opérateurs.


Inconvénients 

  • Moins de personnalisation –  les solutions clé en main auront un ensemble de fonctionnalités spécifiques qui peuvent ou non vous convenir. Vous devrez donc vous assurer que les fonctionnalités dont vous avez besoin sont disponibles. Assurez-vous que le fournisseur spécifique de SD-WAN ou de pare-feu que vous souhaitez déployer est disponible auprès de ce fournisseur NaaS spécifique.


3. Solution IP-VPN privée


Certains opérateurs de réseau étant également partenaires d’AWS et d’Azure, ils peuvent fournir une connectivité à partir de leur solution IP-VPN (Internet Protocol Virtual Private Network) privée. Les IP-VPN utilisent la technologie Multiprotocol Label Switching (MPLS) pour éviter de se connecter via des passerelles publiques. Cette technologie présente des avantages similaires à ceux d’autres solutions privées, notamment une sécurité renforcée, une haute disponibilité et des performances améliorées. Si votre opérateur actuel vous fournit déjà ce type de service, cela peut valoir la peine d’y réfléchir pour répondre à ce besoin de connectivité.


Le schéma ci-dessous montre comment un réseau IP-VPN peut être utilisé pour connecter AWS Direct Connect à Microsoft ExpressRoute. Avec cette architecture, le trafic entre les deux fournisseurs cloud passera désormais par votre routeur IP-VPN Provider Edge (PE). Contrairement aux solutions évoquées précédemment, ce dispositif n’est pas géré physiquement ou virtuellement par vous. 

Avantages

  • Fonctionnement entièrement géré – le dispositif de couche 3 (IP-VPN CE/PE) entre vos clouds AWS et Azure est entièrement géré, ce qui signifie que vous pouvez confier la maintenance à des experts.
  • Extension du service – comme vous avez peut-être déjà un accord et une relation en place avec les deux ou l’un des CSP, la connexion peut être encore plus rapide.
  • Capacité d’exploitation –  si vous avez d’autres sites distants sur le réseau MPLS, ceux-ci peuvent exploiter les mêmes connexions pour se connecter à AWS et Azure. 


Inconvénients

  • Coût plus élevé – de manière générale, les coûts MPLS sont l’option la plus chère pour la connexion à des fournisseurs cloud, et s’accompagnent d’un engagement sur la durée du contrat.
  • Délai de déploiement – bien que cela dépende de l’opérateur, certains fournissent proposent encore ces connexions de manière traditionnelle. Le déploiement des connexions peut nécessiter plusieurs semaines ou mois, ce qui entraîne un retard dans vos capacités multicloud.
  • Contrôle – toutes les fonctionnalités de routage, de filtrage et de sécurité dépendront des capacités du produit de l’opérateur, qui peuvent être limitées, ce qui signifie que vous aurez moins de contrôle et de personnalisation sur vos données.


La solution qui vous convient le mieux, et comment Megaport peut vous aider


La méthode de connexion d’AWS à Azure la mieux adaptée à votre entreprise dépendra d’un certain nombre de facteurs, de votre budget au type d’applications concernées, en passant par les exigences en matière de bande passante, de vitesse et de performances réseau. 

L’utilisation de votre centre de données comme nœud de réseau hybride ou multicloud peut être bénéfique aux entreprises qui disposent d’un centre de données existant et qui souhaitent connecter leurs charges de travail de manière plus fluide. Cette solution permet également une meilleure supervision et une meilleure visibilité de la migration des données.

La fonction de réseau virtuel (VNF), quant à elle, convient mieux aux réseaux qui souhaitent une solution de connexion rapide, car vous pouvez déployer les dispositifs de réseau virtuel en utilisant l’interface du portail ou l’API de votre fournisseur NaaS en quelques minutes. Et grâce à la proximité avec la région cloud de la charge de travail, vous pouvez bénéficier de meilleures performances réseau. 

Les fonctionnalités de réseau virtuel de Megaport Cloud Router (MCR) facilitent la mise en réseau en vous permettant de vous connecter à la couche 3 en un instant, ce qui rend la configuration moins complexe. Inutile d’être un expert en ingénierie réseau : il vous suffit de vous connecter à votre compte Megaport et de commencer à créer votre réseau virtuel en quelques clics. MCR prend également en charge le multicloud, et vous permet d’échanger en privé entre les principaux fournisseurs cloud. Megaport Virtual Edge (MVE), notre service de virtualisation des fonctions réseau (NFV) à la demande, vous permet de créer de nouvelles connexions entre vos clouds, sans avoir à déployer de matériel.


Si votre entreprise souhaite s’appuyer sur les MPLS existants, l’option MPLS gérée par le transporteur peut être bénéfique pour une connectivité qui nécessite moins de gestion de la part de votre entreprise, la confiant aux experts.


Quelle que soit la conception de réseau multicloud qui convient à votre entreprise, Megaport dispose de solutions rapides et simples à déployer, qui améliorent les performances du réseau et réduisent vos coûts.

Planifiez dès aujourd’hui une démonstration gratuite avec Megaport et découvrez le potentiel multicloud de votre entreprise.


Comparaison des méthodes de connectivité du dernier kilomètre

En ce qui concerne la mise en réseau en 2022, les entreprises s’intéressent au dernier kilomètre. Mais quelles sont vos options de connectivité périphérique – et laquelle est la meilleure ?

Les options de connectivité, tout comme le reste d’Internet, sont en constante évolution. En ce qui concerne l’accès au dernier kilomètre, les options sont en constante évolution, et notamment pour les entreprises visant à trouver un équilibre entre valeur, flexibilité et risque.

D’ici à 2025, Gartner prévoit que 75 % des données générées par les entreprises seront créées et traitées en-dehors des centres de données traditionnels ou du cloud.


En d’autres termes, ces statistiques impliquent qu’une connectivité hautement performante et sécurisée des centres de données n’est plus suffisante pour les réseaux d’entreprise – l’exigence est désormais l’approche de bout en bout. Mais grâce aux nombreuses méthodes de connectivité du dernier kilomètre disponibles, quels facteurs pouvez-vous prendre en compte pour évaluer et choisir la meilleure ?

Vous trouverez ci-dessous notre comparaison des options de connectivité du dernier kilomètre pour découvrir laquelle offre la meilleure combinaison en matière de vitesse, de prix, de performances et de flexibilité.

Téléchargez le rapport Gartner®, Predicts 2022 : Connecter l’entreprise numérique pour obtenir plus de prédictions de mise en réseau clés.



Option 1 : Internet public

Définition : Connectivité filaire publique de qualité grand public ou de base comprenant un accès grand public, ainsi que des services publics de base dans le cloud. L’infrastructure physique peut comprendre du cuivre, des câbles coaxiaux, de la fibre ou une combinaison de ces éléments.

Les avantages : Facilité d’accès. Utile dans les situations de bande passante de base.

Les inconvénients : Fiabilité médiocre, absence d’accords de niveau de service, retards de mise en œuvre possibles et absence d’options de sécurité côté fournisseur.

La fréquence importante des problèmes de connectivité Internet…
force les entreprises à subir une connectivité défaillante
sans responsabilité ni solution fournie
autre que l’incontournable « Avez-vous essayé d’allumer, puis d’éteindre votre box ? »



Comme pour l’eau et l’électricité, le service d’Internet public est essentiel et souvent performant, jusqu’à la prochaine panne et indisponibilité. La facilité de connexion d’une TPE ou d’une entreprise individuelle via un réseau public ou commercial (généralement une entreprise télécom) peut être séduisante au premier abord. Mais malgré leur omniprésence, les connexions Internet publiques se révèlent souvent peu fiables et ne bénéficient pas des mêmes garanties strictes de disponibilité que les options de connectivité privées ou de niveau professionnel. Les problèmes de connectivité à l’Internet sont fréquents, qu’il s’agisse de perturbations météorologiques ou de goulets d’étranglement pendant les périodes de pointe ou de demande imprévue, ce qui force les entreprises à subir une connectivité défaillante sans responsabilité ni solution fournie autre que l’incontournable « Avez-vous essayé d’allumer, puis d’éteindre votre box ? »

Un autre problème lié à l’Internet public est le contrôle ; comme ses services sont conçus pour être utilisés par le grand public, on part du principe que les utilisateurs auront des besoins de consommation constants qui correspondent au profil d’un abonné résidentiel. Pour les entreprises, cependant, les exigences en matière de performances et de bande passante peuvent changer radicalement. Si l’entreprise lance un nouveau produit, se développe sur un nouveau marché ou anticipe un autre pic d’utilisation, une option de bande passante plus large est parfois nécessaire, en tenant compte des facteurs en amont et en aval. Mais l’Internet public n’offre généralement pas ce niveau de contrôle – et les nouveaux développements de l’entreprise peuvent rapidement se transformer en cauchemars qui ont un impact sur les résultats de votre entreprise.

L’Internet public est également l’option la moins sûre pour les entreprises qui n’ont pas une compréhension complète et actualisée des défis de sécurité posés par le simple fait de se « brancher »; de simples configurations de traduction d’adresses réseau (NAT) ne suffisent pas à vous protéger et vous sauver. Les attaques de rançongiciels et de logiciels malveillants représentent une préoccupation constante pour les internautes professionnels, car elles ont récemment explosé en raison de la guerre en Ukraine – un casse-tête pour les entreprises qui cherchent à protéger leurs activités.

Comment pouvez-vous protéger votre entreprise des problèmes de sécurité liés à l’Internet public ? En savoir plus ici.



Option 2 : FWA/LTE (4G, 5G)

Définition : L’accès sans fil fixe (FWA), ou LTE, est un moyen alternatif pour les fournisseurs d’accès à Internet de fournir aux petites entreprises et aux autoentrepreneurs la connectivité du dernier kilomètre. Dans le cas de la LTE ou des options de fournisseur de téléphonie mobile, ce dernier kilomètre pourrait même se déplacer….

Les avantages : Au fur et à mesure que la couverture des technologies sans fil s’étend, les options FWA et LTE devraient fournir aux ISP des alternatives plus rentables ou des voies de secours au mélange de cuivre, de coaxial et de fibre, en particulier dans les zones géographiques où il était généralement prohibitif pour les ISP de remettre en état les anciennes technologies ou de poser de nouveaux câbles.

Les inconvénients : À moins qu’il ne soit spécifiquement fourni sur un APN privé ou fermé, le système LTE s’accompagne des mêmes problèmes que l’Internet public : Fiabilité, contrôle et sécurité médiocres. Les surcharges de données sont également courantes, et même les forfaits sans compteur d’autrefois font place à des options plus complexes qui peuvent dissimuler les coûts jusqu’à ce qu’il soit trop tard.



L’accès sans fil fixe est généralement conçu pour desservir un grand nombre d’abonnés qui utilisent des antennes externes dédiées, spécifiquement du matériel à fréquence/bande contrôlée, afin d’éliminer les couches d’incertitude et de chaos qui peuvent se produire dans les réseaux de téléphonie mobile pressés dans le service pour les besoins de l’Internet ou du transfert de données. C’est à la fois positif… et négatif. À l’instar de l’Internet public, le FWA offre aux entreprises une connectivité facile, de type « plug and play », ce qui est pratique si vous devez vous adapter à l’évolution des protocoles de présence au bureau et si votre personnel évolue entre le travail sur site et le télétravail.

Mais l’inconvénient est que le FWA s’accompagne de tous les problèmes de l’Internet de base et, dans de nombreux cas, d’une bande passante totale disponible ou d’un plafond mensuel de données inférieur. Et si votre entreprise se trouve en zone rurale, les problèmes de connectivité du dernier kilomètre peuvent être encore plus fréquents.  Les entreprises doivent également se méfier de la qualité du service ; les fournisseurs reposent généralement leurs niveaux de service sur les besoins des consommateurs, ce qui peut être problématique si votre entreprise exige une disponibilité constante de la bande passante en amont ou en aval. Ce choix peut être plus fiable à certains égards que les options de fibre physique du point de vue des perturbations physiques, mais il est plus sensible aux problèmes dans l’environnement radiofréquence, qui peuvent nécessiter des compétences ou des équipements spécifiques pour les identifier et y remédier.

Donner la priorité à la réduction des coûts pour votre entreprise ? Voici trois manières de disposer d’un réseau le plus économique possible.



Option 3 : Services de fibre optique noire (privée) et de longueur d’onde

Définition : Le terme « Dark fiber » (ou fibre noire) fait référence aux câbles en fibre optique déjà posés mais pas encore utilisés. Les services de longueur d’onde font référence à l’éclairage d’une « couleur » spécifique d’un réseau fibre dédié à un client unique.

Les avantages : En exploitant les câbles à fibres optiques dormants ou les longueurs d’onde inutilisées, les grandes entreprises peuvent augmenter la largeur de bande disponible pour les applications réseau, bien au-delà des capacités et des possibilités offertes par les technologies filaires existantes, occupées par les fournisseurs.

Les inconvénients : Le déploiement et l’exploitation de ces réseaux lumineux peuvent être coûteux et leur mise en œuvre et leur maintenance nécessitent des équipements adaptés et du personnel formé et qualifié.

Alors que la fibre privée peut être utilisée pour véhiculer l’Internet de base, elle en augmente également les capacités – elle offre une plus grande fiabilité, un contrôle plus étroit et de plus grandes options pour mettre en œuvre la sécurité en couches. L’utilisation de la « Dark Fiber » (fibre noire) vous donne un accès privé, mais pas une facilité d’accès. Que vous aménagiez votre propre réseau ou que vous louiez celui d’un tiers, l’utilisation de la fibre optique exige un engagement sérieux et, dans certains cas, des licences ou des accords réglementaires spécifiques.

La gestion de votre propre réseau « Dark Fiber » ou de longueurs d’onde implique également que vous deveniez votre propre fournisseur, ce qui peut se révéler coûteux et chronophage, car votre infrastructure devra être surveillée en permanence. Et si vous optez pour la location, votre entreprise risque à nouveau d’être confrontée à de nombreux problèmes liés aux fournisseurs commerciaux – manque de disponibilité dans certaines régions et demandes d’assistance exagérées, pour n’en citer que quelques-uns.

En ce qui concerne la connectivité du dernier kilomètre, la fibre optique est utile pour un petit groupe d’entreprises ayant besoin d’un réseau optique dédié. Le cœur de l’élément de réseau étant passif (en verre), il peut être mis à niveau en remplaçant les composants qui permettent d’allumer la « Dark fiber » (fibre noire) – les éléments actifs uniquement. Par exemple, si vous avez besoin d’interconnexions de grande capacité entre plusieurs sites et centres de données pour la réplication en temps réel et les transferts de données volumineux, et si vous voulez un contrôle total sur votre infrastructure, la fibre optique est la solution idéale.

Les applications nécessitant un débit de 10 Gbits/s, une latence inférieure à zéro et un routage spécifique constituent un point de référence minimum pour envisager cette option. Il est également intéressant de noter que le passage à 100 Gbits/s, par exemple, ne nécessiterait pas une nouvelle pose de fibre ; il suffirait de mettre à niveau les émetteurs-récepteurs et les amplificateurs qui peuvent être utilisés à chaque extrémité ou sur de plus longues distances. Sinon, la puissance (et le coût) est tout simplement trop élevée pour que la plupart des entreprises puissent la justifier.

Option 4 : SD-WAN

Définition : Un réseau étendu virtuel défini par logiciel (SD-WAN) qui permet aux entreprises d’exploiter n’importe quelle combinaison de services de transport – y compris les services LTE et les services Internet haut débit de base – pour connecter en toute sécurité les utilisateurs aux applications essentielles, où qu’ils se trouvent.

Les avantages : Dirige de manière sûre et intelligente le trafic sur le réseau étendu d’un client, depuis la périphérie jusqu’aux fournisseurs SaaS et IaaS de confiance. Il est possible de définir des chemins ou des combinaisons de chemins à travers des options de connectivité publiques et privées, automatiquement en fonction de facteurs tels que la latence, la gigue ou les chemins de routage optimaux vers des services spécifiques – même si ceux-ci changent en temps réel en raison de la charge ou des pannes.

Les inconvénients : Toutes les solutions ne présentent pas les mêmes avantages ; évaluez les fournisseurs de nouvelle génération qui permettent de réaliser des gains d’efficacité, grâce à une gestion plus intelligente de la charge de travail et à des fonctions de sécurité.

Contrairement aux autres options que nous avons mentionnées, le SD-WAN permet aux entreprises de prendre un contrôle plus direct de leur réseau du dernier kilomètre et offre un plus grand degré de flexibilité. Ainsi, les clients peuvent diriger le trafic de manière sûre et intelligente vers des fournisseurs de confiance pour réduire les coûts, diminuer le nombre de sauts, assurer la sécurité de bout en bout et améliorer les performances du réseau. Cependant, tous les fournisseurs ne se valent pas. Recherchez et choisissez un fournisseur de confiance ayant une grande part de marché et des fonctionnalités SD-WAN actualisées pour éviter les goulets d’étranglement ou les problèmes de gestion du réseau.

Pour les entreprises qui souhaitent une connectivité SD-WAN optimisée jusqu’au dernier kilomètre, Megaport Virtual Edge (MVE) offre une connectivité de succursale à cloud surpuissante via un réseau privé défini par logiciel (SDN). Grâce à MVE les entreprises peuvent déployer des passerelles SD-WAN, des routeurs virtuels et des passerelles de transit intégrées en quelques minutes, et non en plusieurs mois, et sont intégrées aux principaux fournisseurs SD-WAN du secteur.



Le verdict

De par ses performances médiocres, ses problèmes de sécurité et son manque de contrôle, l’Internet public ou de base est un excellent choix de secours, mais il n’est jamais suggéré comme option principale ou unique. Le FWA ou le LTE se présente comme l’alternative idéale, mais il est généralement traité et acheminé sur les mêmes équipements et chemins que l’Internet de base. Les services « Dark Fiber » (fibre noire) ou de longueur d’onde peuvent répondre à certains cas d’utilisation, mais peuvent être un choix très coûteux à court et à long terme.

De plus en plus, dans la majorité des cas d’utilisation, le SD-WAN mérite d’être pris en considération. Et avec un SD-WAN amélioré par MVE, fourni par l’un des partenaires d’intégration de Megaport, vous disposerez d’une option performante et personnalisable que vous pourrez adapter à la croissance de votre entreprise.

En savoir plus sur MVE ici.

Trois raisons d’interconnecter vos clouds

Le fait de disposer de plusieurs fournisseurs de services cloud ne suffit pas à garantir la pérennité de votre entreprise. Voici pourquoi votre prochaine étape devrait être d’interconnecter vos clouds.

Un article du blog Megaport indique : « Gartner estime que le coût moyen du temps d’arrêt d’une entreprise peut aller jusqu’à 5 600 USD par minute. » Lorsque vous travaillez dans un environnement multicloud, ce coût ne fait qu’augmenter de manière exponentielle. Les temps d’arrêt peuvent être causés par – et conduire à – une série de problèmes de latence et de sécurité, ainsi qu’à un coût supplémentaire qui affecte le résultat net de votre entreprise.

À l’ère des télétravailleurs, de la cybercriminalité galopante et de l’impatience des clients, comment pouvez-vous atténuer les risques, améliorer les performances et protéger votre réputation dans tous vos clouds ? Le moyen le plus simple (et le meilleur) consiste à interconnecter vos clouds de manière privée – en d’autres termes, à adopter le routage cloud vers cloud.

Voici trois avantages clés d’un réseau multicloud interconnecté qui améliorera votre productivité, votre réputation et vos résultats.

Découvrez comment le Megaport Cloud Router (MCR) interconnecte en privé votre réseau multicloud.



1. Réduire la latence du réseau et améliorer les performances

blocs empilés en nombre croissant vers la droite avec des flèches pointant vers le haut


Pensez aux contrariétés que nous avons tous connues, comme les appels de vidéoconférence interrompus ou les problèmes audio, les retards dans les paiements mobiles ou le « sablier infernal » lorsque les mises à jour logicielles sont lentes à télécharger. Les consommateurs et les clients sont impatients, et tout retard peut les inciter à quitter votre site ; ou vos employés peuvent être frustrés, ce qui peut réduire leur productivité.

La latence du réseau est un facteur déterminant dans le fonctionnement de votre entreprise, qu’il s’agisse de promouvoir vos dernières impressions numériques auprès des consommateurs, de mettre à jour la disponibilité des places dans une salle de sport, d’échanger de la cybermonnaie ou de gérer des services d’intervention d’urgence. La latence affecte la rapidité avec laquelle un utilisateur ou un système reçoit vos données, et vice versa, et peut influencer la perception du public de votre entreprise. Elle se définit comme le délai de propagation de l’information, qui est une question de physique : il s’agit de la vitesse à laquelle un appareil émet et reçoit des demandes par le biais de routeurs et de connexions sans fil ou matérielles. La latence augmente en fonction du nombre de sauts entre routeurs ou entre satellites et sol, et est aggravée par la « concurrence » entre les énormes quantités de données transmises quotidiennement sur l’Internet public.

Apprenez-en davantage sur le coût réel d’une latence élevée du réseau – et comment l’éviter.



Un réseau multicloud qui n’est pas interconnecté signifie que les données qui circulent entre les clouds devront passer par un centre de données ou un point intermédiaire distant, ce qui ajoute des sauts et ralentit votre réseau. Si l’on ajoute à cela l’utilisation de l’Internet public, où vous subissez les fluctuations du trafic et les problèmes de redondance, il en résulte une dégradation des performances du réseau pour l’ensemble de votre entreprise.

Pour les utilisateurs finaux, les problèmes de latence apparaissent lorsque quelqu’un voit un message de mise en mémoire tampon. Les serveurs et les appareils divisent les données en petits morceaux pour les traiter, et les tampons stockent ces « fragments ». Comme dans un aéroport surchargé dont les pistes sont limitées, les données « attendent » d’être transmises. La plupart des gens qui voient un message de mise en mémoire tampon sont rapidement frustrés et ne comprennent pas ou ne se soucient pas des problèmes techniques – ils rejettent la faute sur les autres.

La bande passante est importante, mais la latence (vitesse) est également cruciale pour répondre au besoin de satisfaction quasi instantanée des utilisateurs – et au besoin d’efficacité de votre entreprise. Selectra fait l’analogie suivante : « La bande passante correspond au volume maximal d’eau qu’un tuyau peut transporter et la latence correspond au temps que met l’eau à parcourir la longueur du tuyau. » Plus la bande passante est élevée, plus la vitesse de téléchargement en amont et en aval est importante, et un faible taux de latence signifie que les données sont transmises rapidement.

Tenez compte de ces statistiques : 

  • Les taux d’abandon augmentent de 87 % en cas de délai de chargement de 2 secondes.
  • En 2022, Google s’efforce d’obtenir un temps de chargement d’une demi-seconde.
  • Les utilisateurs ne retournent pas sur des sites Web qui prennent plus de 4 secondes pour charger et auront une mauvaise image de l’entreprise.
  • Les utilisateurs ont tendance à ne pas passer à la caisse en raison des délais – ils sont distraits et commencent à naviguer sur d’autres boutiques en ligne.

Grâce au routeur cloud virtuel comme Megaport Cloud Router (MCR), les entreprises envoient et reçoivent leurs données via un système de connexion transversale virtuelle (VXC) installé à proximité des points d’accès au cloud. Elles disposent alors d’une ligne privée et spécialisée entre leurs clouds, qui achemine les données entre les principaux fournisseurs et plateformes. Ce flux de données efficace et rapide réduit la latence et améliore les performances du réseau presque instantanément.

2. Optimiser les coûts par des économies d’échelle

pièces de monnaie empilées sur des blocs de bois


Lorsque la pandémie a frappé, de nombreuses entreprises ont été contraintes de passer rapidement à une main-d’œuvre en télétravail, et leurs besoins en matière de stockage et de livraison cloud ont explosé leurs budgets. Le rapport 2020 de Flexera sur l’état du cloud présente des résultats d’enquête qui donnent à réfléchir. Les personnes interrogées ont déclaré que « leur budget pour les dépenses liées au cloud computing était dépassé de 23 % en moyenne. – et s’attendent à ce que les dépenses liées au cloud augmentent de 47 % l’année prochaine » et, pire encore, « 30 % des dépenses liées au cloud sont gaspillées ». Les personnes interrogées dans le cadre du rapport 2022 de Flexera sur l’état du cloud déclarent que la tendance de gaspillage lié au cloud n’a pas fléchi. La priorité absolue pour plus de 700 participants à l’enquête est d’optimiser l’utilisation du cloud – et la solution passe de plus en plus par le multicloud.

Le désir de diversifier les clouds est reflété dans une enquête réalisée par VMware. Son étude sur l’année fiscale 2022 H2 Benchmark Study on Digital Momentum indique que 73 % des entreprises interrogées utilisent deux clouds publics, 26 % en utilisent trois ou plus, et 81 % des participants prévoient d’utiliser des services multiclouds d’ici 2024. Facundo Navarro de DevOps.com déclare qu’une stratégie multicloud peut « vous permettre d’optimiser vos coûts lorsqu’elle correctement mise en œuvre. » C’est un moyen stratégique d’éviter les contrats de fournisseurs dont les conditions ne correspondent pas toujours à l’évolution de votre situation. Au lieu de cela, vous utilisez le meilleur de ce que proposent plusieurs fournisseurs.

Les fournisseurs de solutions multicloud sont de plus en plus nombreux sur le marché et se font concurrence à l’échelle mondiale, ce qui peut être bénéfique pour votre entreprise. Vous pouvez comparer les options proposées et rechercher des fonctionnalités telles que « facilités de paiement, contrats ajustables et capacité personnalisable. »

Un service de routage de cloud virtuel proposé par un fournisseur de réseau en tant que service (NaaS) est une option idéale pour interconnecter vos clouds de manière privée, avec un bien meilleur contrôle et une meilleure gestion de vos services en un seul endroit. Votre entreprise dispose probablement de flux de données dont les besoins, les objectifs ou l’urgence en matière de sécurité diffèrent. Si vous adoptez un réseau cloud interconnecté, vos flux de données peuvent être facilement confiés à différents fournisseurs et transférés d’un fournisseur à l’autre en fonction de vos besoins et des spécialités ou points forts de ces derniers. Pour intégrer les applications professionnelles Microsoft, par exemple, vous pourriez utiliser Azure et les données relatives à la vente aux détails pourraient être envoyées vers Google Cloud où les Big Data peuvent analyser les tendances.

Les solutions de routage multicloud simplifient la gestion et optimisent les coûts liés au transfert des données entre les clouds en réduisant le nombre de sauts (facteur d’amélioration de la latence). De plus, en interconnectant vos clouds et en gérant la connectivité via un fournisseur fiable, vous n’aurez pas besoin de vous éparpiller entre les fournisseurs, d’évaluer chaque contrat ou d’être coincé avec un contrat dont les coûts explosent en cas de forte utilisation des données ; vous pourrez faire évoluer vos connexions à la demande et ne payer que ce que vous utilisez.

3. Améliorer la sécurité via le peering privé et direct

cadenas sur fond jaune


Outre les violations de données causées par des activités cybercriminelles, les entreprises sont confrontées à des cataclysmes lors de situations d’urgence, qu’il s’agisse de simples coupures de courant, de dysfonctionnements logiciels ou matériels, ou de catastrophes naturelles. Mais avec une solution de routage privée cloud vers cloud, les redondances sont intégrées. Cela signifie que la restauration des données et des applications est plus rapide et à moindre coût.

En choisissant de se connecter directement au cloud par une connexion privée plutôt que par l’Internet public, les risques de sécurité sont considérablement réduits, et il en va de même pour la connexion entre différents clouds. En utilisant le routage privé cloud vers cloud, vous pouvez protéger vos données contre les cyberattaques et raccourcir leur temps de transit, ainsi que réduire les incidents de redondance. Une fois que vos données parviennent à chaque fournisseur, elles sont acheminées à travers leurs filtres de sécurité de haut niveau. Ils doivent protéger leurinfrastructure, afin d’assurer une sécurité de qualité supérieure et mise à jour fréquemment.

MCR fournit ce niveau de réseau sous-jacent, acheminant les données de l’entreprise de manière virtuelle entre les fournisseurs et les plateformes sans passer par un centre de données. En utilisant les VXC sur le réseau privé défini par logiciel (SDN) de Megaport pour contourner l’Internet public, le MCR vous permet d’échanger en privé entre les fournisseurs de clouds publics, d’infrastructures en tant que service (IaaS) et de logiciels en tant que service (SaaS). Par le biais d’une connexion principale, de multiples interactions cloud fonctionnent de manière transparente dans les coulisses.

MCR permet aux entreprises d’utiliser les fonctions de sécurité inhérentes aux réseaux définis par logiciel à l’échelle, ce qui renforce également la sécurité. « En utilisant un routeur cloud virtuel avec un fournisseur NaaS, contrairement à l’Internet public peu fiable et mal sécurisé, vous pouvez connecter facilement et en toute sécurité vos clouds entre eux pour simplifier la mise en réseau multicloud. »



Même si vous n’avez que deux ou trois fournisseurs dans votre réseau multicloud pour le moment, l’interconnexion de vos clouds profitera à votre entreprise pendant des années à mesure que vous développerez votre architecture. En améliorant les performances de votre réseau, en le rendant plus facile à gérer et en protégeant mieux vos données, un réseau cloud interconnecté vous permet en fin de compte d’avoir une entreprise plus productive et plus rentable.

Comment simplifier la gestion de votre multicloud en 2022

Alors que votre réseau multicloud devient de plus en plus complexe, sa gestion ne devrait plus être un problème. Voici comment tirer le meilleur parti des outils existants pour gérer le temps, les coûts et les performances avec votre réseau.


Selon une enquête récente sur l’adoption du cloud menée par Gartner®, « 63 % des entreprises ont un fournisseur de services cloud (CSP) principal et font également appel à des fournisseurs de services cloud supplémentaires, et 13 % recourent à de multiples fournisseurs de services sans avoir de fournisseur principal. Ainsi, 76 % des entreprises utilisent plusieurs fournisseurs de services. »1

À l’heure où le multicloud devient la norme, il est non seulement important de gérer les coûts croissants et les besoins en ressources de votre équipe, mais aussi de doter votre réseau de la flexibilité dont il a besoin pour fonctionner efficacement et assurer la sécurité de vos données. Alors, comment pouvez-vous gérer correctement votre infrastructure, qui ne cesse de croître et de se complexifier ?

En matière de gestion multicloud réussie et durable, quatre tendances clés peuvent être les plus utiles. Vous trouverez ci-dessous une explication de ces tendances, ainsi que des exemples pour vous guider dans votre propre démarche.

Revenez à l’essentiel avec notre guide du multicloud pour les débutants. À lire ici.




1. Utilisez les API pour automatiser les processus dans tous vos clouds


Une API ouverte (parfois nommée API publique) est une interface de programmation d’application qui permet aux développeurs de personnaliser une application logicielle propriétaire ou un service Web qu’ils gèrent. À l’instar des règles générales qui composent tout programme informatique, les API sont des ensembles d’exigences qui régissent la manière dont une application peut communiquer et interagir avec une autre – ce qui leur permet également d’être un outil clé pour l’amélioration de la sécurité de votre réseau.

Les API ouvertes constituent une aide précieuse pour les développeurs car elles leur permettent d’automatiser les processus sur l’ensemble de leur multicloud. Une étude récente du MIT révèle qu’une multiplicité d’entreprises adoptent en fait les API comme outil clé d’une démarche de transformation incrémentale. Les attentes des clients étant élevées et les systèmes en temps réel étant aussi essentiels que les autoroutes du monde réel, l’idée qui sous-tend l’utilisation des API est de déployer des améliorations parallèles qui remplacent progressivement les systèmes en place, nécessitant une maintenance et une surveillance constantes des applications réseau individuelles. 

Découvrez comment automatiser votre multicloud avec le fournisseur Terraform de Megaport.


Pour l’infrastructure multicloud d’une entreprise, les API peuvent automatiser les tâches quotidiennes, ce qui permet au personnel de se consacrer à d’autres projets. Si vous utilisez un routeur cloud vers cloud comme Megaport Cloud Router (MCR), vous pouvez même utiliser les API pour automatiser les connexions transversales virtuelles (VXC) – un circuit de couche 2 point-à-point entre deux des points de terminaison du réseau. Les API peuvent même automatiser les débits de données VXC en fonction de l’heure de la journée, de l’utilisation du trafic ou des besoins liés à des événements, afin que les entreprises ne dépensent pas trop en termes de capacité ou de ressources pour surveiller cette capacité. 

Ainsi, le réseau est mis à jour avec une meilleure visibilité et une gestion plus facile, ce qui laisse plus de temps aux équipes réseau pour se concentrer sur les projets qui font évoluer votre entreprise.

2. Connectez-vous à un fournisseur NaaS pour superviser tous vos clouds en un seul endroit.


Outre l’automatisation des tâches administratives sur l’ensemble de votre réseau multicloud, il est tout aussi important, pour améliorer la gestion du réseau, de s’aligner avec un fournisseur Network as a Service (NaaS). Le NaaS, pour ceux qui ne connaissent pas le terme, donne aux équipes les outils nécessaires pour exécuter toutes leurs applications cloud sur une couche réseau privée, en contournant l’Internet public, et pour gérer tous leurs déploiements cloud à partir d’un seul endroit. En consolidant vos connexions au cloud auprès d’un fournisseur NaaS, vous n’avez plus besoin de passer d’un réseau à l’autre, et le fait de pouvoir tout afficher simultanément vous fait gagner encore plus de temps. 

Le NaaS réduit également les dépenses d’investissement et d’exploitation en supprimant la nécessité de fournir ou de maintenir une infrastructure physique. Troisièmement, comme le NaaS est à la demande, les entreprises ne paient que ce qu’elles utilisent, ce qui évite tout surinvestissement dans l’infrastructure ou la capacité. 

Enfin, et c’est peut-être le plus important, le NaaS permet aux entreprises d’exploiter d’abord tous leurs clouds existants, avant de passer à de nouveaux réseaux. L’idée ici est, comme ailleurs, l’efficacité et l’optimisation des coûts. 


3. Gérez votre réseau multicloud pour qu’il se développe en interne au fil du temps


Une fois que vous disposez d’un réseau automatisé et consolidé, l’étape suivante consiste à appliquer ce que vous avez appris à l’ensemble de votre infrastructure de bout en bout. C’est là qu’intervient le réseau étendu défini par logiciel (SD-WAN), la nouvelle norme pour les entreprises qui s’efforcent d’obtenir une agilité ultime du réseau. 

Nous avons mentionné les avantages du SD-WAN dans nos articles de blog précédents, y compris une flexibilité, un contrôle et une sécurité améliorés qu’il confère à l’ensemble du réseau. Ces avantages ne font qu’augmenter lorsqu’ils sont combinés à d’autres technologies de sécurité natives du cloud pour une architecture SASE (Secure Access Service Edge). – mais nous décrivons cela plus en détails ici.

Que vous commenciez à envisager le SD-WAN pour votre entreprise ou que vous disposiez déjà d’une architecture SASE sophistiquée, l’avantage essentiel restera le même : Vous pouvez connecter les utilisateurs, les systèmes et les points de terminaison aux applications et aux services, en toute sécurité d’un endroit quelconque.

Le résultat pour votre multicloud est un réseau intelligent, intégré et sécurisé qui fonctionne 24 heures sur 24 et 7 jours sur 7 et capable d’assurer les performances nécessaires aux applications et ressources d’aujourd’hui hébergées dans des clouds publics, privés et hybrides. Lorsqu’il est développé au-dessus d’une couche réseau NaaS avec des API, il simplifie plus que jamais la gestion de vos clouds, et l’évolution de votre réseau en sera facilitée d’autant.

Les entreprises qui souhaitent mettre en place cette capacité devraient envisager de choisir un fournisseur associé à un prestataire de services de virtualisation des fonctions réseau (NFV), comme Megaport Virtual Edge (MVE) — pour dynamiser la vitesse, la sécurité et la gestion du réseau de succursale au cloud.

MVE étend de manière fluide la valeur de votre réseau SD-WAN et rapproche votre réseau privé de la périphérie grâce à des intégrations de niveau API entre Megaport et les principaux fournisseurs de SD-WAN du secteur, tels que Cisco, Fortinet, Versa, Aruba et VMware.

Allez plus loin en intégrant votre pile cloud En savoir plus ici.



4. Utilisez un service de routage cloud vers cloud pour intégrer vos clouds et interconnecter vos charges de travail.


L’étape finale de la simplification de votre multicloud consiste à gérer efficacement votre trafic et à optimiser vos chemins de routage cloud vers cloud. Le routage multicloud donne souvent lieu à ce que l’on appelle le hairpinning, lorsque le trafic doit faire des allers-retours entre les clouds via un centre de données ou un autre environnement sur site, ce qui a un impact sur la latence et ralentit les opérations. L’adoption d’un routage virtuel cloud vers cloud atténue ce problème, en réduisant la latence et les frais de sortie en permettant essentiellement à vos différents fournisseurs cloud de communiquer entre eux.

Avec MCR, par exemple, vous pouvez établir des échanges privés entre votre cloud et les fournisseurs de services en ligne en fournissant des connexions transversales virtuelles (VXC) – vos chemins virtuels personnalisés. Considérez-les comme des voies express privées que vous pouvez ouvrir à la demande pour votre réseau. Par conséquent, le routage est défini par l’utilisateur pour un meilleur contrôle, quels que soient les fournisseurs et les régions, les coûts sont réduits, les opérations accélèrent, la gestion est facilitée, et vous bénéficiez des fonctionnalités natives du cloud qui ouvre votre entreprise à de nouvelles opportunités de mise en réseau.



Conclusion


La gestion multicloud n’est plus un accessoire décoratif – elle est devenue LA priorité pour les entreprises. En simplifiant votre gestion multicloud grâce à des outils qui permettent l’automatisation, l’intégration, la gestion centralisée et la flexibilité pour évoluer, vous réduirez vos coûts et votre vitesse de mise sur le marché, et améliorerez la productivité de votre équipe.

Vous n’êtes pas non plus obligé d’examiner et de mettre en œuvre ces tendances clés dans l’ordre indiqué ci-dessus. En fait, il serait préférable de les examiner en tandem, car certains acteurs réseau neutres vis-à-vis des fournisseurs (comme Megaport) peuvent fournir tous les éléments ci-dessus pour simplifier encore plus votre gestion multicloud. Chaque implémentation soutiendra les autres pour créer un réseau qui permettra à votre entreprise de réaliser des bénéfices plus élevés, de mieux satisfaire ses clients et d’innover plus rapidement que vos concurrents.

Laissez-nous vous aider à commencer à simplifier votre réseau multicloud. Parlez de vos besoins à un architecte solution et nous ferons le reste.


1 Gartner, How to Plan for Optimal Multicloud and Intercloud Data Management, par Nina Showell, Adam Ronthal, 6 août 2021.

GARTNER est une marque déposée et une marque de service de Gartner, Inc. et/ou de ses sociétés affiliées aux États-Unis et à l’international, et son utilisation dans le présent article a été autorisée. Tous droits réservés.