Technologie

Dans des termes simples, l’edge computing se définit comme le fait de rapprocher les charges de travail des utilisateurs finaux afin de diminuer la latence réseau liée aux services cloud. Bien que cet aspect soit crucial, la réduction de la latence réseau ne représente qu’un tiers du processus. Ce qui définit l’edge, c’est la diminution de la latence liée au calcul, au réseau et au stockage.

Pourquoi l’Edge est-il en Forte Demande ?

Imaginez que votre centre de données cloud soit situé à proximité de vos utilisateurs finaux, avec une latence réseau inférieure à 20 millisecondes. Étant donné l’ampleur des centres de données cloud à travers le monde, on pourrait penser que les services edge ne seraient nécessaires que dans des zones éloignées, entraînant une demande faible. Cependant, la réalité est différente ; nous observons une forte demande pour les solutions edge, principalement en raison des latences liées au calcul et au stockage.

La latence de calcul détermine le temps nécessaire pour traiter une requête, depuis la mise en service d’une instance de calcul jusqu’au retour du résultat. La latence de stockage, quant à elle, représente le temps requis pour accéder aux données pertinentes.

La Nécessité de la Vitesse

Pour diminuer la latence liée au calcul, les fournisseurs de services edge proposent des environnements d’exécution natifs basés sur des technologies telles que WebAssembly, un format d’instruction binaire conçu comme une cible de compilation portable pour les langages de programmation. WebAssembly permet des démarrages à froid de moins d’une milliseconde, ce qui est particulièrement crucial lors de la gestion de variations importantes de trafic, permettant ainsi aux services de s’adapter sans compromettre les performances.

Pour réduire la latence de stockage, les solutions edge utilisent des magasins de valeurs clés, qui offrent des performances très rapides pour les lectures et les écritures, car la base de données recherche une seule clé et renvoie sa valeur associée, plutôt que de naviguer dans des matrices complexes.

La réduction de la latence réseau n’est pas une tâche simple non plus, et elle peut prendre plusieurs formes, d’où les termes « far edge » et « near edge ». Le far edge héberge des instances de calcul dans des infrastructures de services tiers, avec des temps de latence inférieurs à 20 millisecondes. Le near edge implique des instances de calcul déployées localement et gérées par le client, permettant des temps de latence réseau négligeables.

Cette Vitesse est-elle Essentielle ?

De nombreux rapports montrent qu’une augmentation de quelques secondes des temps de chargement des pages entraîne une diminution significative des conversions. Cependant, je pense que ce n’est pas la seule raison d’investir dans des technologies visant à réduire les latences et les temps de chargement. Au fil du temps, la quantité de données et de processus associés à une page web ou à un service en ligne a considérablement augmenté. Si nous continuons à utiliser les mêmes technologies, nous risquons rapidement de dépasser les normes de performance des services modernes. Je suis convaincu que la création et l’exploitation de services natifs edge garantissent la pérennité de l’infrastructure et éliminent les goulets d’étranglement liés à l’innovation future.

Prochaines Étapes

Pour approfondir vos connaissances, consultez les rapports de GigaOm sur les plateformes de développement edge, qui fournissent un aperçu complet du marché, décrivent les critères à considérer lors d’une décision d’achat et évaluent la performance de plusieurs fournisseurs par rapport à ces critères.

  • Critères Clés de GigaOm pour Évaluer les Plateformes de Développement Edge
  • Radar de GigaOm pour les Plateformes de Développement Edge
Show Comments (0)
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *