Connect with us

Technologie

Les données, le réseautage et l’IA Générative : Les moteurs du Championnat de Golf Open !

Depuis sa création en 1754, le Royal and Ancient Golf Club (The R&A) incarne la tradition sportive et l’histoire du golf. Organisateur du prestigieux Open Championship, il innove également avec des réseaux de fibre optique souterrains et la connectivité mobile 5G privée. Lors de la 152e édition de l’Open à Royal Troon, plus de 250 000 spectateurs ont pu profiter d’une expérience numérique enrichie, grâce à des technologies avancées. Steve Otto, CTO de The R&A, souligne : « Nous voulons que les gens l’utilisent, mais sans le voir. » Une fusion parfaite entre tradition et innovation !

Published

on

Les données, le réseautage et l’IA Générative : Les moteurs du Championnat de Golf Open !

Depuis sa création en 1754, le Royal and Ancient Golf Club (R&A) est un pilier de la tradition sportive et de l’histoire du golf, veillant à la préservation des règles et de l’esprit du jeu, tout en organisant le prestigieux championnat Open chaque année. Cependant, l’organisation ne se limite pas à cela ; elle est également un fournisseur de réseaux de fibre optique souterrains et un pionnier dans le domaine de la connectivité mobile 5G privée.

Cette facette technologique est restée invisible pour les plus de 250 000 spectateurs qui se sont rendus sur le parcours de Royal Troon, sur la côte d’Ayrshire en Écosse, pour le 152e championnat Open, qui s’est tenu du 18 au 21 juillet. Pourtant, beaucoup d’entre eux ont profité des capacités de mise en réseau ainsi que d’une multitude d’innovations numériques mises en place par le R&A et son partenaire technologique NTT Data, visant à améliorer l’expérience des fans.

« Nous souhaitons que les gens l’utilisent sans vraiment le voir », déclare Steve Otto, directeur technique (CTO) du R&A, lors d’une visite des coulisses de la technologie qui soutient l’Open de cette année.

Contrairement à des événements sportifs fixes comme Wimbledon ou le Grand Prix de Grande-Bretagne, l’Open se déroule chaque année dans un lieu différent, rendant impossible l’établissement d’une infrastructure technologique permanente. Cependant, l’organisation est déterminée à garantir un environnement technologique de qualité et cohérent, ayant installé des câbles de fibre optique et des conduits à un mètre sous terre autour des neuf parcours de golf qui composent actuellement la liste de l’Open.

« C’est un investissement sur dix ans », explique Otto. « La planification pour chaque tournoi est un processus continu ; cela varie simplement selon l’emplacement. Les éléments spécifiques au lieu, comme la fibre, sont planifiés des années à l’avance. Une partie de notre travail consiste à enfouir la fibre pour garantir une résilience suffisante. »

Cette stratégie d’investissement à long terme en fibre optique prend tout son sens lorsqu’on considère qu’un autre grand championnat de golf, la Ryder Cup 2023, qui s’est tenue au Marco Simone Golf & Country Club à Rome, a rencontré des problèmes en raison de rongeurs, car les câbles de fibre n’ont pas pu être installés dans des conduits souterrains en raison de protections archéologiques.

5G Privée

Un autre défi lié à la diversité des lieux chaque année est la durabilité. En général, le village temporaire mis en place pour accueillir les 250 000 fans et les médias du monde entier nécessite des connexions sur site vers le réseau de fibre optique, utilisant des câbles Cat5 qui sont installés pour l’événement et ensuite jetés.

Pour remédier à cela, NTT Data a testé l’utilisation d’un « réseau 5G privé dans une boîte » à Troon, centré sur la zone d’hospitalité. Cela a nécessité l’achat temporaire d’un spectre radio auprès de l’autorité de régulation des télécommunications, Ofcom, une exigence pour toute installation de 5G privée au Royaume-Uni. Cela a permis une connectivité dans un rayon de 2 km pour tout appareil disposant d’une carte nanoSIM appropriée, offrant une bande passante de 400 Mbps.

5G Privée
La 5G privée de NTT Data a contribué à améliorer les efforts de durabilité lors de cet événement en évitant l’installation de câbles qui seraient rapidement jetés.

La prochaine génération d’équipements de mise en réseau proposera des capacités eSIM, permettant aux fans de l’Open de scanner simplement un code QR pour activer le logiciel eSIM et se connecter à la 5G privée. Cela revêt une grande importance pour le R&A, car ils souhaitent maximiser l’engagement des fans avec l’événement ; plus ils utilisent les offres numériques disponibles, mieux c’est.

Par exemple, pour le 150e Open en 2022, le R&A et NTT Data ont lancé Shot View, une représentation virtuelle précise de chaque parcours, permettant aux fans de suivre chaque coup joué par les golfeurs en compétition grâce à un jumeau numérique représentant la trajectoire réelle de chaque tir, en temps quasi réel.

Otto affirme que Shot View a multiplié par dix le temps que les fans passent sur l’application de l’Open.

Shot View
Shot View permet aux fans de suivre chaque coup joué lors de la compétition.

Chaque parcours de l’Open a été cartographié à l’aide de drones et de scans Lidar pour capturer chaque bosse, bunker et pente avec une précision de 2 cm. Pendant le championnat, des caméras de vision par ordinateur installées à chaque trou suivent les balles de golf sur le green, tandis que 60 personnes autour du parcours utilisent des traceurs GPS pour enregistrer l’emplacement sur le fairway où chaque balle s’arrête.

Toutes ces données sont intégrées dans un environnement de réalité virtuelle (VR) fonctionnant sur Unreal Engine, l’un des moteurs de jeu les plus populaires, pour tracer chaque mouvement de la balle. Au fur et à mesure que les joueurs s’élancent à chaque trou, les fans peuvent utiliser Shot View pour voir exactement comment ils ont joué le trou les jours précédents, tout en restant informés de ce qui se passe sur l’ensemble du parcours.

Visualisation des données

Shot View alimente également le NTT Data Wall, un écran de 20 mètres de large composé de 400 panneaux LED, situé au cœur du village des spectateurs. Cet écran diffuse des images en direct de l’événement, accompagnées de visualisations de données provenant de l’environnement VR.

Des caméras de vision par ordinateur montées au sommet du mur surveillent l’activité des spectateurs pour améliorer la gestion des foules. Tom Winstanley, CTO chez NTT Data, indique que les caméras montrent également combien de personnes s’installent simplement devant l’écran pour suivre l’action, à l’instar de la célèbre Henman Hill à Wimbledon.

Mur de données
L’écran NTT Data Wall affiche des images en direct aux côtés d’un environnement VR pour fournir des informations aux spectateurs.

Toute cette collecte de données suscite un intérêt encore plus grand pour Otto. Impliqué avec le R&A depuis 1998, lorsqu’il était professeur de mathématiques à l’Université de Birmingham et a dirigé un projet modélisant le comportement d’une balle de golf lorsqu’elle est frappée par un club, il a rejoint le R&A à plein temps six ans plus tard.

Avec une formation en aérodynamique et près de trois ans en tant que scientifique à la NASA, son rôle dans l’utilisation des données pour améliorer non seulement le jeu, mais aussi l’expérience des spectateurs, est devenu essentiel.

L’Open : Un Moteur pour le Golf

Le tournoi de l’Open, tout comme le golf dans son ensemble, joue un rôle essentiel dans l’évolution de ce sport.

L’Évolution des Normes Équipement

« À mon arrivée, l’équipe en charge des normes d’équipement était très réduite, se souvient Otto. L’organisation R&A a compris qu’il était crucial d’investir dans ce domaine et a donc créé un centre technologique de pointe pour tester les clubs et les balles. Cela nous permet de participer activement aux discussions sur l’équipement. »

La R&A est l’entité responsable de la régulation des règles du golf, y compris celles concernant l’équipement. Avec des données remontant à un siècle, bien que les informations soient plus limitées dans le temps, souvent réduites à des scores, l’organisation a commencé, dans les années 1990, à enregistrer des données complètes sur deux trous de chaque parcours de l’Open, avant de passer à une collecte de données sur l’ensemble du parcours.

Simulation et Apprentissage Automatique

Otto explique que la R&A peut désormais simuler des tournois passés et utiliser des algorithmes d’apprentissage automatique pour modéliser l’impact des modifications des règles ou des spécifications d’équipement.

À partir de 2028, la R&A mettra en place une nouvelle spécification pour les balles de golf, d’abord pour les professionnels, puis, à partir de 2030, pour tous les golfeurs, quel que soit leur niveau. Cette décision a été motivée par le fait que les golfeurs modernes et les clubs peuvent frapper la balle plus loin que jamais. Les nouvelles balles seront conçues pour réduire la distance parcourue, garantissant ainsi la durabilité des parcours et maintenant la compétitivité.

« C’était une décision basée sur les données, » précise Otto. « Nous continuons à explorer les implications futures des clubs, en engageant des discussions où nous ne nous contentons pas de donner notre avis, mais où nous analysons les données. »

Gouvernance des Données

Otto souligne l’importance de la gouvernance des données, qu’il qualifie de « partie la plus ennuyeuse ». Pour la R&A, cela signifie savoir quelles données conserver et pourquoi, ainsi que définir correctement les données pour améliorer les analyses futures.

« Que ce soit par l’intelligence artificielle ou par des méthodes humaines, c’est ce que l’année à venir nous réserve, » déclare-t-il. « Nous avons des interactions avec les handicaps de nombreux golfeurs à travers le monde. Notre base de données contient près de 500 millions de parties de golf, un chiffre impressionnant. »

« Nous n’avons donc plus besoin de deviner comment les joueurs se comportent – nous connaissons leurs profils de score. Au lieu de prendre des décisions basées sur de petites quantités de données, nous espérons pouvoir nous appuyer sur des chiffres significatifs. »

En regardant vers l’avenir, Otto envisage des innovations telles que l’analyse des données des trackers de fitness des golfeurs amateurs pour mieux comprendre leur jeu. En Corée du Sud, les simulateurs de golf connaissent un succès fulgurant, et il s’interroge sur l’utilité de ces données.

Pour les golfeurs amateurs, imaginez à quel point ils pourraient améliorer leur jeu en accédant à des analyses similaires à celles que reçoivent les professionnels après des tournois comme l’Open.

Intelligence Artificielle Générative

Toutes ces données présentent également un potentiel évident pour former un modèle de langage de grande taille (LLM) destiné à l’intelligence artificielle générative (GenAI). Cette année, NTT Data a testé un avatar numérique nommé Lottie dans un environnement contrôlé, où les visiteurs peuvent poser des questions et Lottie répond en s’appuyant sur un système GenAI.

Winstanley de NTT Data explique que la version de Lottie de cette année utilise un développement récent appelé IA agentique, où les réponses fournies aux utilisateurs proviennent de plusieurs LLM et sont combinées pour créer l’information partagée.

Lors d’une démonstration de Lottie, il a été noté que, comme beaucoup d’outils GenAI, la qualité des réponses pouvait varier et que la rapidité de réponse était parfois lente, car l’écran de type kiosque accède à un système basé sur le cloud.

NTT Data a récemment annoncé une gamme de produits d’IA de périphérie, qui pourraient à l’avenir accélérer les réponses en gardant l’inférence IA locale. Combiné à un réseau 5G privé, cela pourrait permettre à Lottie d’être utilisé par les fans sur le parcours via l’application de l’Open.

La R&A continuera de préserver les traditions du golf, mais l’Open démontre comment les données et la technologie maintiennent le sport pertinent et captivant pour ses nombreux admirateurs.

Pour Otto, passionné de golf, son travail est « fantastique » : « Je suis scientifique de formation. J’ai travaillé sur des projets très techniques, mais beaucoup de ces travaux concernaient des éléments très spécifiques. L’un des meilleurs aspects de mon travail est que je peux voir l’ensemble du tableau. Je collabore avec des personnes très compétentes qui en savent beaucoup plus que moi, et ensemble, nous réalisons des choses extraordinaires. C’est formidable. »

Technologie

Le PDG de Broadcom anticipe la montée en puissance des hyperscalers avec des clusters d’un million d’accélérateurs !

Hock Tan, le PDG de Broadcom, a des prévisions audacieuses pour l’avenir des clusters d’IA. Selon lui, les clients hyperscale continueront à construire ces infrastructures pendant encore trois à cinq ans, chaque génération doublant en taille. Lors d’une interview avec Jim Cramer, Tan a souligné que la demande pour des puces AI personnalisées pourrait être forte, malgré une légère baisse initiale des actions de Broadcom. Avec des besoins en puissance de calcul multipliés par deux ou trois, l’avenir s’annonce prometteur pour les « XPUs », des silicons d’accélération AI qui pourraient surpasser les GPU. L’innovation est en marche !

Published

on

Le PDG de Broadcom anticipe la montée en puissance des hyperscalers avec des clusters d’un million d’accélérateurs !

Perspectives‌ sur l’Avenir des ⁢Semi-conducteurs et​ de l’IA

Prévisions de Croissance dans le Secteur des ⁣Semi-conducteurs

Hock‌ Tan, le PDG de Broadcom, a ‍exprimé sa conviction que ses clients hyperscale continueront‌ à développer des clusters d’intelligence artificielle (IA) pendant encore trois⁣ à cinq ans, avec chaque nouvelle génération de machines doublant⁢ en taille. ⁣Lors ⁣d’une interview avec Jim Cramer sur CNBC, Tan a été interrogé ​sur la récente fluctuation de ‌l’action de Broadcom, ‌qui avait⁣ chuté après des résultats du troisième trimestre jugés décevants par certains⁣ analystes, suggérant un‌ ralentissement de l’intérêt pour les puces⁢ d’IA. Cependant, une semaine plus tard, l’action a rebondi, soutenue par des signaux de marché indiquant une demande potentiellement forte pour des ‌puces d’IA sur mesure.

Une‌ Demande Croissante pour des Capacités de Calcul

Tan ⁢a souligné que les plans ​des hyperscalers montrent une intention claire de construire de grands clusters, nécessaires au développement de nouveaux modèles de langage. Ces constructions pourraient être réalisées chaque année, nécessitant deux à trois fois plus de puissance‍ de calcul que⁢ leurs prédécesseurs. Cela engendrera⁤ une opportunité de calcul plus vaste, que Tan ‍prévoit d’être satisfaite par‍ des « XPUs » – des puces⁤ d’accélération d’IA pour les ⁤réseaux et autres composants, dont la croissance devrait surpasser‍ celle des GPU dans les années à‍ venir. Broadcom est prêt à ⁣produire⁣ ces XPUs en grande quantité pour ses clients hyperscale.

Évolution des Clusters d’IA

Actuellement, les clusters d’IA que construisent les‍ hyperscalers utilisent environ 100 000⁤ accélérateurs, mais​ les futures configurations pourraient nécessiter⁤ jusqu’à un ⁢million‍ d’accélérateurs. Broadcom ‌vise⁢ à concevoir ces⁤ systèmes spécifiquement pour ses clients hyperscale, un segment que Tan considère comme son meilleur potentiel⁤ de marché. Pendant ce temps, Nvidia et AMD se préparent à ‌une compétition acharnée pour​ le marché des GPU et les logiciels associés, tandis que Meta‌ a déjà exprimé son intention‍ de‍ développer des puces d’IA personnalisées pour compléter ⁣ses 600 000 GPU‍ Nvidia.

Perspectives du Marché des Semi-conducteurs

Tan⁤ a également noté que ‍le marché des semi-conducteurs a atteint un creux cette année, ⁤dans ​le cadre des ⁣cycles normaux de l’industrie.​ Cependant, la pandémie⁢ de ​COVID-19 a ⁢provoqué un cycle de croissance atypique qui‍ a ⁢commencé à‌ s’inverser à la⁢ fin de‌ 2023 et au début de‌ 2024. Il prévoit que 2025 et 2026‍ seront des années de croissance pour les⁤ semi-conducteurs non liés à l’IA.

Amélioration ⁣des‌ Ventes de Connectivité

Interrogé sur ‌l’impact de cette inversion sur ⁣les ⁣ventes de semi-conducteurs pour⁤ la connectivité Wi-Fi et le‌ stockage, qui avaient stagné ou chuté au dernier trimestre, Tan a⁢ affirmé que cela « sera absolument le ‌cas ». Il a mentionné que des signes de croissance séquentielle forte sont déjà visibles depuis le creux du deuxième trimestre, grâce à la ​demande des entreprises.

Réformes chez VMware

Concernant VMware, Tan a exprimé sa satisfaction quant ​aux réformes mises ⁢en place au sein de‌ la société de virtualisation. Il a⁤ expliqué ⁢que les améliorations apportées aux ⁢produits ont permis de passer d’une simple virtualisation de calcul à une virtualisation complète des centres de données, créant ainsi ‌une expérience⁣ cloud sur site. ‌VMware propose des solutions de virtualisation de calcul, de stockage ⁣et ⁣de⁢ réseau depuis une décennie, et Tan a probablement fait référence à Cloud Foundation 5.2, qui​ permet pour la première fois de gérer ces trois aspects sous une ‍seule plateforme de gestion. Cela représente⁢ environ 80 % du travail nécessaire pour⁢ réaliser la vision de Broadcom ​d’un ⁣centre de ⁤données entièrement virtualisé, bien que Tan n’ait‌ pas précisé de calendrier pour cette réalisation.

Continue Reading

Général

Tor défend la sécurité de son réseau après la condamnation d’un administrateur du dark web pour CSAM par la police allemande

Le projet Tor défend avec vigueur ses capacités de protection de la vie privée, malgré des allégations selon lesquelles l’anonymat des utilisateurs aurait été compromis par la police allemande. Un rapport de Panorama et de STRG_F évoque des techniques d’analyse temporelle permettant d’identifier des utilisateurs de Tor. Bien que Tor utilise un réseau complexe de nœuds pour masquer l’origine des connexions, des failles dans des logiciels obsolètes pourraient exposer certains utilisateurs. Le message est clair : ne paniquez pas.

Published

on

Tor défend la sécurité de son réseau après la condamnation d’un administrateur du dark web pour CSAM par la police allemande

Technologie

Le projet Tor a réaffirmé la robustesse de ses capacités de protection de la vie privée, en réponse à des rapports allemands suggérant que l’anonymat des utilisateurs sur son réseau pourrait avoir été compromis par les forces de l’ordre.

Une enquête menée par le magazine allemand Panorama et la chaîne de journalisme d’investigation STRG_F indique que la police criminelle fédérale allemande (BKA) et le bureau du procureur général de Francfort ont réussi à identifier au moins un utilisateur de Tor après avoir effectué une surveillance du réseau.

Le rapport évoque l’analyse temporelle comme la méthode clé pour identifier les utilisateurs de Tor. Il explique que « la chronométrie des paquets de données individuels permet de retracer des connexions anonymisées jusqu’à l’utilisateur de Tor, même si les connexions de données sur le réseau Tor sont chiffrées plusieurs fois », sans toutefois détailler le fonctionnement de cette technique.

Tor offre une anonymité renforcée à ses utilisateurs en faisant passer leur trafic à travers un réseau de nœuds, rendant ainsi l’origine réelle d’une connexion difficile à déterminer. Le trafic envoyé vers Tor est enveloppé dans des couches de chiffrement et atteint d’abord un nœud d’entrée ou de garde. Ensuite, il rebondit à travers au moins trois serveurs choisis au hasard, appelés « relays », avant de revenir sur des réseaux publics via un nœud de sortie ou de se connecter à un service .onion. Ce processus masque la source d’une connexion et complique l’observation des activités en ligne d’un utilisateur à partir de son trafic réseau.

L’observation des tendances d’utilisation à long terme, comme le suggère la méthodologie d’analyse temporelle, pourrait potentiellement affaiblir l’efficacité de Tor en fournissant des indices aux observateurs sur les utilisateurs qui envoient du trafic dans le réseau. Par exemple, une personne pourrait ajouter des nœuds au réseau Tor et noter le timing des paquets observés entrant et sortant. Avec le temps, ces chronométries pourraient révéler l’identité de ceux qui se connectent à un service .onion particulier.

Matthias Marx, porte-parole du célèbre collectif de hackers européen Chaos Computer Club (CCC), a confirmé la méthode en déclarant que les preuves disponibles « suggèrent fortement que les autorités judiciaires ont mené à plusieurs reprises et avec succès des attaques d’analyse temporelle contre des utilisateurs de Tor sélectionnés afin de les dé-anonymiser. »

Le projet Tor, bien qu’il admette ne pas avoir eu accès à tous les documents impliqués malgré ses demandes aux journalistes, pense que la police allemande a pu démasquer un utilisateur de Tor en raison de l’utilisation par cette personne d’un logiciel obsolète, plutôt que d’exploiter une vulnérabilité inconnue.

Le rapport allemand indique que l’attaque par analyse temporelle a été utilisée lors d’enquêtes sur un individu connu sous le nom de « Andres G », soupçonné d’être l’opérateur d’un site .onion appelé Boystown, qui hébergeait du matériel d’abus sexuel d’enfants (CSAM).

« G » aurait utilisé l’application de messagerie anonyme Ricochet, qui transmet des données entre expéditeurs et destinataires via Tor. Plus précisément, il est dit qu’il utilisait une version du programme de chat qui ne sécurisait pas ses connexions Tor contre les méthodes de dé-anonymisation basées sur le timing utilisées par la police.

Le rapport indique que les autorités allemandes ont obtenu la coopération de l’opérateur de télécommunications Telefónica, qui a fourni des données sur tous les clients O2 connectés à un nœud Tor connu. En associant ces informations avec les observations des temps de connexion Tor, les autorités ont pu identifier « G », qui a été arrêté en Rhénanie-du-Nord-Westphalie, inculpé, condamné et emprisonné pendant plusieurs années en 2022.

Tor soutient que cette méthode ne prouve pas que son service est défaillant. L’organisation avance plutôt l’hypothèse qu’en utilisant le Ricochet non sécurisé, « G » a été victime d’une attaque de découverte de nœud de garde. En d’autres termes, la police a pu déterminer le nœud d’entrée ou de garde qu’il utilisait pour envoyer des données sur le réseau Tor. La police peut demander à Telefónica de lister les abonnés qui se sont connectés à ce nœud de garde et déduire l’identité de l’utilisateur de Tor.

Tor affirme que « G » a probablement utilisé une ancienne version de Ricochet qui ne comportait pas de protections contre de telles attaques. « Cette protection existe dans Ricochet-Refresh, un fork maintenu du projet Ricochet, depuis la version 3.0.12 publiée en juin 2022 », indique le rapport de Tor.

Pour l’analyse temporelle du trafic, il est nécessaire de compromettre un nœud de garde, car c’est le premier dans le circuit Tor et il peut voir l’adresse IP de l’utilisateur, a déclaré Bill Budington, technologue senior à l’EFF. Si le nœud de garde ne peut pas être compromis directement, les temps de réseau peuvent être obtenus pour compléter la surveillance.

Les utilisateurs de Tor s’inquiètent de la possibilité que le réseau soit submergé par des nœuds contrôlés par la police, compromettant ainsi leur anonymat. Cependant, le nombre de nœuds nécessaires pour cela devrait être considérable. Le projet Tor a reconnu avoir constaté une augmentation des nœuds de sortie déployés, dépassant les 2 000 récemment, mais a affirmé qu’il n’y avait pas de quoi s’inquiéter.

« La déclaration selon laquelle le réseau est ‘mal en point’ est tout simplement fausse », a déclaré Pavel Zoneff, directeur des relations publiques de Tor. « L’équipe de santé du réseau a mis en place des processus pour identifier de possibles grands groupes de relais soupçonnés d’être gérés par des opérateurs uniques et des acteurs malveillants, et de ne pas les laisser rejoindre le réseau. En conséquence, elle a signalé de nombreux mauvais relais pour suppression, qui ont ensuite été bannis par les autorités de répertoire. Beaucoup d’entre eux ne représentaient probablement aucune menace réelle pour les utilisateurs », a-t-il ajouté.

Le projet a également demandé de l’aide pour comprendre exactement ce que la police a fait. « Nous avons besoin de plus de détails sur cette affaire », a déclaré l’équipe. « En l’absence de faits, il est difficile pour nous de fournir des conseils officiels ou des divulgations responsables à la communauté Tor, aux opérateurs de relais et aux utilisateurs. »

Pour l’instant, le message est : « Ne paniquez pas. »

Continue Reading

Général

NTT Data et IBM s’associent pour révolutionner le cloud mainframe des banques !

La technologie des mainframes</strong connaît une renaissance grâce à NTT Data, le géant japonais des services informatiques. Ils lancent SimpliZCloud, un service hybride basé sur la plateforme IBM LinuxONE, exclusivement destiné aux acteurs des services financiers en Inde. Cette innovation promet d’optimiser les applications bancaires et de gestion des risques, tout en consolidant les ressources informatiques. NTT Data affirme que cette solution surpassera les serveurs x86, notamment en matière de coûts de licences logicielles et d’applications IA/ML. Une nouvelle ère pour les mainframes s’annonce !

Published

on

NTT Data et IBM s’associent pour révolutionner le cloud mainframe des banques !

Le Mainframe : Une Nouvelle Vie dans le Cloud Hybride

Le mainframe a trouvé une nouvelle vocation grâce à NTT Data, un géant des services informatiques japonais, qui a décidé de développer un service de cloud hybride basé sur la plateforme IBM LinuxONE.

Ce service, nommé SimpliZCloud, sera pour l’instant exclusivement proposé aux acteurs des services financiers en Inde.

NTT Data prévoit que cette solution sera bénéfique pour les charges de travail liées aux applications bancaires essentielles, aux prêts et à la gestion des risques, tout en permettant une consolidation des ressources informatiques et des budgets.

Une Réduction de l’Empreinte Écologique

Selon NTT Data, « À mesure que les entreprises consolident leurs charges de travail, elles pourront réduire leur empreinte des centres de données, favorisant ainsi une durabilité accrue. » L’entreprise met en avant des performances supérieures à celles des serveurs x86, notamment en ce qui concerne les coûts des licences de logiciels d’entreprise et l’exécution d’applications d’intelligence artificielle et d’apprentissage automatique.

  • Une banque indienne rejette les accusations d’exposition des comptes de 180 millions de clients
  • IBM procède à des suppressions de postes en silence, selon des sources
  • Les mainframes ne sont pas obsolètes, ils apprennent simplement des techniques d’IA
  • L’IA pourrait menacer la démocratie et provoquer des guerres, avertit NTT du Japon

Une Perception Évolutive des Mainframes

La sagesse conventionnelle suggère que les mainframes demeurent une option coûteuse mais puissante pour certaines applications. En avril, le cabinet d’analyses Gartner a noté que « les organisations possédant un mainframe remettent périodiquement en question l’avenir de cette plateforme, car elle est perçue comme dépassée, difficile à gérer et coûteuse par rapport à des alternatives telles que le client/serveur et le cloud public. »

Gartner a également souligné que le succès continu d’IBM dans la vente de mainframes est en grande partie dû aux caractéristiques de ces machines, mais aussi à la crainte des coûts, de la complexité et des risques associés à une migration.

Pour information, IBM affirme que près de 70 % des transactions mondiales en valeur transitent par ses mainframes, et son dernier modèle a enregistré des ventes record.

Une Réévaluation dans le Secteur Financier Indien

Quoi qu’il en soit, NTT Data est convaincu que ces machines sont pertinentes pour l’industrie des services financiers en Inde. L’entreprise a même collaboré avec le cabinet d’analyses International Data Corp (IDC) pour rédiger un rapport qui arrive à une conclusion similaire.

Peter Marston d’IDC a écrit : « Les recherches d’IDC ont révélé que les organisations s’attendent à s’appuyer davantage sur leurs applications mainframe à l’avenir, considérées comme des moteurs clés pour alimenter les opérations d’entreprise, l’intimité client et l’innovation. »

Cette résurgence est en partie attribuée à l’essor de l’IA et de l’apprentissage automatique, selon Avinash Joshi, PDG de NTT Data India.

Joshi a expliqué : « Les applications commerciales critiques, en particulier celles intégrant l’IA et l’apprentissage automatique, disposeront désormais de l’infrastructure nécessaire pour offrir des performances bien supérieures aux architectures x86 traditionnelles, le tout dans un modèle entièrement géré et en tant que service. »

NTT Data et IBM n’ont pas encore divulgué les spécifications du cloud, ni s’ils envisagent de l’étendre à d’autres pays, ce qui semble tout à fait envisageable étant donné que ces deux géants de la technologie, tout comme l’industrie bancaire, opèrent à l’échelle mondiale. Nous avons posé la question et nous vous tiendrons informés si une réponse substantielle nous parvient.

Continue Reading

Trending

Copyright © 2024 Tecknews.