Technologie
L’Oncle Sam enquête sur les turbulences de CrowdStrike chez Delta Air Lines !
Le Département des Transports des États-Unis enquête sur Delta Air Lines suite à un incident informatique mondial causé par une mise à jour de CrowdStrike. Depuis vendredi, Delta a annulé des centaines de vols chaque jour, atteignant un total de 1 150 vols annulés lundi. Le secrétaire aux Transports, Pete Buttigieg, a exprimé son inquiétude face à la réaction lente de Delta par rapport aux autres compagnies aériennes. Les passagers se plaignent de l’absence de soutien client, certains ayant dû dormir à l’aéroport. Delta promet de rétablir la situation rapidement, mais les défis demeurent.
Le ministère des Transports des États-Unis (DoT) enquête sur Delta Air Lines concernant sa gestion de la CrowdStrike : ce que cela signifie pour la santé publique ! »>panne informatique mondiale causée par une mise à jour de contenu de CrowdStrike.
Depuis vendredi, Delta a rencontré des difficultés majeures, annulant des centaines de vols chaque jour. Lundi, la compagnie a annulé un impressionnant total de 1 150 vols, et depuis la semaine dernière, des centaines d’autres ont été retardés, perturbant ainsi les projets de voyage de nombreux passagers.
« Nous avons lancé une enquête aujourd’hui car ce que nous avons observé chez Delta est très différent de ce que nous avons vu chez les autres compagnies aériennes », a déclaré le secrétaire aux Transports, Pete Buttigieg, lors d’une conférence de presse mardi.
« L’ensemble de l’économie mondiale a été touché vendredi, y compris les compagnies aériennes aux États-Unis et à l’étranger. Cependant, la plupart de ces compagnies ont réussi à se remettre sur pied en quelques jours. Delta, en revanche, n’est toujours pas revenue à la normale aujourd’hui. »
« Nous avons reçu environ 3 000 plaintes de passagers… c’est inacceptable. Nous sommes préoccupés à la fois par les retards et les annulations, mais aussi par la difficulté à joindre un représentant du service client. »
« Nous avons ouvert une nouvelle ère d’application des règles avec l’action que nous avons prise contre Southwest [en 2023]. Une amende record de 140 millions de dollars, destinée à envoyer un message à l’industrie et à garantir la responsabilité ainsi qu’une compensation pour les passagers. Bien sûr, je ne peux pas préjuger d’une enquête qui vient de commencer concernant Delta. Mais je dirai que le même niveau d’exigence que nous avons établi nous guidera à partir de maintenant. »
Dans un tweet de son compte personnel, Buttigieg a partagé des anecdotes de clients de Delta qui ont dû passer la nuit sur le sol d’un aéroport en attendant des informations sur leurs vols, sans accès au support client.
Dans sa mise à jour sur les progrès de mardi, Delta a présenté des « points saillants » de ses efforts pour remédier aux problèmes en cours, notamment une diminution de 50 % des annulations de vols d’un jour à l’autre, une augmentation de 43 % des volumes de vols à Atlanta par rapport à lundi, et une résolution de 75 % des problèmes dans son système de suivi des équipages.
La grande compagnie aérienne a qualifié les jours suivant la panne de « extrêmement difficiles » et a déclaré que son personnel « héroïque » et environ 1 500 bénévoles travaillent « sans relâche » pour rétablir le service à temps pour le week-end à venir.
« Les équipes travaillent jour et nuit pour repositionner les avions et le personnel là où ils doivent être afin que nous puissions revenir à des opérations normales d’ici la fin de la semaine », a déclaré John Laughter, directeur des opérations et président de Delta TechOps. « Nous constatons des progrès solides d’un jour à l’autre dans les indicateurs opérationnels dont toute l’équipe peut être fière. »
« Avec notre concentration collective, nous continuerons cette dynamique pour être en bonne forme avant le week-end chargé. »
Delta n’est pas la seule grande compagnie aérienne américaine gravement touchée par la panne informatique mondiale de vendredi dernier. Allegiant Air, American Airlines, Frontier Airlines, Spirit Airlines et United Airlines ont également été affectées par l’interdiction de vol de la Federal Aviation Administration ce jour-là, bien que la plupart aient largement récupéré depuis.
(Des rapports selon lesquels Southwest Airlines aurait évité le désastre parce qu’elle utilisait Windows 3.1 se sont révélés être basés sur un tweet viral trompeur ; elle n’utilise pas le système d’exploitation Microsoft de 1992 de cette manière.)
Stratégies de Récupération
Les premiers conseils donnés aux administrateurs informatiques chargés de réparer environ 8,5 millions de terminaux ayant rencontré des écrans bleus de la mort après la mise à jour de contenu de CrowdStrike consistaient à démarrer les machines affectées en mode sans échec et à supprimer le fichier défectueux à l’origine du problème.
- CrowdStrike attribue ce désastre mondial à un bug dans un logiciel de test.
- Comment un fichier de configuration de CrowdStrike a-t-il fait planter des millions d’ordinateurs Windows ? Nous examinons de plus près le code.
- Les administrateurs ont des leçons à tirer de la panne de CrowdStrike.
- Les cybercriminels profitent de la crise de CrowdStrike avec des domaines de typosquatting.
Les utilisateurs du cloud Microsoft Azure ont signalé avoir dû redémarrer leurs systèmes jusqu’à 15 fois avant que la solution de CrowdStrike ne prenne effet. Quoi qu’il en soit, les méthodes étaient très manuelles, ce qui explique pourquoi tant d’organisations ont mis autant de temps à se remettre.
CrowdStrike a depuis lancé un programme d’opt-in pour permettre la restauration automatique des terminaux des clients via le cloud, bien que l’efficacité de cette méthode varie considérablement d’un client à l’autre.
Au cours des dernières heures, le fournisseur a également publié un rapport préliminaire sur l’incident. Bien que ce soit une lecture assez longue, l’essentiel est que le fichier défectueux n’a pas été détecté car le composant responsable de la vérification de chaque modèle de logique de détection appliqué au Falcon Sensor n’a pas signalé un modèle particulier avant son expédition. Cela signifie que les problèmes causés par le fichier de canal n’ont pas été identifiés avant qu’il ne soit envoyé aux clients.
Coûts Élevés
Savanthi Syth, analyste aérien pour Raymond James, a déclaré à CNN qu’elle s’attendait à ce que les coûts de Delta s’élèvent à environ 163 millions de dollars lundi – un chiffre qui devrait augmenter à mesure que les annulations se poursuivent et que des paiements supplémentaires sont effectués pour le personnel travaillant en heures supplémentaires.
Selon des experts interrogés par le Financial Times, de nombreux assureurs se préparent également à une série de paiements importants dans les semaines à venir pour couvrir les coûts d’interruption d’activité, de perturbation de la continuité des affaires et de dommages matériels.
Burns & Wilcox a déclaré s’attendre à ce que le bas de leur estimation soit de 1 milliard de dollars en coûts totaux, tandis que d’autres étaient moins enclins à chiffrer les estimations à ce stade précoce.
Technologie
Le PDG de Broadcom anticipe la montée en puissance des hyperscalers avec des clusters d’un million d’accélérateurs !
Hock Tan, le PDG de Broadcom, a des prévisions audacieuses pour l’avenir des clusters d’IA. Selon lui, les clients hyperscale continueront à construire ces infrastructures pendant encore trois à cinq ans, chaque génération doublant en taille. Lors d’une interview avec Jim Cramer, Tan a souligné que la demande pour des puces AI personnalisées pourrait être forte, malgré une légère baisse initiale des actions de Broadcom. Avec des besoins en puissance de calcul multipliés par deux ou trois, l’avenir s’annonce prometteur pour les « XPUs », des silicons d’accélération AI qui pourraient surpasser les GPU. L’innovation est en marche !
Perspectives sur l’Avenir des Semi-conducteurs et de l’IA
Prévisions de Croissance dans le Secteur des Semi-conducteurs
Hock Tan, le PDG de Broadcom, a exprimé sa conviction que ses clients hyperscale continueront à développer des clusters d’intelligence artificielle (IA) pendant encore trois à cinq ans, avec chaque nouvelle génération de machines doublant en taille. Lors d’une interview avec Jim Cramer sur CNBC, Tan a été interrogé sur la récente fluctuation de l’action de Broadcom, qui avait chuté après des résultats du troisième trimestre jugés décevants par certains analystes, suggérant un ralentissement de l’intérêt pour les puces d’IA. Cependant, une semaine plus tard, l’action a rebondi, soutenue par des signaux de marché indiquant une demande potentiellement forte pour des puces d’IA sur mesure.
Une Demande Croissante pour des Capacités de Calcul
Tan a souligné que les plans des hyperscalers montrent une intention claire de construire de grands clusters, nécessaires au développement de nouveaux modèles de langage. Ces constructions pourraient être réalisées chaque année, nécessitant deux à trois fois plus de puissance de calcul que leurs prédécesseurs. Cela engendrera une opportunité de calcul plus vaste, que Tan prévoit d’être satisfaite par des « XPUs » – des puces d’accélération d’IA pour les réseaux et autres composants, dont la croissance devrait surpasser celle des GPU dans les années à venir. Broadcom est prêt à produire ces XPUs en grande quantité pour ses clients hyperscale.
Évolution des Clusters d’IA
Actuellement, les clusters d’IA que construisent les hyperscalers utilisent environ 100 000 accélérateurs, mais les futures configurations pourraient nécessiter jusqu’à un million d’accélérateurs. Broadcom vise à concevoir ces systèmes spécifiquement pour ses clients hyperscale, un segment que Tan considère comme son meilleur potentiel de marché. Pendant ce temps, Nvidia et AMD se préparent à une compétition acharnée pour le marché des GPU et les logiciels associés, tandis que Meta a déjà exprimé son intention de développer des puces d’IA personnalisées pour compléter ses 600 000 GPU Nvidia.
Perspectives du Marché des Semi-conducteurs
Tan a également noté que le marché des semi-conducteurs a atteint un creux cette année, dans le cadre des cycles normaux de l’industrie. Cependant, la pandémie de COVID-19 a provoqué un cycle de croissance atypique qui a commencé à s’inverser à la fin de 2023 et au début de 2024. Il prévoit que 2025 et 2026 seront des années de croissance pour les semi-conducteurs non liés à l’IA.
Amélioration des Ventes de Connectivité
Interrogé sur l’impact de cette inversion sur les ventes de semi-conducteurs pour la connectivité Wi-Fi et le stockage, qui avaient stagné ou chuté au dernier trimestre, Tan a affirmé que cela « sera absolument le cas ». Il a mentionné que des signes de croissance séquentielle forte sont déjà visibles depuis le creux du deuxième trimestre, grâce à la demande des entreprises.
Réformes chez VMware
Concernant VMware, Tan a exprimé sa satisfaction quant aux réformes mises en place au sein de la société de virtualisation. Il a expliqué que les améliorations apportées aux produits ont permis de passer d’une simple virtualisation de calcul à une virtualisation complète des centres de données, créant ainsi une expérience cloud sur site. VMware propose des solutions de virtualisation de calcul, de stockage et de réseau depuis une décennie, et Tan a probablement fait référence à Cloud Foundation 5.2, qui permet pour la première fois de gérer ces trois aspects sous une seule plateforme de gestion. Cela représente environ 80 % du travail nécessaire pour réaliser la vision de Broadcom d’un centre de données entièrement virtualisé, bien que Tan n’ait pas précisé de calendrier pour cette réalisation.
Général
Tor défend la sécurité de son réseau après la condamnation d’un administrateur du dark web pour CSAM par la police allemande
Le projet Tor défend avec vigueur ses capacités de protection de la vie privée, malgré des allégations selon lesquelles l’anonymat des utilisateurs aurait été compromis par la police allemande. Un rapport de Panorama et de STRG_F évoque des techniques d’analyse temporelle permettant d’identifier des utilisateurs de Tor. Bien que Tor utilise un réseau complexe de nœuds pour masquer l’origine des connexions, des failles dans des logiciels obsolètes pourraient exposer certains utilisateurs. Le message est clair : ne paniquez pas.
Technologie
Le projet Tor a réaffirmé la robustesse de ses capacités de protection de la vie privée, en réponse à des rapports allemands suggérant que l’anonymat des utilisateurs sur son réseau pourrait avoir été compromis par les forces de l’ordre.
Une enquête menée par le magazine allemand Panorama et la chaîne de journalisme d’investigation STRG_F indique que la police criminelle fédérale allemande (BKA) et le bureau du procureur général de Francfort ont réussi à identifier au moins un utilisateur de Tor après avoir effectué une surveillance du réseau.
Le rapport évoque l’analyse temporelle comme la méthode clé pour identifier les utilisateurs de Tor. Il explique que « la chronométrie des paquets de données individuels permet de retracer des connexions anonymisées jusqu’à l’utilisateur de Tor, même si les connexions de données sur le réseau Tor sont chiffrées plusieurs fois », sans toutefois détailler le fonctionnement de cette technique.
Tor offre une anonymité renforcée à ses utilisateurs en faisant passer leur trafic à travers un réseau de nœuds, rendant ainsi l’origine réelle d’une connexion difficile à déterminer. Le trafic envoyé vers Tor est enveloppé dans des couches de chiffrement et atteint d’abord un nœud d’entrée ou de garde. Ensuite, il rebondit à travers au moins trois serveurs choisis au hasard, appelés « relays », avant de revenir sur des réseaux publics via un nœud de sortie ou de se connecter à un service .onion. Ce processus masque la source d’une connexion et complique l’observation des activités en ligne d’un utilisateur à partir de son trafic réseau.
L’observation des tendances d’utilisation à long terme, comme le suggère la méthodologie d’analyse temporelle, pourrait potentiellement affaiblir l’efficacité de Tor en fournissant des indices aux observateurs sur les utilisateurs qui envoient du trafic dans le réseau. Par exemple, une personne pourrait ajouter des nœuds au réseau Tor et noter le timing des paquets observés entrant et sortant. Avec le temps, ces chronométries pourraient révéler l’identité de ceux qui se connectent à un service .onion particulier.
Matthias Marx, porte-parole du célèbre collectif de hackers européen Chaos Computer Club (CCC), a confirmé la méthode en déclarant que les preuves disponibles « suggèrent fortement que les autorités judiciaires ont mené à plusieurs reprises et avec succès des attaques d’analyse temporelle contre des utilisateurs de Tor sélectionnés afin de les dé-anonymiser. »
Le projet Tor, bien qu’il admette ne pas avoir eu accès à tous les documents impliqués malgré ses demandes aux journalistes, pense que la police allemande a pu démasquer un utilisateur de Tor en raison de l’utilisation par cette personne d’un logiciel obsolète, plutôt que d’exploiter une vulnérabilité inconnue.
Le rapport allemand indique que l’attaque par analyse temporelle a été utilisée lors d’enquêtes sur un individu connu sous le nom de « Andres G », soupçonné d’être l’opérateur d’un site .onion appelé Boystown, qui hébergeait du matériel d’abus sexuel d’enfants (CSAM).
« G » aurait utilisé l’application de messagerie anonyme Ricochet, qui transmet des données entre expéditeurs et destinataires via Tor. Plus précisément, il est dit qu’il utilisait une version du programme de chat qui ne sécurisait pas ses connexions Tor contre les méthodes de dé-anonymisation basées sur le timing utilisées par la police.
Le rapport indique que les autorités allemandes ont obtenu la coopération de l’opérateur de télécommunications Telefónica, qui a fourni des données sur tous les clients O2 connectés à un nœud Tor connu. En associant ces informations avec les observations des temps de connexion Tor, les autorités ont pu identifier « G », qui a été arrêté en Rhénanie-du-Nord-Westphalie, inculpé, condamné et emprisonné pendant plusieurs années en 2022.
Tor soutient que cette méthode ne prouve pas que son service est défaillant. L’organisation avance plutôt l’hypothèse qu’en utilisant le Ricochet non sécurisé, « G » a été victime d’une attaque de découverte de nœud de garde. En d’autres termes, la police a pu déterminer le nœud d’entrée ou de garde qu’il utilisait pour envoyer des données sur le réseau Tor. La police peut demander à Telefónica de lister les abonnés qui se sont connectés à ce nœud de garde et déduire l’identité de l’utilisateur de Tor.
Tor affirme que « G » a probablement utilisé une ancienne version de Ricochet qui ne comportait pas de protections contre de telles attaques. « Cette protection existe dans Ricochet-Refresh, un fork maintenu du projet Ricochet, depuis la version 3.0.12 publiée en juin 2022 », indique le rapport de Tor.
Pour l’analyse temporelle du trafic, il est nécessaire de compromettre un nœud de garde, car c’est le premier dans le circuit Tor et il peut voir l’adresse IP de l’utilisateur, a déclaré Bill Budington, technologue senior à l’EFF. Si le nœud de garde ne peut pas être compromis directement, les temps de réseau peuvent être obtenus pour compléter la surveillance.
Les utilisateurs de Tor s’inquiètent de la possibilité que le réseau soit submergé par des nœuds contrôlés par la police, compromettant ainsi leur anonymat. Cependant, le nombre de nœuds nécessaires pour cela devrait être considérable. Le projet Tor a reconnu avoir constaté une augmentation des nœuds de sortie déployés, dépassant les 2 000 récemment, mais a affirmé qu’il n’y avait pas de quoi s’inquiéter.
« La déclaration selon laquelle le réseau est ‘mal en point’ est tout simplement fausse », a déclaré Pavel Zoneff, directeur des relations publiques de Tor. « L’équipe de santé du réseau a mis en place des processus pour identifier de possibles grands groupes de relais soupçonnés d’être gérés par des opérateurs uniques et des acteurs malveillants, et de ne pas les laisser rejoindre le réseau. En conséquence, elle a signalé de nombreux mauvais relais pour suppression, qui ont ensuite été bannis par les autorités de répertoire. Beaucoup d’entre eux ne représentaient probablement aucune menace réelle pour les utilisateurs », a-t-il ajouté.
Le projet a également demandé de l’aide pour comprendre exactement ce que la police a fait. « Nous avons besoin de plus de détails sur cette affaire », a déclaré l’équipe. « En l’absence de faits, il est difficile pour nous de fournir des conseils officiels ou des divulgations responsables à la communauté Tor, aux opérateurs de relais et aux utilisateurs. »
Pour l’instant, le message est : « Ne paniquez pas. »
Général
NTT Data et IBM s’associent pour révolutionner le cloud mainframe des banques !
La technologie des mainframes</strong connaît une renaissance grâce à NTT Data, le géant japonais des services informatiques. Ils lancent SimpliZCloud, un service hybride basé sur la plateforme IBM LinuxONE, exclusivement destiné aux acteurs des services financiers en Inde. Cette innovation promet d’optimiser les applications bancaires et de gestion des risques, tout en consolidant les ressources informatiques. NTT Data affirme que cette solution surpassera les serveurs x86, notamment en matière de coûts de licences logicielles et d’applications IA/ML. Une nouvelle ère pour les mainframes s’annonce !
Le Mainframe : Une Nouvelle Vie dans le Cloud Hybride
Le mainframe a trouvé une nouvelle vocation grâce à NTT Data, un géant des services informatiques japonais, qui a décidé de développer un service de cloud hybride basé sur la plateforme IBM LinuxONE.
Ce service, nommé SimpliZCloud, sera pour l’instant exclusivement proposé aux acteurs des services financiers en Inde.
NTT Data prévoit que cette solution sera bénéfique pour les charges de travail liées aux applications bancaires essentielles, aux prêts et à la gestion des risques, tout en permettant une consolidation des ressources informatiques et des budgets.
Une Réduction de l’Empreinte Écologique
Selon NTT Data, « À mesure que les entreprises consolident leurs charges de travail, elles pourront réduire leur empreinte des centres de données, favorisant ainsi une durabilité accrue. » L’entreprise met en avant des performances supérieures à celles des serveurs x86, notamment en ce qui concerne les coûts des licences de logiciels d’entreprise et l’exécution d’applications d’intelligence artificielle et d’apprentissage automatique.
- Une banque indienne rejette les accusations d’exposition des comptes de 180 millions de clients
- IBM procède à des suppressions de postes en silence, selon des sources
- Les mainframes ne sont pas obsolètes, ils apprennent simplement des techniques d’IA
- L’IA pourrait menacer la démocratie et provoquer des guerres, avertit NTT du Japon
Une Perception Évolutive des Mainframes
La sagesse conventionnelle suggère que les mainframes demeurent une option coûteuse mais puissante pour certaines applications. En avril, le cabinet d’analyses Gartner a noté que « les organisations possédant un mainframe remettent périodiquement en question l’avenir de cette plateforme, car elle est perçue comme dépassée, difficile à gérer et coûteuse par rapport à des alternatives telles que le client/serveur et le cloud public. »
Gartner a également souligné que le succès continu d’IBM dans la vente de mainframes est en grande partie dû aux caractéristiques de ces machines, mais aussi à la crainte des coûts, de la complexité et des risques associés à une migration.
Pour information, IBM affirme que près de 70 % des transactions mondiales en valeur transitent par ses mainframes, et son dernier modèle a enregistré des ventes record.
Une Réévaluation dans le Secteur Financier Indien
Quoi qu’il en soit, NTT Data est convaincu que ces machines sont pertinentes pour l’industrie des services financiers en Inde. L’entreprise a même collaboré avec le cabinet d’analyses International Data Corp (IDC) pour rédiger un rapport qui arrive à une conclusion similaire.
Peter Marston d’IDC a écrit : « Les recherches d’IDC ont révélé que les organisations s’attendent à s’appuyer davantage sur leurs applications mainframe à l’avenir, considérées comme des moteurs clés pour alimenter les opérations d’entreprise, l’intimité client et l’innovation. »
Cette résurgence est en partie attribuée à l’essor de l’IA et de l’apprentissage automatique, selon Avinash Joshi, PDG de NTT Data India.
Joshi a expliqué : « Les applications commerciales critiques, en particulier celles intégrant l’IA et l’apprentissage automatique, disposeront désormais de l’infrastructure nécessaire pour offrir des performances bien supérieures aux architectures x86 traditionnelles, le tout dans un modèle entièrement géré et en tant que service. »
NTT Data et IBM n’ont pas encore divulgué les spécifications du cloud, ni s’ils envisagent de l’étendre à d’autres pays, ce qui semble tout à fait envisageable étant donné que ces deux géants de la technologie, tout comme l’industrie bancaire, opèrent à l’échelle mondiale. Nous avons posé la question et nous vous tiendrons informés si une réponse substantielle nous parvient.
-
Général3 mois ago
L’Inter brille de mille feux face à Man City – Inzaghi enflamme le match !
-
Science et nature3 mois ago
Une OLED révolutionnaire pour une vision nocturne compacte et légère !
-
Général3 mois ago
Jáder Obrian marque à la 47e minute et propulse Austin FC en tête 1-0 face à LAFC !
-
Divertissement3 mois ago
Résumé de l’épisode 2 de « Agatha All Along » : Plongée dans le monde des sorcières !
-
Général3 mois ago
Le gouvernement a-t-il enfin tenu sa promesse de protéger les femmes au travail ?
-
Général3 mois ago
L’interdiction de l’avortement en Géorgie a coûté la vie à une jeune mère : la droite chrétienne désigne désormais la victime comme coupable
-
Général3 mois ago
L’OMS alerte sur le manque de tests de mpox au cœur de l’épidémie en RDC
-
Général3 mois ago
NTT Data et IBM s’associent pour révolutionner le cloud mainframe des banques !