Technologie
L’IA Open Source : La Voie de l’Avenir !
Dans les débuts de l’informatique haute performance, les grandes entreprises technologiques investissaient massivement dans des versions propriétaires de Unix. Cependant, l’essor de Linux open source a révolutionné le secteur, offrant flexibilité et accessibilité. Aujourd’hui, avec le lancement de Llama 3.1, nous assistons à une nouvelle ère où l’IA open source devient la norme. Meta s’engage à construire un écosystème ouvert, permettant aux développeurs de personnaliser et d’optimiser leurs modèles. Ensemble, nous pouvons transformer l’IA en un outil accessible à tous, favorisant l’innovation et la sécurité. Rejoignez-nous dans cette aventure passionnante !
Au début de l’ère de l’informatique haute performance, les grandes entreprises technologiques de l’époque ont chacune investi massivement dans le développement de leurs propres versions propriétaires de Unix. À cette époque, il était difficile d’imaginer qu’une autre approche pourrait donner naissance à des logiciels aussi avancés. Cependant, avec le temps, le système d’exploitation open source Linux a gagné en popularité, d’abord parce qu’il permettait aux développeurs de modifier le code à leur guise et était plus économique, puis parce qu’il est devenu plus sophistiqué, plus sécurisé et a bénéficié d’un écosystème plus large offrant davantage de fonctionnalités que n’importe quel Unix propriétaire. Aujourd’hui, Linux est devenu la norme de l’industrie pour l’informatique en nuage et les systèmes d’exploitation qui alimentent la plupart des appareils mobiles, et nous en tirons tous des bénéfices grâce à des produits de qualité supérieure.
Je suis convaincu que l’intelligence artificielle (IA) évoluera de manière similaire. Actuellement, plusieurs entreprises technologiques développent des modèles propriétaires de pointe. Cependant, l’open source rattrape rapidement son retard. L’année dernière, Llama 2 n’était comparable qu’à une génération antérieure de modèles. Cette année, Llama 3 rivalise avec les modèles les plus avancés et excelle dans certains domaines. À partir de l’année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l’industrie. Mais même avant cela, Llama se distingue déjà par son ouverture, sa modifiabilité et son efficacité économique.
Aujourd’hui, nous faisons un pas de plus vers l’établissement de l’IA open source comme norme de l’industrie. Nous lançons Llama 3.1 405B, le premier modèle d’IA open source de niveau avancé, ainsi que les nouveaux modèles améliorés Llama 3.1 70B et 8B. En plus d’offrir un rapport coût/performance nettement meilleur par rapport aux modèles propriétaires, le fait que le modèle 405B soit open source en fera le meilleur choix pour le fine-tuning et la distillation de modèles plus petits.
Au-delà de la sortie de ces modèles, nous collaborons avec diverses entreprises pour développer un écosystème plus large. Amazon, Databricks et NVIDIA lancent des suites complètes de services pour aider les développeurs à affiner et distiller leurs propres modèles. Des innovateurs comme Groq ont créé des services d’inférence à faible latence et à faible coût pour tous les nouveaux modèles. Ces modèles seront disponibles sur tous les principaux clouds, y compris AWS, Azure, Google, Oracle, et bien d’autres. Des entreprises comme Scale.AI, Dell, Deloitte et d’autres sont prêtes à aider les entreprises à adopter Llama et à former des modèles personnalisés avec leurs propres données. À mesure que la communauté grandit et que davantage d’entreprises développent de nouveaux services, nous pouvons collectivement faire de Llama la norme de l’industrie et apporter les avantages de l’IA à tous.
Meta s’engage en faveur de l’IA open source. Je vais expliquer pourquoi je pense que l’open source est la meilleure pile de développement pour vous, pourquoi l’open sourcing de Llama est bénéfique pour Meta, et pourquoi l’IA open source est bénéfique pour le monde, ce qui en fait une plateforme durable à long terme.
Les Avantages de l’IA Open Source pour les Développeurs
Lorsque je discute avec des développeurs, des PDG et des responsables gouvernementaux à travers le monde, plusieurs thèmes reviennent souvent :
- Nous devons former, affiner et distiller nos propres modèles. Chaque organisation a des besoins différents qui sont mieux satisfaits par des modèles de tailles variées, formés ou affinés avec leurs données spécifiques. Les tâches sur appareil et les tâches de classification nécessitent des modèles plus petits, tandis que les tâches plus complexes nécessitent des modèles plus grands. Vous pourrez désormais prendre les modèles Llama les plus avancés, continuer à les former avec vos propres données, puis les distiller en un modèle de taille optimale, sans que nous ou quiconque d’autre n’ait accès à vos données.
- Nous devons contrôler notre propre destin et ne pas être dépendants d’un fournisseur fermé. De nombreuses organisations ne souhaitent pas dépendre de modèles qu’elles ne peuvent pas exécuter et contrôler elles-mêmes. Elles ne veulent pas que les fournisseurs de modèles fermés puissent modifier leur modèle, changer leurs conditions d’utilisation, ou même cesser complètement de les servir. Elles ne veulent pas non plus être enfermées dans un cloud unique ayant des droits exclusifs sur un modèle. L’open source permet un large écosystème d’entreprises avec des chaînes d’outils compatibles, facilitant les transitions.
- Nous devons protéger nos données. De nombreuses organisations traitent des données sensibles qu’elles doivent sécuriser et qu’elles ne peuvent pas envoyer à des modèles fermés via des API cloud. D’autres organisations ne font tout simplement pas confiance aux fournisseurs de modèles fermés avec leurs données. L’open source répond à ces préoccupations en vous permettant d’exécuter les modèles où vous le souhaitez. Il est bien connu que les logiciels open source tendent à être plus sécurisés en raison de leur développement transparent.
- Nous avons besoin d’un modèle efficace et abordable à exécuter. Les développeurs peuvent exécuter des inférences sur Llama 3.1 405B sur leur propre infrastructure à environ 50 % du coût d’utilisation de modèles fermés comme GPT-4, tant pour les tâches d’inférence en ligne que hors ligne.
- Nous voulons investir dans l’écosystème qui sera la norme à long terme. Beaucoup de gens constatent que l’open source progresse plus rapidement que les modèles fermés, et ils souhaitent construire leurs systèmes sur l’architecture qui leur donnera le plus grand avantage à long terme.
Les Avantages de l’IA Open Source pour Meta
Le modèle commercial de Meta repose sur la création des meilleures expériences et services pour les utilisateurs. Pour cela, nous devons nous assurer d’avoir toujours accès à la meilleure technologie, sans être enfermés dans l’écosystème fermé d’un concurrent qui pourrait restreindre nos capacités de développement.
Une de mes expériences formatrices a été de construire nos services en étant contraints par ce qu’Apple nous permet de développer sur ses plateformes. Entre la manière dont ils taxent les développeurs, les règles arbitraires qu’ils appliquent, et toutes les innovations produits qu’ils bloquent, il est clair que Meta et de nombreuses autres entreprises pourraient offrir de bien meilleurs services si nous pouvions créer les meilleures versions de nos produits sans que nos concurrents ne puissent restreindre notre créativité. Sur un plan philosophique, c’est une des raisons majeures pour lesquelles je crois fermement en la construction d’écosystèmes ouverts dans l’IA et la réalité augmentée/virtuelle pour la prochaine génération de l’informatique.
On me demande souvent si je crains de perdre un avantage technique en open sourçant Llama, mais je pense que cela manque la perspective globale pour plusieurs raisons :
Premièrement, pour garantir que nous avons accès à la meilleure technologie et ne sommes pas enfermés dans un écosystème fermé à long terme, Llama doit évoluer en un écosystème complet d’outils, d’améliorations d’efficacité, d’optimisations de silicium et d’autres intégrations. Si nous étions la seule entreprise à utiliser Llama, cet écosystème ne se développerait pas et nous ne ferions pas mieux que les variantes fermées de Unix.
Deuxièmement, je m’attends à ce que le développement de l’IA reste très compétitif, ce qui signifie que l’open sourcing d’un modèle donné ne constitue pas un abandon d’un avantage considérable par rapport aux meilleurs modèles à ce moment-là. Le chemin pour que Llama devienne la norme de l’industrie passe par sa compétitivité, son efficacité et son ouverture génération après génération.
Troisièmement, une différence clé entre Meta et les fournisseurs de modèles fermés est que la vente d’accès aux modèles d’IA n’est pas notre modèle commercial. Cela signifie que la publication ouverte de Llama ne nuit pas à nos revenus, à notre durabilité ou à notre capacité à investir dans la recherche, contrairement aux fournisseurs fermés. (C’est une des raisons pour lesquelles plusieurs fournisseurs fermés font régulièrement pression sur les gouvernements contre l’open source.)
Enfin, Meta a une longue histoire de projets open source et de succès. Nous avons économisé des milliards de dollars en publiant nos conceptions de serveurs, de réseaux et de centres de données avec le projet Open Compute et en faisant standardiser nos conceptions par les chaînes d’approvisionnement. Nous avons bénéficié des innovations de l’écosystème en open sourçant des outils de pointe comme PyTorch, React, et bien d’autres. Cette approche a constamment fonctionné pour nous lorsque nous nous y tenons sur le long terme.
Les Avantages de l’IA Open Source pour le Monde
Je crois que l’open source est essentiel pour un avenir positif de l’IA. L’IA a un potentiel plus grand que toute autre technologie moderne pour accroître la productivité humaine, la créativité et la qualité de vie, tout en stimulant la croissance économique et en favorisant les avancées dans la recherche médicale et scientifique. L’open source garantira que davantage de personnes dans le monde aient accès aux avantages et aux opportunités de l’IA, que le pouvoir ne soit pas concentré entre les mains d’un petit nombre d’entreprises, et que la technologie puisse être déployée de manière plus équitable et sécurisée dans la société.
Il existe un débat en cours sur la sécurité des modèles d’IA open source, et je pense que l’IA open source sera plus sûre que les alternatives. Je pense que les gouvernements concluront qu’il est dans leur intérêt de soutenir l’open source, car cela rendra le monde plus prospère et plus sûr.
Mon cadre de compréhension de la sécurité repose sur la nécessité de se protéger contre deux catégories de dommages : les dommages non intentionnels et intentionnels. Les dommages non intentionnels se produisent lorsqu’un système d’IA peut causer des préjudices même si ce n’était pas l’intention de ceux qui l’exécutent. Par exemple, les modèles d’IA modernes peuvent donner par inadvertance de mauvais conseils en matière de santé. Ou, dans des scénarios plus futuristes, certains craignent que des modèles puissent s’auto-répliquer ou hyper-optimiser des objectifs au détriment de l’humanité. Les dommages intentionnels se produisent lorsqu’un acteur malveillant utilise un modèle d’IA dans le but de causer du tort.
Il convient de noter que les dommages non intentionnels couvrent la majorité des préoccupations des gens concernant l’IA, allant de l’influence que les systèmes d’IA auront sur les milliards de personnes qui les utiliseront aux scénarios catastrophiques de science-fiction pour l’humanité. À cet égard, l’open source devrait être significativement plus sûr, car les systèmes sont plus transparents et peuvent être largement examinés. Historiquement, les logiciels open source ont été plus sécurisés pour cette raison. De même, l’utilisation de Llama avec ses systèmes de sécurité comme Llama Guard sera probablement plus sûre et plus sécurisée que les modèles fermés. Pour cette raison, la plupart des discussions sur la sécurité de l’IA open source se concentrent sur les dommages intentionnels.
Notre processus de sécurité comprend des tests rigoureux et des simulations pour évaluer si nos modèles sont capables de causer des dommages significatifs, dans le but de réduire les risques avant leur publication. Étant donné que les modèles sont ouverts, tout le monde peut également tester par lui-même. Nous devons garder à l’esprit que ces modèles sont formés à partir d’informations déjà disponibles sur Internet, donc le point de départ pour considérer les dommages devrait être de savoir si un modèle peut faciliter plus de dommages que les informations qui peuvent être rapidement récupérées sur Google ou d’autres résultats de recherche.
Lorsqu’il s’agit de réfléchir aux dommages intentionnels, il est utile de faire la distinction entre ce que des acteurs individuels ou à petite échelle peuvent faire par rapport à ce que des acteurs à grande échelle, comme des États-nations disposant de vastes ressources, peuvent réaliser.
À un moment donné dans le futur, des acteurs malveillants individuels pourraient être en mesure d’utiliser l’intelligence des modèles d’IA pour créer de nouveaux préjudices à partir des informations disponibles sur Internet. À ce stade, l’équilibre des pouvoirs sera crucial pour la sécurité de l’IA. Je pense qu’il sera préférable de vivre dans un monde où l’IA est largement déployée afin que des acteurs plus importants puissent contrer le pouvoir de petits acteurs malveillants. C’est ainsi que nous avons géré la sécurité sur nos réseaux sociaux : nos systèmes d’IA plus robustes identifient et arrêtent les menaces provenant d’acteurs moins sophistiqués qui utilisent souvent des systèmes d’IA à plus petite échelle. Plus largement, des institutions plus grandes déployant l’IA à grande échelle favoriseront la sécurité et la stabilité dans la société. Tant que tout le monde a accès à des générations de modèles similaires, ce que l’open source promeut, alors les gouvernements et les institutions disposant de plus de ressources informatiques pourront contrer les acteurs malveillants avec moins de ressources.
La question suivante est de savoir comment les États-Unis et les nations démocratiques devraient gérer la menace d’États disposant de ressources massives comme la Chine. L’avantage des États-Unis réside dans l’innovation décentralisée et ouverte. Certaines personnes soutiennent que nous devons fermer nos modèles pour empêcher la Chine d’y accéder, mais je pense que cela ne fonctionnera pas et ne fera que désavantager les États-Unis et ses alliés. Nos adversaires sont très doués pour l’espionnage, voler des modèles qui tiennent sur une clé USB est relativement facile, et la plupart des entreprises technologiques ne fonctionnent pas de manière à rendre cela plus difficile. Il semble plus probable qu’un monde composé uniquement de modèles fermés aboutisse à un petit nombre de grandes entreprises, ainsi qu’à nos adversaires géopolitiques, ayant accès aux modèles de pointe, tandis que les startups, les universités et les petites entreprises manquent d’opportunités. De plus, restreindre l’innovation américaine à un développement fermé augmente le risque que nous ne soyons pas du tout en tête. Au lieu de cela, je pense que notre meilleure stratégie est de construire un écosystème ouvert robuste et de faire en sorte que nos entreprises leaders collaborent étroitement avec notre gouvernement et nos alliés pour s’assurer qu’ils peuvent tirer le meilleur parti des dernières avancées et obtenir un avantage durable à long terme.
Lorsque vous considérez les opportunités à venir, rappelez-vous que la plupart des entreprises technologiques et des recherches scientifiques de premier plan d’aujourd’hui reposent sur des logiciels open source. La prochaine génération d’entreprises et de recherches utilisera l’IA open source si nous investissons collectivement dans celle-ci. Cela inclut les startups qui viennent de se lancer ainsi que les personnes dans les universités et les pays qui n’ont peut-être pas les ressources pour développer leur propre IA de pointe à partir de zéro.
En fin de compte, l’IA open source représente la meilleure chance du monde de tirer parti de cette technologie pour créer les plus grandes opportunités économiques et de sécurité pour tous.
Construisons Cela Ensemble
Avec les modèles Llama précédents, Meta les a développés pour nous-mêmes avant de les publier, mais nous ne nous sommes pas beaucoup concentrés sur la construction d’un écosystème plus large. Nous adoptons une approche différente avec cette sortie. Nous constituons des équipes en interne pour permettre à autant de développeurs et de partenaires que possible d’utiliser Llama, et nous établissons activement des partenariats afin que davantage d’entreprises de l’écosystème puissent offrir des fonctionnalités uniques à leurs clients également.
Je crois que la sortie de Llama 3.1 marquera un tournant dans l’industrie où la plupart des développeurs commenceront à utiliser principalement l’open source, et je m’attends à ce que cette approche ne fasse que croître à partir de là. J’espère que vous vous joindrez à nous dans ce voyage pour apporter les avantages de l’IA à tous dans le monde.
Vous pouvez accéder aux modèles dès maintenant sur llama.meta.com.
💪,
MZ
Technologie
Le PDG de Broadcom anticipe la montée en puissance des hyperscalers avec des clusters d’un million d’accélérateurs !
Hock Tan, le PDG de Broadcom, a des prévisions audacieuses pour l’avenir des clusters d’IA. Selon lui, les clients hyperscale continueront à construire ces infrastructures pendant encore trois à cinq ans, chaque génération doublant en taille. Lors d’une interview avec Jim Cramer, Tan a souligné que la demande pour des puces AI personnalisées pourrait être forte, malgré une légère baisse initiale des actions de Broadcom. Avec des besoins en puissance de calcul multipliés par deux ou trois, l’avenir s’annonce prometteur pour les « XPUs », des silicons d’accélération AI qui pourraient surpasser les GPU. L’innovation est en marche !
Perspectives sur l’Avenir des Semi-conducteurs et de l’IA
Prévisions de Croissance dans le Secteur des Semi-conducteurs
Hock Tan, le PDG de Broadcom, a exprimé sa conviction que ses clients hyperscale continueront à développer des clusters d’intelligence artificielle (IA) pendant encore trois à cinq ans, avec chaque nouvelle génération de machines doublant en taille. Lors d’une interview avec Jim Cramer sur CNBC, Tan a été interrogé sur la récente fluctuation de l’action de Broadcom, qui avait chuté après des résultats du troisième trimestre jugés décevants par certains analystes, suggérant un ralentissement de l’intérêt pour les puces d’IA. Cependant, une semaine plus tard, l’action a rebondi, soutenue par des signaux de marché indiquant une demande potentiellement forte pour des puces d’IA sur mesure.
Une Demande Croissante pour des Capacités de Calcul
Tan a souligné que les plans des hyperscalers montrent une intention claire de construire de grands clusters, nécessaires au développement de nouveaux modèles de langage. Ces constructions pourraient être réalisées chaque année, nécessitant deux à trois fois plus de puissance de calcul que leurs prédécesseurs. Cela engendrera une opportunité de calcul plus vaste, que Tan prévoit d’être satisfaite par des « XPUs » – des puces d’accélération d’IA pour les réseaux et autres composants, dont la croissance devrait surpasser celle des GPU dans les années à venir. Broadcom est prêt à produire ces XPUs en grande quantité pour ses clients hyperscale.
Évolution des Clusters d’IA
Actuellement, les clusters d’IA que construisent les hyperscalers utilisent environ 100 000 accélérateurs, mais les futures configurations pourraient nécessiter jusqu’à un million d’accélérateurs. Broadcom vise à concevoir ces systèmes spécifiquement pour ses clients hyperscale, un segment que Tan considère comme son meilleur potentiel de marché. Pendant ce temps, Nvidia et AMD se préparent à une compétition acharnée pour le marché des GPU et les logiciels associés, tandis que Meta a déjà exprimé son intention de développer des puces d’IA personnalisées pour compléter ses 600 000 GPU Nvidia.
Perspectives du Marché des Semi-conducteurs
Tan a également noté que le marché des semi-conducteurs a atteint un creux cette année, dans le cadre des cycles normaux de l’industrie. Cependant, la pandémie de COVID-19 a provoqué un cycle de croissance atypique qui a commencé à s’inverser à la fin de 2023 et au début de 2024. Il prévoit que 2025 et 2026 seront des années de croissance pour les semi-conducteurs non liés à l’IA.
Amélioration des Ventes de Connectivité
Interrogé sur l’impact de cette inversion sur les ventes de semi-conducteurs pour la connectivité Wi-Fi et le stockage, qui avaient stagné ou chuté au dernier trimestre, Tan a affirmé que cela « sera absolument le cas ». Il a mentionné que des signes de croissance séquentielle forte sont déjà visibles depuis le creux du deuxième trimestre, grâce à la demande des entreprises.
Réformes chez VMware
Concernant VMware, Tan a exprimé sa satisfaction quant aux réformes mises en place au sein de la société de virtualisation. Il a expliqué que les améliorations apportées aux produits ont permis de passer d’une simple virtualisation de calcul à une virtualisation complète des centres de données, créant ainsi une expérience cloud sur site. VMware propose des solutions de virtualisation de calcul, de stockage et de réseau depuis une décennie, et Tan a probablement fait référence à Cloud Foundation 5.2, qui permet pour la première fois de gérer ces trois aspects sous une seule plateforme de gestion. Cela représente environ 80 % du travail nécessaire pour réaliser la vision de Broadcom d’un centre de données entièrement virtualisé, bien que Tan n’ait pas précisé de calendrier pour cette réalisation.
Général
Tor défend la sécurité de son réseau après la condamnation d’un administrateur du dark web pour CSAM par la police allemande
Le projet Tor défend avec vigueur ses capacités de protection de la vie privée, malgré des allégations selon lesquelles l’anonymat des utilisateurs aurait été compromis par la police allemande. Un rapport de Panorama et de STRG_F évoque des techniques d’analyse temporelle permettant d’identifier des utilisateurs de Tor. Bien que Tor utilise un réseau complexe de nœuds pour masquer l’origine des connexions, des failles dans des logiciels obsolètes pourraient exposer certains utilisateurs. Le message est clair : ne paniquez pas.
Technologie
Le projet Tor a réaffirmé la robustesse de ses capacités de protection de la vie privée, en réponse à des rapports allemands suggérant que l’anonymat des utilisateurs sur son réseau pourrait avoir été compromis par les forces de l’ordre.
Une enquête menée par le magazine allemand Panorama et la chaîne de journalisme d’investigation STRG_F indique que la police criminelle fédérale allemande (BKA) et le bureau du procureur général de Francfort ont réussi à identifier au moins un utilisateur de Tor après avoir effectué une surveillance du réseau.
Le rapport évoque l’analyse temporelle comme la méthode clé pour identifier les utilisateurs de Tor. Il explique que « la chronométrie des paquets de données individuels permet de retracer des connexions anonymisées jusqu’à l’utilisateur de Tor, même si les connexions de données sur le réseau Tor sont chiffrées plusieurs fois », sans toutefois détailler le fonctionnement de cette technique.
Tor offre une anonymité renforcée à ses utilisateurs en faisant passer leur trafic à travers un réseau de nœuds, rendant ainsi l’origine réelle d’une connexion difficile à déterminer. Le trafic envoyé vers Tor est enveloppé dans des couches de chiffrement et atteint d’abord un nœud d’entrée ou de garde. Ensuite, il rebondit à travers au moins trois serveurs choisis au hasard, appelés « relays », avant de revenir sur des réseaux publics via un nœud de sortie ou de se connecter à un service .onion. Ce processus masque la source d’une connexion et complique l’observation des activités en ligne d’un utilisateur à partir de son trafic réseau.
L’observation des tendances d’utilisation à long terme, comme le suggère la méthodologie d’analyse temporelle, pourrait potentiellement affaiblir l’efficacité de Tor en fournissant des indices aux observateurs sur les utilisateurs qui envoient du trafic dans le réseau. Par exemple, une personne pourrait ajouter des nœuds au réseau Tor et noter le timing des paquets observés entrant et sortant. Avec le temps, ces chronométries pourraient révéler l’identité de ceux qui se connectent à un service .onion particulier.
Matthias Marx, porte-parole du célèbre collectif de hackers européen Chaos Computer Club (CCC), a confirmé la méthode en déclarant que les preuves disponibles « suggèrent fortement que les autorités judiciaires ont mené à plusieurs reprises et avec succès des attaques d’analyse temporelle contre des utilisateurs de Tor sélectionnés afin de les dé-anonymiser. »
Le projet Tor, bien qu’il admette ne pas avoir eu accès à tous les documents impliqués malgré ses demandes aux journalistes, pense que la police allemande a pu démasquer un utilisateur de Tor en raison de l’utilisation par cette personne d’un logiciel obsolète, plutôt que d’exploiter une vulnérabilité inconnue.
Le rapport allemand indique que l’attaque par analyse temporelle a été utilisée lors d’enquêtes sur un individu connu sous le nom de « Andres G », soupçonné d’être l’opérateur d’un site .onion appelé Boystown, qui hébergeait du matériel d’abus sexuel d’enfants (CSAM).
« G » aurait utilisé l’application de messagerie anonyme Ricochet, qui transmet des données entre expéditeurs et destinataires via Tor. Plus précisément, il est dit qu’il utilisait une version du programme de chat qui ne sécurisait pas ses connexions Tor contre les méthodes de dé-anonymisation basées sur le timing utilisées par la police.
Le rapport indique que les autorités allemandes ont obtenu la coopération de l’opérateur de télécommunications Telefónica, qui a fourni des données sur tous les clients O2 connectés à un nœud Tor connu. En associant ces informations avec les observations des temps de connexion Tor, les autorités ont pu identifier « G », qui a été arrêté en Rhénanie-du-Nord-Westphalie, inculpé, condamné et emprisonné pendant plusieurs années en 2022.
Tor soutient que cette méthode ne prouve pas que son service est défaillant. L’organisation avance plutôt l’hypothèse qu’en utilisant le Ricochet non sécurisé, « G » a été victime d’une attaque de découverte de nœud de garde. En d’autres termes, la police a pu déterminer le nœud d’entrée ou de garde qu’il utilisait pour envoyer des données sur le réseau Tor. La police peut demander à Telefónica de lister les abonnés qui se sont connectés à ce nœud de garde et déduire l’identité de l’utilisateur de Tor.
Tor affirme que « G » a probablement utilisé une ancienne version de Ricochet qui ne comportait pas de protections contre de telles attaques. « Cette protection existe dans Ricochet-Refresh, un fork maintenu du projet Ricochet, depuis la version 3.0.12 publiée en juin 2022 », indique le rapport de Tor.
Pour l’analyse temporelle du trafic, il est nécessaire de compromettre un nœud de garde, car c’est le premier dans le circuit Tor et il peut voir l’adresse IP de l’utilisateur, a déclaré Bill Budington, technologue senior à l’EFF. Si le nœud de garde ne peut pas être compromis directement, les temps de réseau peuvent être obtenus pour compléter la surveillance.
Les utilisateurs de Tor s’inquiètent de la possibilité que le réseau soit submergé par des nœuds contrôlés par la police, compromettant ainsi leur anonymat. Cependant, le nombre de nœuds nécessaires pour cela devrait être considérable. Le projet Tor a reconnu avoir constaté une augmentation des nœuds de sortie déployés, dépassant les 2 000 récemment, mais a affirmé qu’il n’y avait pas de quoi s’inquiéter.
« La déclaration selon laquelle le réseau est ‘mal en point’ est tout simplement fausse », a déclaré Pavel Zoneff, directeur des relations publiques de Tor. « L’équipe de santé du réseau a mis en place des processus pour identifier de possibles grands groupes de relais soupçonnés d’être gérés par des opérateurs uniques et des acteurs malveillants, et de ne pas les laisser rejoindre le réseau. En conséquence, elle a signalé de nombreux mauvais relais pour suppression, qui ont ensuite été bannis par les autorités de répertoire. Beaucoup d’entre eux ne représentaient probablement aucune menace réelle pour les utilisateurs », a-t-il ajouté.
Le projet a également demandé de l’aide pour comprendre exactement ce que la police a fait. « Nous avons besoin de plus de détails sur cette affaire », a déclaré l’équipe. « En l’absence de faits, il est difficile pour nous de fournir des conseils officiels ou des divulgations responsables à la communauté Tor, aux opérateurs de relais et aux utilisateurs. »
Pour l’instant, le message est : « Ne paniquez pas. »
Général
NTT Data et IBM s’associent pour révolutionner le cloud mainframe des banques !
La technologie des mainframes</strong connaît une renaissance grâce à NTT Data, le géant japonais des services informatiques. Ils lancent SimpliZCloud, un service hybride basé sur la plateforme IBM LinuxONE, exclusivement destiné aux acteurs des services financiers en Inde. Cette innovation promet d’optimiser les applications bancaires et de gestion des risques, tout en consolidant les ressources informatiques. NTT Data affirme que cette solution surpassera les serveurs x86, notamment en matière de coûts de licences logicielles et d’applications IA/ML. Une nouvelle ère pour les mainframes s’annonce !
Le Mainframe : Une Nouvelle Vie dans le Cloud Hybride
Le mainframe a trouvé une nouvelle vocation grâce à NTT Data, un géant des services informatiques japonais, qui a décidé de développer un service de cloud hybride basé sur la plateforme IBM LinuxONE.
Ce service, nommé SimpliZCloud, sera pour l’instant exclusivement proposé aux acteurs des services financiers en Inde.
NTT Data prévoit que cette solution sera bénéfique pour les charges de travail liées aux applications bancaires essentielles, aux prêts et à la gestion des risques, tout en permettant une consolidation des ressources informatiques et des budgets.
Une Réduction de l’Empreinte Écologique
Selon NTT Data, « À mesure que les entreprises consolident leurs charges de travail, elles pourront réduire leur empreinte des centres de données, favorisant ainsi une durabilité accrue. » L’entreprise met en avant des performances supérieures à celles des serveurs x86, notamment en ce qui concerne les coûts des licences de logiciels d’entreprise et l’exécution d’applications d’intelligence artificielle et d’apprentissage automatique.
- Une banque indienne rejette les accusations d’exposition des comptes de 180 millions de clients
- IBM procède à des suppressions de postes en silence, selon des sources
- Les mainframes ne sont pas obsolètes, ils apprennent simplement des techniques d’IA
- L’IA pourrait menacer la démocratie et provoquer des guerres, avertit NTT du Japon
Une Perception Évolutive des Mainframes
La sagesse conventionnelle suggère que les mainframes demeurent une option coûteuse mais puissante pour certaines applications. En avril, le cabinet d’analyses Gartner a noté que « les organisations possédant un mainframe remettent périodiquement en question l’avenir de cette plateforme, car elle est perçue comme dépassée, difficile à gérer et coûteuse par rapport à des alternatives telles que le client/serveur et le cloud public. »
Gartner a également souligné que le succès continu d’IBM dans la vente de mainframes est en grande partie dû aux caractéristiques de ces machines, mais aussi à la crainte des coûts, de la complexité et des risques associés à une migration.
Pour information, IBM affirme que près de 70 % des transactions mondiales en valeur transitent par ses mainframes, et son dernier modèle a enregistré des ventes record.
Une Réévaluation dans le Secteur Financier Indien
Quoi qu’il en soit, NTT Data est convaincu que ces machines sont pertinentes pour l’industrie des services financiers en Inde. L’entreprise a même collaboré avec le cabinet d’analyses International Data Corp (IDC) pour rédiger un rapport qui arrive à une conclusion similaire.
Peter Marston d’IDC a écrit : « Les recherches d’IDC ont révélé que les organisations s’attendent à s’appuyer davantage sur leurs applications mainframe à l’avenir, considérées comme des moteurs clés pour alimenter les opérations d’entreprise, l’intimité client et l’innovation. »
Cette résurgence est en partie attribuée à l’essor de l’IA et de l’apprentissage automatique, selon Avinash Joshi, PDG de NTT Data India.
Joshi a expliqué : « Les applications commerciales critiques, en particulier celles intégrant l’IA et l’apprentissage automatique, disposeront désormais de l’infrastructure nécessaire pour offrir des performances bien supérieures aux architectures x86 traditionnelles, le tout dans un modèle entièrement géré et en tant que service. »
NTT Data et IBM n’ont pas encore divulgué les spécifications du cloud, ni s’ils envisagent de l’étendre à d’autres pays, ce qui semble tout à fait envisageable étant donné que ces deux géants de la technologie, tout comme l’industrie bancaire, opèrent à l’échelle mondiale. Nous avons posé la question et nous vous tiendrons informés si une réponse substantielle nous parvient.
-
Général3 mois ago
L’Inter brille de mille feux face à Man City – Inzaghi enflamme le match !
-
Général3 mois ago
L’interdiction de l’avortement en Géorgie a coûté la vie à une jeune mère : la droite chrétienne désigne désormais la victime comme coupable
-
Science et nature3 mois ago
Une OLED révolutionnaire pour une vision nocturne compacte et légère !
-
Divertissement3 mois ago
Résumé de l’épisode 2 de « Agatha All Along » : Plongée dans le monde des sorcières !
-
Général3 mois ago
Jáder Obrian marque à la 47e minute et propulse Austin FC en tête 1-0 face à LAFC !
-
Général3 mois ago
Les scientifiques redéfinissent l’avenir scientifique de l’Afrique lors de la 15e conférence de l’AAS à Abuja
-
Divertissement3 mois ago
Liza Colón-Zayas, la star de « The Bear », se joint à la campagne de Tim Walz après sa victoire aux Emmy !
-
Divertissement3 mois ago
Demi Moore se souvient d’avoir été « extrêmement humiliée » pour son salaire de 12,5 millions de dollars dans ‘Striptease