Technologie
À l’abri des tendances : Découvrez pourquoi nous privilégions les VMs isolées
Would your rather observe an eclipse through a pair of new Ray-Bans, or a used Shade 12 welding helmet? Undoubtably the Aviators are more fashionable, but the permanent retinal damage sucks. Fetch the trusty welding helmet. We’ve made a number of security choices when building Canary that have held us in pretty good stead. These
Préféreriez-vous observer une éclipse avec une paire de nouvelles lunettes Ray-Ban ou un ancien casque de soudure Shade 12 ? Sans aucun doute, les lunettes Aviator sont plus élégantes, mais les dommages rétiniens permanents ne sont pas à prendre à la légère. Optez plutôt pour le casque de soudure fiable.
Lors de la conception de Canary, nous avons pris plusieurs décisions en matière de sécurité qui se sont révélées bénéfiques. Ces choix sont intéressants car ils ne nécessitent pas l’achat de produits de sécurité, ne sont pas souvent discutés dans les forums d’ingénierie de la sécurité, et peuvent sembler peu attrayants. Une décision architecturale peu glamour a fait ses preuves : l’isolement complet des clients.
Contexte
Canary repose fondamentalement sur deux éléments : les dispositifs Canary (matériels ou virtuels) déployés dans l’infrastructure des clients, et la Console (que nous gérons) à laquelle ces Canaries rapportent. De manière générale, cela ressemble à la plupart des produits ou appareils gérés dans le cloud : les appareils envoient des données de télémétrie vers le cloud. Il est courant que les dispositifs gérés dans le cloud rapportent à un unique point de terminaison (par exemple, un service HTTPS), ou peut-être à un point de terminaison spécifique à une région. Dans ces produits, les dispositifs sont gérés via un site web partagé par plusieurs clients, ce qui présente de nombreux avantages opérationnels et économiques, et constitue un choix naturel.
Cependant, nous avons choisi une autre voie. Chaque client de Canary dispose de son propre espace, la Console.
Pourquoi cette décision ? C’est précisément le sujet de cet article. Canary est régulièrement évalué par des testeurs de sécurité externes. Il est toujours intéressant de voir leurs réactions lorsqu’ils apprennent que les clients de Canary ne sont pas co-localisés. Les visages se décomposent, des notes furieuses sont prises, et les questions fusent pour tenter de découvrir de nouvelles failles potentielles.
J’ai moi-même réalisé ce type de consultation en sécurité, et l’accès non autorisé aux données d’autres utilisateurs était un problème que nous rencontrions systématiquement lors des tests d’applications multi-tenant (en particulier les applications web). Les possibilités d’exploration sont nombreuses. Les références d’objets directs non sécurisées (par exemple, accéder à l’extrait de compte de n’importe qui en itérant à travers l’identifiant numérique dans l’URL https://banquevulnerable.com/compte/extrait?id=4728309), les bugs de script intersites utilisant la messagerie dans l’application entre utilisateurs, les bugs côté serveur permettant à l’attaquant d’accéder localement au serveur et ainsi de voir toutes les données, les bugs d’injection de requêtes (comme SQLi) permettant à l’attaquant d’extraire des données directement de la base de données sans autres vérifications, et bien d’autres. Une des causes profondes de ces attaques était la co-localisation des données d’organisations non liées.
Lors de la conception de l’architecture de Canary, nous avons explicitement voulu maintenir les données des clients séparées par une barrière solide, et pas seulement par des vérifications de permissions au niveau de l’application. Nous avons opté pour un modèle qui nous permettait un isolement complet entre les clients : ils ne partageaient pas de services, de bases de données, ni de ressources comme les adresses IP.
Cela a entraîné des inconvénients sur le plan opérationnel (et a influencé la conception du produit), mais nous sommes extrêmement satisfaits de cet échange. Dans cet article, nous allons explorer ce modèle plus en détail et fournir des exemples clairs de son efficacité. Commençons par une brève explication des services que nous proposons réellement.
Exigences de service
Pour fournir Thinkst Canary à nos clients, nous devons exécuter plusieurs services. La Console est un site web fonctionnant sur uWSGI et Nginx ; il y a des configurations de honeypot et des données d’alerte qui doivent être stockées de manière persistante et récupérées rapidement ; des services pour communiquer avec les dispositifs déployés ; des services Canarytoken qui gèrent le trafic HTTP et DNS sur une adresse IP distincte de l’interface de gestion ; et un service séparé pour expédier des alertes via Syslog pour les clients qui le souhaitent.
Ensemble, ces éléments constituent le produit Thinkst Canary.
Notre architecture : isolement des VM
Tous les services de la Console Canary pour un client unique sont contenus dans leur propre instance AWS EC2. En d’autres termes, nous exécutons une machine virtuelle par client.
Dans certains cercles, cette approche n’est pas considérée comme attrayante. Il n’y a pas de conteneurs, pas de fonctions sans serveur, pas de bases de données cloud, pas de support hyperscale, pas de bus de messages (enfin… il y en a, mais ils existent uniquement sur l’instance), pas d’équilibreurs de charge, pas de clusters k8s. Rien ici ne nous vaudra une invitation à prendre la parole lors d’événements CNCF, ni un diagramme d’architecture rempli d’icônes de services AWS, et nous acceptons volontiers ce compromis.
Le fait est que les architectures cloud peuvent devenir des caricatures d’elles-mêmes. Le design de référence d’AWS pour héberger WordPress ressemble à ceci :
En termes généraux, les principaux bénéficiaires des architectures cloud-native sont les développeurs et les opérateurs d’un service, et non leurs clients. Vos clients ne se soucient pas de savoir si votre base de données est hébergée sur RDS, Aurora, ou si elle fonctionne sur un serveur physique dans un centre de données, tant qu’ils peuvent accéder aux données de manière fiable, sécurisée et rapide. La technologie cloud-native facilite la construction de tels systèmes pour les développeurs et les opérateurs, mais les clients (en moyenne) n’ont pas d’exigences concernant l’utilisation de la technologie cloud (ou non).
Adopter des technologies et des approches natives du cloud présente des défis spécifiques. Pour nous, le principal problème réside dans le fait que la frontière de sécurité qui sépare les clients devient une question d’application, ce qui est trop risqué. En tant que fournisseur de solutions de sécurité, une violation des données clients est un scénario cauchemardesque.
Imaginons un modèle de déploiement classique où les données des clients sont centralisées dans une seule base de données ou un nombre restreint de bases de données (qu’il s’agisse d’une base de données relationnelle, d’une base de données documentaire, ou autre). Les frontières entre ces données seraient soit imposées par la base de données via différents utilisateurs et rôles, soit (plus couramment) par l’application de requête qui applique des vérifications d’autorisation après que les données ont été récupérées de la base de données ou dans le cadre de la requête fournie par l’application à la base de données. Si l’application est responsable du maintien de cette frontière, alors toute vulnérabilité permettant à un attaquant de contourner la vérification d’autorisation violerait cette frontière. Chaque requête, chaque récupération de données est une source potentielle de vulnérabilités, et doit être soigneusement protégée. Aucune erreur n’est permise. Cela est vrai chaque fois que les données sont co-localisées ou que les utilisateurs dépendent des mêmes points d’accès et adresses web pour accéder aux données. Ces problèmes sont malheureusement très fréquents.
Modifier notre backend web pour s’appuyer sur des Lambdas serait une approche désastreuse pour plusieurs raisons, et ignorerait l’interrelation avec d’autres services (comme les communications entre appareils). De même, AWS IoT ne convient pas pour la gestion de nos appareils ; nous opérons dans des réseaux où les communications sortantes MQTT et HTTPS ne sont tout simplement pas autorisées (c’est pourquoi nous utilisons un trafic DNS chiffré pour la communication entre appareils et la console). En d’autres termes, assembler le même service à partir des blocs de services AWS donnerait un produit plus encombrant et moins centré sur le client. En revanche, si nous prenons la responsabilité de construire ces blocs nous-mêmes, nous pouvons créer un service qui s’assemble harmonieusement, comme un puzzle complexe sur mesure.
Bien que l’approche des machines virtuelles isolées présente des inconvénients, elle offre également de nombreux avantages.
Avantages
Externalisation du problème le plus complexe
En adoptant cette approche éprouvée, nous comptons sur l’hyperviseur d’AWS pour maintenir une frontière de sécurité assistée par silicium. En effet, l’ensemble de l’activité de cloud computing d’AWS repose sur la robustesse de leur hyperviseur. Les bugs dans cet hyperviseur qui permettraient un accès inter-client représentent une menace existentielle pour AWS, et ils ont un intérêt profond à maintenir cette frontière. Ils ont prouvé leur capacité à gérer et à maintenir cet hyperviseur sur une longue période. De plus, dans le cas extrême où un bug 0day de l’hyperviseur serait utilisé pour attaquer un client, il faudrait d’abord que l’attaquant place sa machine virtuelle d’attaque sur le même hôte physique que celle de notre client, et seulement un client serait affecté ; la zone d’impact est naturellement limitée.
Performance et surveillance
Faire fonctionner tous les services liés à un client sur la même instance simplifie considérablement certains types de surveillance et d’investigation. Nous n’avons pas besoin de collecter des données de performance provenant de plusieurs systèmes pour comprendre ce qu’un client expérimente ; tout est déjà centralisé. Nous gérons un serveur DNS personnalisé, et parfois le débogage implique des captures de paquets pour comprendre les problèmes ; il est extrêmement utile de savoir que le trafic à la console est lié au problème du client en cours d’examen.
Inversement, isoler les services d’un client dans une machine virtuelle signifie que toute augmentation d’utilisation ou dégradation de service est limitée à cette seule console. Les pannes se produisent ; nous rencontrons régulièrement des problèmes matériels sur EC2, et lorsque cela se produit, c’est une seule console qui est affectée (et automatiquement restaurée), et non l’ensemble du service pour tous les clients. Dans un scénario hypothétique où tous nos services fonctionnent dans un cluster Kubernetes, tous nos œufs seraient dans le même panier. Une défaillance de Kubernetes affecterait tous les clients ; dans le modèle VM, il faudrait que « AWS dans plusieurs régions échoue simultanément » pour trouver un point de défaillance unique.
Les machines virtuelles isolées sont simplement une étape vers l’évolutivité horizontale d’origine (c’est-à-dire plus de serveurs physiques). Notre modèle d’évolutivité lors de l’ajout de nouveaux clients consiste à dupliquer l’infrastructure pour eux, plutôt que de les entasser avec les autres. Cela signifie que nous ne nous concentrons pas sur l’optimisation excessive d’un petit nombre de services que tous les clients finissent par utiliser. Nos consoles ont des besoins de calcul modestes et, dans la plupart des cas, fonctionnent sur des instances EC2 « petites ». La charge moyenne est généralement d’environ 0,04, et la charge au 99e percentile est de 0,5.
Conformité réglementaire
Avoir des machines virtuelles par client nous permet de répondre facilement aux exigences réglementaires ; certains clients doivent conserver leurs données dans une région géographique spécifique pour des raisons de conformité. Il est trivial pour nous de gérer ces demandes et nous pouvons actuellement ajouter de nouvelles régions en quelques heures à notre liste de régions prises en charge. En revanche, si nous dépendions d’une infrastructure partagée, l’ajout de nouvelles régions serait une tâche complexe et coûteuse.
Déploiements progressifs
Cette approche nous permet également de déployer du code et des fonctionnalités à des sous-ensembles de clients de manière simple avant de les rendre disponibles à tous. Le nouveau code est déployé de manière échelonnée à travers la flotte et, en conséquence, les déploiements seront suspendus si nous détectons des erreurs avant que le code n’atteigne tous les clients.
Sécurité opérationnelle
Nous pouvons également mettre en œuvre un filtrage IP au niveau du groupe de sécurité pour les clients, si cela est nécessaire. Ce niveau d’isolement n’est tout simplement pas possible sur une infrastructure partagée.
En construisant l’application, notre modèle utilisateur est simplifié car nous n’avons pas besoin de prendre en compte une frontière organisationnelle entre les ensembles de données. Nous avons des utilisateurs de différents niveaux d’autorisation, mais tous appartiennent à la même organisation. Cela rend le code d’autorisation plus facile à comprendre et aide à accélérer le développement.
Avantages illusoires
Un argument souvent avancé en faveur du modèle VM est qu’il réduit la dépendance à un fournisseur de cloud unique, facilitant ainsi la transition, car théoriquement, vous pouvez simplement exécuter votre VM ailleurs. Bien qu’il soit vrai que nous ne dépendons pas entièrement d’AWS pour l’environnement de calcul (car nous fournissons notre propre VM), nous restons néanmoins tributaires d’autres services AWS, notamment en matière de surveillance, d’orchestration et de services réseau. Passer à un autre fournisseur serait complexe, et je ne considère pas la VM comme un véritable avantage à cet égard. La barrière à la transition reste extrêmement élevée.
Inconvénients
Le revers de la médaille est que nous supportons des coûts opérationnels plus élevés en termes d’effort et de dépenses. Maintenir des milliers d’instances exige de notre part une maîtrise de la gestion de configuration. Nous devons penser à la fois en termes de configuration à grande échelle (gérer des milliers d’instances) et à des problèmes très locaux (un exemple récent est le changement de comportement des permissions de /tmp sur Ubuntu, nécessitant des personnalisations dans /etc/sysctl.conf. Dans un monde de conteneurs, quelqu’un d’autre aurait probablement géré cela). Nos compétences en administration système Linux nous ont été très utiles ; sans de bonnes compétences en administration, cette voie aurait été difficile à suivre.
Les Défis et Avantages des Machines Virtuelles Isolées
L’utilisation de machines virtuelles (VM) isolées présente des défis uniques, mais elle offre également des avantages significatifs en matière de sécurité et de gestion des données. Dans cet article, nous explorerons les implications de cette approche sur la conception des produits, le suivi personnalisé, la dépendance matérielle, les limitations, ainsi que les coûts associés.
Impact sur la Conception des Produits
L’intégration des VM isolées dans notre infrastructure est essentielle. Lors de la livraison de nos appareils, qu’ils soient matériels ou logiciels, il est crucial qu’ils puissent identifier leur Console. Ce processus de découverte est fondamental et mérite une attention particulière.
Suivi Personnalisé
Bien qu’AWS propose des vérifications d’instance pour surveiller la santé des systèmes, nous avons dû développer des outils de suivi sur mesure. Avec des milliers d’instances et d’adresses IP, ainsi que des entrées DNS et plusieurs services, il est impératif de détecter toute inactivité dans un délai de quelques minutes. Nous avons donc conçu des outils spécifiques pour surveiller l’état de chaque instance, tout en effectuant également un suivi interne pour anticiper d’éventuels modes de défaillance.
Dépendance Matérielle et Limitations
L’isolation des pannes matérielles est un avantage indéniable, car elle ne touche qu’une seule Console en cas de défaillance. Cependant, cela signifie qu’un client peut être hors ligne jusqu’à ce que notre système redémarre automatiquement la VM, ce qui se produit généralement en quelques minutes. Bien que nous n’ayons pas encore atteint de limites significatives en termes de taille d’instance, il existe une limite théorique à une instance par client, qui est la plus grande instance EC2 disponible. Cependant, cela ne nous préoccupe pas, car nous n’avons pas encore atteint la moitié de la progression des tailles d’instance, même pour nos clients les plus exigeants.
Déploiements Plus Lents
Le déploiement de code sur des milliers d’instances prend généralement plusieurs heures, car nous procédons par étapes de plus en plus larges. Si nous utilisions un nombre réduit de serveurs massifs, le déploiement serait probablement plus rapide.
Coûts Associés
Cette approche est presque certainement plus coûteuse. Nos instances restent souvent inactives, ce qui entraîne des frais importants pour EC2. C’est probablement le principal inconvénient pour de nombreuses organisations envisageant cette méthode. Bien que cette stratégie soit plus onéreuse que le modèle traditionnel, elle n’est pas prohibitive, car les coûts augmentent de manière linéaire avec le nombre de clients. Si vous êtes en difficulté financière et espérez améliorer vos marges en augmentant le nombre de clients sur la même infrastructure, cette approche n’est pas adaptée.
Malgré ces inconvénients, les avantages l’emportent largement sur les inconvénients. Nous avons des exemples concrets où le modèle de VM isolées a prouvé son efficacité.
Études de Cas
Étude de Cas 1 : Console de Débogage
Dans nos débuts, un incident a eu lieu sur une Console où un développeur avait laissé un débogueur accessible sur le Web. Si des données clients avaient été présentes, nous aurions dû gérer une réponse externe et publier des annonces de violation. Cependant, grâce à la VM isolée, il n’y avait aucune donnée client sur cette VM. Après avoir détecté l’incident, nous avons simplement détruit cette infrastructure et mis en place des contrôles pour éviter que ce problème ne se reproduise.
Étude de Cas 2 : Bugs d’Application Web
Au fil des années, lors des évaluations de sécurité, plusieurs classes de bugs ont été identifiées, mais jamais d’accès aux données d’un autre client. Nous privilégions les tests en boîte claire et fournissons le code source lors des tests. Même après des exploits astucieux avec un accès complet au code source, il est impossible d’accéder à des données qui n’existent pas.
Étude de Cas 3 : osslsigncode
Plus tôt cette année, nous avons découvert qu’une version vulnérable d’un package appelé osslsigncode était installée, malgré le paiement pour des correctifs de sécurité dans Ubuntu. Bien que la situation soit maintenant résolue, nous avons dû évaluer les risques pour décider si nous devions expédier notre propre version ou mettre à jour vers une version d’Ubuntu où le correctif était déjà disponible. Si nous avions utilisé une infrastructure partagée, nous aurions dû agir rapidement pour éviter qu’un client n’exploite la vulnérabilité.
Cependant, grâce au modèle de VM isolées, notre évaluation des risques a abouti à une conclusion différente. Nous avons déterminé qu’un attaquant devait être authentifié et que l’accès à d’autres données était impossible. Cela a considérablement réduit la valeur de l’attaque, nous permettant de résoudre le problème de manière approfondie.
Faut-il Opter par Défaut pour des VM Isolées ?
La réponse n’est pas évidente. Nous avons réfléchi aux compromis, et pour notre profil de risque, le hyperviseur AWS est la limite avec laquelle nous sommes le plus à l’aise. Nos clients préfèrent que leurs données restent privées plutôt que de savoir si nous utilisons divers outils Cloud. Nous choisissons systématiquement la sécurité sur la commodité.
Nous sommes conscients que cela entraîne des coûts, tant en termes de produit que d’opérations. Nous sommes prêts à assumer ces coûts, car cela nous permet de dormir sur nos deux oreilles.
Le choix dépend de votre capacité à supporter les coûts liés à des systèmes souvent inactifs, de votre capacité à gérer des milliers d’instances et de votre volonté de réimplémenter des outils pour votre propre infrastructure. L’avantage est une barrière de sécurité très robuste. Nous sommes satisfaits de cette voie.
Général
Le pare-brise de la BMW Panoramic iDrive : une expérience immersive à couper le souffle !
BMW a révélé son nouveau système Panoramic iDrive, révolutionnant l’expérience de conduite avec un affichage tête haute 3D qui s’étend sur tout le pare-brise. Imaginez un intérieur où toutes les informations essentielles, comme la vitesse et les directions, sont projetées directement dans votre champ de vision ! C’est une véritable couche de réalité augmentée qui connecte le conducteur à la route.
Avec des boutons haptiques sur le volant et un écran tactile central innovant, chaque détail est conçu pour une personnalisation optimale. Préparez-vous à découvrir cette technologie futuriste dans le prochain SUV électrique X-Class de BMW fin 2025 !
Une Révolution Technologique : Le Nouveau Système BMW : un aperçu captivant du futur de l'infodivertissement »>iDrive Panoramique de BMW
une Vision d’Avenir
BMW a récemment présenté son innovant système iDrive Panoramique,qui se distingue par un affichage tête haute en 3D impressionnant,occupant l’intégralité du pare-brise. si vous pensiez que l’intérieur épuré des Tesla était à la pointe, attendez de découvrir cette nouvelle approche.
Un Affichage Révolutionnaire
Fini le tableau de bord traditionnel devant le volant. Désormais, toutes les informations sont projetées directement dans le champ de vision du conducteur via le pare-brise. Cela inclut la vitesse, les données d’assistance à la conduite, les feux de circulation, les panneaux routiers et même des indications de navigation et niveaux de batterie. Chaque élément est personnalisable pour que chaque conducteur puisse choisir ce qu’il souhaite afficher. Par exemple, lorsque l’assistance au conducteur est activée, le chemin navigué s’illumine en vert.
Frank Weber, directeur technique chez BMW, décrit cette configuration comme une couche de réalité augmentée qui maintient le conducteur connecté à la route.
Intégration des Retours Clients
La société a déclaré que l’intégration des instructions de navigation avec les données d’assistance au conducteur représente une évolution naturelle alors que nous nous dirigeons vers des niveaux plus élevés d’automatisation dans la conduite.De plus, ils ont souligné que les retours clients ont été essentiels pour façonner plusieurs fonctionnalités intelligentes affichées sur ce nouveau système.
Un Volant Repensé
Les innovations ne s’arrêtent pas au pare-brise ; BMW a également repensé son volant en y intégrant des boutons haptiques qui s’illuminent selon différents réglages.
Un nouvel écran tactile central en forme de losange accompagne cet interface sur le pare-brise et permet aux utilisateurs d’interagir directement avec lui.Ce dernier offre une interface hautement personnalisable où chacun peut prioriser ses applications favorites (appelées « pixels » par BMW) pour un accès rapide et facile. La marque envisage également un magasin d’applications pour encore plus de fonctionnalités et personnalisations.
Un Système opérationnel Innovant
Le logiciel qui alimente ce système est appelé BMW Operating System X ; il est développé entièrement en interne par l’entreprise et repose sur Android Open Source Project.
L’Intelligence Artificielle au Service du Conducteur
Aucun lancement technologique en 2025 ne serait complet sans une touche d’intelligence artificielle (IA).Le système iDrive utilise cette technologie pour apprendre les habitudes et comportements des conducteurs afin d’afficher automatiquement les applications pertinentes ainsi que leurs réglages préférés. Par exemple, si un utilisateur emprunte souvent un itinéraire spécifique vers son domicile tout en activant le mode sport, ces paramètres seront proposés proactivement lors du prochain trajet.De plus, selon BMW ,les modèles linguistiques avancés rendent les commandes vocales beaucoup plus naturelles et conversationnelles ; plutôt que d’utiliser des mots-clés spécifiques comme « station », il suffit simplement aux conducteurs dire quelque chose comme « trouve une station de recharge près du supermarché ».
Début D’une Nouvelle Ère
Ce design intérieur audacieux fera ses débuts dans le futur SUV électrique X-Class prévu fin 2025; plusieurs autres véhicules basés sur la nouvelle plateforme « Neue Klasse » suivront bientôt après cela.
Considérations Sécuritaires Émergentes
Un changement aussi radical pourrait diviser l’opinion parmi ceux attachés aux intérieurs classiques dotés depuis longtemps d’aiguilles traditionnelles et compteurs analogiques caractéristiques chez BMW . Il sera également intéressant d’observer comment la marque abordera les préoccupations relatives à la sécurité; celles-ci étant devenues cruciales pour toutes entreprises automobiles électriques adoptant entièrement interfaces tactiles . En effet , Euro NCAP introduira dès 2026 nouvelles directives exigeant certaines fonctions essentielles soient accessibles via boutons physiques afin qu’un véhicule puisse obtenir cinq étoiles lors évaluations sécurité .
Général
Nvidia révolutionne le monde physique avec GenAI et Cosmos !
Lors de la keynote très attendue du CES 2025, le PDG de Nvidia, Jensen Huang, a captivé l’audience avec des annonces révolutionnaires. Parmi les innovations présentées, le modèle Cosmos se distingue par sa capacité à transformer l’IA générative en actions physiques. Cela signifie que des robots et véhicules autonomes pourront réagir plus efficacement aux stimuli du monde réel. Nvidia ouvre ainsi la voie à une nouvelle ère d’applications robotiques et automobiles, tout en rendant ses modèles disponibles gratuitement pour encourager l’expérimentation.
Innovations Technologiques : les Annonces Marquantes de Nvidia au CES 2025
Un Événement Incontournable
Lors du CES 2025, l’une des conférences les plus attendues a été celle de Jensen Huang, le PDG de Nvidia. Ce dernier a présenté une série d’annonces captivantes touchant à divers sujets technologiques d’actualité tels que l’intelligence artificielle (IA), la robotique et les véhicules autonomes.
Nouveaux Produits et Progrès Technologiques
Vêtu d’une version scintillante de son emblématique blouson en cuir noir,Huang a détaillé les dernières cartes graphiques GeForce RTX 50 ainsi que des modèles fondamentaux d’IA appelés Nemotron. Il a également partagé des plans pour des agents alimentés par IA.
Parmi les innovations notables figurent des extensions à la plateforme Omniverse, qui permet la création de jumeaux numériques et simule l’interaction entre l’IA et le monde physique. De plus, un superordinateur AI compact nommé Project Digits a été introduit, propulsé par le GPU Grace Blackwell.
Cosmos : Une Révolution dans l’Intelligence Artificielle
Une annonce particulièrement intrigante fut celle du projet Cosmos. Ce dernier est défini comme un ensemble complet de modèles fondamentaux mondiaux intégrant des tokenizers avancés et une pipeline vidéo sophistiquée.L’objectif principal est d’étendre les capacités génératives de l’IA au-delà du numérique vers le monde physique.
En termes simples, alors que la plupart des systèmes génératifs se concentrent sur la création numérique basée sur une vaste base documentaire ou visuelle, Cosmos vise à produire des actions physiques en s’appuyant sur ses données issues d’environnements simulés numériquement.
Implications pratiques pour Divers secteurs
Les implications pratiques sont significatives pour divers domaines tels que la robotique ou les véhicules autonomes. Par exemple, grâce à Cosmos, il devient possible pour un robot humanoïde d’apprendre à exécuter efficacement une tâche spécifique comme retourner une omelette ou manipuler des pièces dans une chaîne de production.De même,un véhicule autonome peut s’adapter dynamiquement aux différentes situations rencontrées sur la route.
Actuellement,ces formations reposent souvent sur un travail manuel intensif où il faut filmer plusieurs fois chaque action humaine ou faire parcourir aux voitures autonomes plusieurs millions de kilomètres. Avec Cosmos cependant,ces méthodes peuvent être automatisées ce qui réduit considérablement coûts et délais tout en élargissant le volume de données disponibles pour entraîner ces systèmes.
La Plateforme cosmo : Un Outil Puissant
Nvidia présente donc Cosmos comme une plateforme dédiée au développement mondial fondée sur l’IA générative qui intègre divers outils facilitant cette évolution technologique rapide. En tant qu’extension directe du simulateur Omniverse déjà existant chez Nvidia, elle permet non seulement d’extrapoler les modèles numériques mais aussi leur request concrète dans notre réalité quotidienne.
Au cœur même du projet se trouvent ces modèles fondamentaux construits grâce à millions heures vidéos accumulées permettant ainsi aux machines formées avec cette technologie réagir avec précision face aux stimuli physiques variés qu’elles rencontrent dans leur environnement réel.
Vers un Avenir Prometteur
Jensen Huang n’a pas manqué souligner lors sa présentation comment nous assistons actuellement à une transition majeure vers ce qu’il appelle « l’IA physique ». en rendant ses modèles disponibles gratuitement afin encourager recherche avancée en robotique et véhicules autonomes , Nvidia montre sa volonté soutenir innovation tout en anticipant tendances futures .
À court terme cependant , cet impact pourrait rester limité car principalement destiné développeurs spécialisés . Néanmoins , son potentiel transformationnel pourrait accélérer considérablement progrès produits concernés tout en améliorant sécurité efficacité systèmes associés .Ces développements témoignent également transformation continue chez Nvidia vers entreprise axée logiciel capable bâtir plateformes adaptées nouvelles applications émergentes. Pour ceux intéressés comprendre direction future société , ces annonces offrent perspectives fascinantes quant maintien croissance impressionnante entreprise .
Général
L’écran tactile secondaire Corsair Xeneon Edge : un 32:9 qui s’installe partout !
Qu’est-ce qui vient de se passer ? Le CES est toujours une vitrine incroyable de produits technologiques, et cette année, Corsair nous surprend avec son écran tactile Xeneon Edge. Avec ses 14,5 pouces et un rapport d’aspect 32:9, cet écran secondaire pourrait bien devenir l’outil indispensable pour les passionnés de technologie. Grâce à sa résolution impressionnante de 2560 par 720 pixels et à sa connectivité polyvalente via USB Type-C ou HDMI, il s’adapte à tous vos besoins. Imaginez pouvoir gérer vos réseaux sociaux tout en surveillant votre système ! Restez à l’affût pour plus d’infos !
Nouveaux Horizons Technologiques : Le Xeneon Edge de Corsair
Qu’est-ce qui se passe ?
Chaque année, le CES présente une multitude de nouveaux produits technologiques, certains étant plus pratiques que d’autres. L’intérêt que vous portez à l’écran tactile Xeneon Edge de Corsair dépendra probablement de votre besoin d’un écran secondaire de 14,5 pouces au format 32:9.
Une Évolution des Écrans Secondaires
Bien que les écrans secondaires ne soient pas une nouveauté, leur complexité a considérablement augmenté ces dernières années. Le Xeneon Edge se distingue par son design innovant et ses caractéristiques techniques impressionnantes. Avec une résolution LCD de 2560 x 720 pixels, il offre une densité d’affichage remarquable de 183 PPI, un niveau de luminosité atteignant 350 nits et un taux de rafraîchissement à 60 Hz sur son panneau IPS.
Flexibilité et Installation
Le Xeneon Edge est conçu pour s’adapter à divers environnements. Il peut être placé sur un bureau grâce au support inclus ou fixé à un PC ou toute surface ferromagnétique grâce aux quatorze aimants intégrés. De plus, il peut être installé dans un boîtier via un point de montage pour radiateur de 360 mm, ce qui est plutôt séduisant. Corsair affirme également qu’il est plus mince qu’un ventilateur classique, minimisant ainsi les préoccupations liées à l’espace.
Connectivité et Utilisation Pratique
Pour la connexion, le dispositif utilise soit le port USB Type-C DP-Alt Mode soit un port HDMI standard. Une caractéristique intéressante est sa capacité à fonctionner en orientation verticale ou horizontale.Cela en fait un outil idéal pour ceux qui souhaitent faire défiler leurs fils d’actualités sur les réseaux sociaux ou surveiller Discord simultanément. Windows reconnaîtra le Xeneon Edge comme écran additionnel.
Corsair indique également que cet écran tactile capacitif multi-touch à cinq points fonctionne comme n’importe quel autre affichage tactile sous Windows.!Fonctionnalités du Xeneon Edge
Intégration avec iCue
L’écran s’intègre parfaitement avec le logiciel iCue de Corsair permettant aux utilisateurs d’accéder facilement aux informations concernant la vitesse des ventilateurs du système, les températures ainsi que l’utilisation du CPU et GPU. Les utilisateurs peuvent aussi ajuster différents paramètres tels que les profils lumineux et la gestion des ventilateurs directement depuis l’écran tactile.
Disponibilité et Prix
Aucune details précise n’a encore été communiquée concernant le prix du xeneon Edge; cependant, il pourrait s’avérer assez onéreux compte tenu des fonctionnalités avancées proposées par cet appareil innovant. La disponibilité est prévue pour le deuxième trimestre 2025 chez les revendeurs Corsair ainsi que sur leur site officiel.
Dans cette même veine technologique, nous avons déjà vu plusieurs écrans LCD intégrés dans des systèmes AIO (All-in-One) refroidis par liquide auparavant; notamment celui proposé par Lamptron l’année dernière qui servait également d’écran secondaire ou encore Tryx qui a dévoilé en mars dernier ce qui était considéré comme le premier refroidisseur AIO doté d’un écran AMOLED incurvé.
-
Général5 mois ago
X (anciennement Twitter) permet enfin de trier les réponses sur iPhone !
-
Technologie4 mois ago
Le PDG de Broadcom anticipe la montée en puissance des hyperscalers avec des clusters d’un million d’accélérateurs !
-
Général4 mois ago
L’Inter brille de mille feux face à Man City – Inzaghi enflamme le match !
-
Science et nature4 mois ago
Une OLED révolutionnaire pour une vision nocturne compacte et légère !
-
Divertissement4 mois ago
Résumé de l’épisode 2 de « Agatha All Along » : Plongée dans le monde des sorcières !
-
Général4 mois ago
Jáder Obrian marque à la 47e minute et propulse Austin FC en tête 1-0 face à LAFC !
-
Général4 mois ago
L’interdiction de l’avortement en Géorgie a coûté la vie à une jeune mère : la droite chrétienne désigne désormais la victime comme coupable
-
Général4 mois ago
Les scientifiques redéfinissent l’avenir scientifique de l’Afrique lors de la 15e conférence de l’AAS à Abuja