Connect with us

Général

La course aux paquets uniques : comment briser la limite des 65535 octets !

Posted on August 2, 2024  •  12 minutes  • 2429 words Table of contents Introduction TL;DR Limitation of single-packet attack Fragmentation of IP packet TCP and Sequence Number First Sequence Sync Combining IP fragmentation and First Sequence Sync Limiting factors Demonstration Further Improvements Conclusion Shameless plug Introduction Hello, I’m RyotaK (@ryotkak ), a security engineer at Flatt

Published

on

La course aux paquets uniques : comment briser la limite des 65535 octets !

Présentation

Dans ‌le domaine de ⁣la cybersécurité, une technique⁤ innovante a récemment émergé. En 2023, ​James Kettle ⁤de PortSwigger a publié‌ un article marquant intitulé Smashing the state machine: the true potential of web race conditions. ‌Dans ce document, ‌il a introduit une méthode d’attaque⁣ novatrice, connue sous le ​nom d’attaque ⁢à paquet unique, capable d’exploiter une condition de course sans être affectée par les ⁢variations du réseau.

  technologie Une image illustrant que l'attaque à paquet unique contourne les ​variations‌ du réseau
 

Extrait de Smashing the state machine: the true potential of web race conditions

Récemment, j’ai rencontré une condition de course de⁤ type dépassement de limite ‌nécessitant l’envoi d’environ ⁤10 000 requêtes⁣ simultanément pour être exploitée de manière​ fiable. J’ai donc⁣ tenté d’appliquer l’attaque à ​paquet unique à cette situation. Cependant, en⁤ raison de la contrainte de cette méthode, qui‌ limite la taille maximale ⁣des requêtes à environ⁢ 1 500 ⁣octets, je n’ai pas pu ‍exploiter la vulnérabilité.

Face à ce défi, j’ai commencé ⁣à chercher des⁢ solutions pour contourner cette limitation. J’ai découvert une méthode permettant d’étendre la contrainte ​de 1 500 octets de l’attaque à paquet unique,⁤ ainsi ‌que la‍ limite de ⁢65 535 octets du protocole TCP. Dans cet article, je vais expliquer comment‌ j’ai réussi à dépasser les limites habituelles de l’attaque à ​paquet unique et discuter des différentes manières de l’exploiter.

Résumé

Pour surmonter la contrainte ⁣de ⁣l’attaque à⁢ paquet unique, j’ai utilisé⁢ la‌ fragmentation IP et le réarrangement des numéros de‌ séquence TCP.

En utilisant la fragmentation au niveau⁣ IP, un ‌seul paquet TCP​ peut être ‍divisé en plusieurs paquets IP, permettant ainsi une ⁤utilisation optimale ‍de la taille de la fenêtre TCP. De‍ plus, en réorganisant les⁢ numéros de séquence TCP, j’ai empêché le serveur cible de traiter l’un des paquets TCP jusqu’à ​ce que ‌je…

Limites de⁤ l’attaque⁢ à paquet unique

Bien que l’attaque ‍à paquet unique soit une technique⁢ puissante, elle présente⁣ des limites notables. La restriction de ⁢taille de 1 500 octets peut poser un problème ⁤dans des scénarios où des données ‌plus volumineuses doivent être envoyées. Cela nécessite des approches alternatives pour contourner cette contrainte.

Fragmentation⁢ des paquets IP

La fragmentation‌ IP est‌ une​ méthode qui permet de diviser un paquet en plusieurs segments plus petits, facilitant ainsi ⁤leur ‌transmission à travers le réseau. Cette technique est essentielle pour maximiser l’utilisation de ⁢la bande⁢ passante et contourner les limitations de taille des paquets.

TCP et ⁣Numéro de Séquence

Le protocole⁤ TCP utilise des ⁣numéros de séquence pour assurer ⁢l’ordre des paquets. En manipulant ces numéros, ‌il est possible de contrôler la⁤ manière dont les ​paquets sont traités par le serveur, ce qui peut être exploité⁢ pour des attaques plus efficaces.

Synchronisation⁣ de la Première Séquence

La synchronisation des séquences est cruciale pour garantir que les⁤ paquets ⁣arrivent dans ⁢le bon ordre. Cela peut ‍être réalisé en ajustant les numéros de séquence de‍ manière stratégique,‍ permettant​ ainsi une exploitation plus ⁢efficace des vulnérabilités.

Combinaison de la ‌Fragmentation IP et⁢ de ‌la Synchronisation de la Première Séquence

En‌ combinant la fragmentation IP avec la​ synchronisation des ‌numéros⁤ de séquence, il est possible de créer une méthode d’attaque ⁤robuste ‍qui surmonte les limitations⁣ des techniques traditionnelles. Cette⁢ approche permet d’envoyer ‌des données plus volumineuses tout en‌ maintenant le contrôle sur​ l’ordre de traitement des paquets.

Facteurs⁤ Limitants

Malgré‌ les avancées réalisées, ‍plusieurs facteurs peuvent limiter l’efficacité de‌ cette méthode. Des éléments‍ tels que la ​latence du réseau, la configuration⁢ du serveur ‌cible ‌et les ‍mesures ⁢de sécurité mises en place peuvent ‍influencer le⁢ succès de l’attaque.

Démonstration

Pour illustrer l’efficacité de cette technique, une démonstration ⁣pratique peut être réalisée. Cela permet de mettre‍ en évidence ⁢les avantages de la‌ combinaison de la fragmentation IP ⁤et de la synchronisation des séquences dans un environnement⁤ contrôlé.

Améliorations ‍Supplémentaires

Il existe plusieurs⁣ pistes d’amélioration⁢ pour optimiser cette méthode d’attaque. L’exploration de nouvelles techniques de manipulation des paquets et‌ l’adaptation aux évolutions des protocoles de sécurité sont essentielles pour rester en avance sur les défenses mises en place.

Conclusion

l’attaque à paquet⁢ unique,⁢ bien⁣ qu’efficace, présente des limitations qui peuvent être surmontées par des techniques telles que la fragmentation IP et le⁢ réarrangement‌ des numéros de séquence. Ces méthodes offrent de nouvelles perspectives pour exploiter les vulnérabilités des systèmes, tout en soulignant l’importance d’une vigilance constante dans le domaine ⁣de la cybersécurité.

Grâce à ces méthodes, il est ‌possible d’exploiter de manière significative une vulnérabilité ‌mineure de dépassement ‌de limite, ce qui peut⁢ entraîner des failles graves, telles que le contournement de l’authentification par jeton unique. Lors des tests, j’ai réussi à envoyer 10 000 requêtes en environ 166​ ms.

Limitations des attaques à un seul ⁤paquet

Comme⁤ l’a souligné James dans son article⁢ sur l’attaque⁤ à un ‍seul paquet,⁢ cette méthode​ limite le nombre de requêtes ‍pouvant ⁣être synchronisées à environ ​20-30 requêtes :

Le TCP a une limite douce de 1 500 octets, et je n'ai jamais exploré comment dépasser cela, car 20-30 requêtes suffisent pour la plupart des conditions de concurrence.

En raison de cette contrainte,⁤ il est ⁣difficile d’exploiter des scénarios où l’on pourrait contourner la limitation de débit, par ⁣exemple, dans le cas de ⁢l’authentification par jeton unique,‌ même si le jeton⁣ ne contient que des chiffres. En​ effet, il est probable que ‍l’on ne puisse envoyer que 20-30 requêtes, même en contournant la limitation de débit.

Fragmentation ​des paquets IP

Pour comprendre la limite de 1 500 octets de⁣ l’attaque à un⁢ seul paquet, il est essentiel de saisir la⁢ relation entre le cadre Ethernet, le paquet IP et le paquet TCP.

Lorsqu’un ⁤paquet⁣ TCP est ‌envoyé sur Ethernet, ‌il est encapsulé dans un paquet IP,⁣ qui lui-même ⁢est encapsulé dans un cadre Ethernet ‌:

technologie Une ​image montrant comment le paquet TCP est encapsulé

La taille maximale d’un cadre Ethernet est de 1 ⁤518 octets, incluant l’en-tête Ethernet (14 octets) et ‌la séquence de vérification de cadre (4‌ octets), ce qui signifie que la taille maximale d’un paquet IP pouvant être encapsulé dans un seul cadre Ethernet est de 1⁢ 500 octets.1

C’est pourquoi​ James a mentionné 1 500 octets comme une limite⁢ douce pour le ‌TCP. Mais pourquoi le⁢ TCP⁢ permet-il une taille maximale de 65 535 octets ‍pour le paquet TCP alors que le⁣ paquet IP est limité ‍à 1 500 octets ?

En réalité, le paquet IP prend en charge la fragmentation, comme défini dans le ‌RFC 791.

La fragmentation d'un datagramme Internet est nécessaire lorsqu'il provient d'un réseau local qui autorise une grande taille de paquet et doit traverser un réseau local qui limite les paquets à une taille plus petite pour atteindre sa destination.

Lorsque⁢ le paquet IP est⁢ fragmenté, le paquet IP d’origine est⁤ divisé en plusieurs paquets IP plus petits, chacun étant ​encapsulé dans des cadres Ethernet ⁢différents.

technologie Une ‌image montrant que le paquet IP est fragmenté⁣ en plusieurs ⁣cadres

Étant donné que le paquet IP ​fragmenté ne sera pas transmis à la couche TCP tant que tous les‍ fragments ne ​seront pas reçus, nous pouvons synchroniser un grand paquet TCP même si nous le divisons en plusieurs paquets IP.

technologie Une image montrant que plusieurs fragments IP sont réassemblés en un​ seul paquet IP

TCP et Numéro de Séquence

Nous pouvons ‌maintenant envoyer un paquet TCP allant jusqu’à 65 535 octets2 en ​utilisant la fragmentation IP, mais cela reste insuffisant lorsque nous souhaitons envoyer un grand nombre de requêtes simultanément.

Étant donné que nous utilisons ​désormais pleinement la taille de la fenêtre TCP, nous ne pouvons pas étendre la limite davantage avec un seul ‌paquet TCP, il ​nous⁤ faut donc trouver comment synchroniser plusieurs paquets TCP.

Heureusement, le TCP garantit ​l’ordre des‌ paquets grâce au numéro de séquence. Lorsque le serveur ⁢cible reçoit le paquet TCP,‍ il vérifie le numéro de séquence et réorganise ‍les ⁢paquets en ‌fonction de ce ‍numéro.

technologie ⁣Une image montrant que les paquets TCP sont réordonnés en fonction du numéro de séquence

Une manière naturelle de penser au traitement des segments entrants est d'imaginer qu'ils sont d'abord testés pour leur numéro de séquence approprié (c'est-à-dire que leur contenu se situe dans la plage de la "fenêtre de réception" attendue dans l'espace des numéros de séquence) et ensuite qu'ils sont généralement mis en file d'attente et traités dans l'ordre des numéros de séquence.

Synchronisation du Premier Numéro de Séquence

Étant donné que le TCP garantit l’ordre des ⁣paquets, nous pouvons utiliser le numéro de séquence pour synchroniser plusieurs paquets TCP. Par exemple, considérons les paquets TCP ‌suivants à envoyer :

Paquet Numéro de Séquence
A       1    
B    ⁢   2   ‌ 
C       3 ⁢   

Si⁣ le serveur⁣ reçoit les paquets dans l’ordre B, C et A, il ne pourra‌ pas ​traiter les paquets tant ⁤qu’il ⁣n’aura ‍pas reçu le paquet A, car le serveur ⁢doit traiter les ⁢paquets dans l’ordre des numéros de séquence.

technologie Une image​ montrant comment le serveur ne peut pas⁤ traiter‍ le paquet

En utilisant ce comportement, nous pouvons empêcher le serveur de traiter les paquets ‌jusqu’à ce que nous envoyions le dernier⁤ paquet, qui ‍contient le premier numéro ‍de séquence. ⁢Ainsi, ‍nous pouvons forcer le serveur à traiter les ‌paquets simultanément en envoyant le paquet ​avec ​le premier numéro de séquence en dernier.

Combinaison ​de⁣ la Fragmentation IP et de ⁢la Synchronisation du ‌Premier ⁢Numéro de Séquence

En combinant ⁢la fragmentation IP et la synchronisation du premier numéro de séquence, nous⁣ pouvons désormais envoyer de nombreuses grandes requêtes simultanément sans nous⁤ soucier de la taille des requêtes.⁣ Voici un aperçu du⁢ flux des ⁢techniques :

Tout d’abord, le client établit une ‍connexion ‌TCP ⁣avec le serveur et ouvre des flux‍ HTTP/2, puis envoie ‍les données de requête,⁣ à l’exception‍ du dernier octet⁢ de chaque requête. À ce stade, l’application ​attend que le client envoie les‌ octets restants des requêtes, de sorte que les requêtes ne sont⁤ pas encore traitées.

Lorsqu’un client envoie des requêtes, il⁢ commence par créer de grands paquets TCP qui ​contiennent plusieurs ⁤trames HTTP/2, à l’exception du ⁢dernier octet des requêtes. Ces paquets sont ensuite transmis au ​serveur ‍via une fragmentation⁣ IP. Le paquet TCP⁢ contenant le premier numéro de séquence ‌est ⁢exclu.⁣ Une fois que le serveur reçoit ces paquets dans un ordre différent, il attend la réception du dernier⁣ paquet avant​ de ⁣transmettre les données à l’application.

Une fois que le serveur a reçu tous les⁣ paquets mentionnés,⁤ le client envoie le⁢ paquet TCP avec ‌le premier numéro de séquence, permettant ainsi au serveur de traiter toutes les​ requêtes simultanément.

Facteurs limitants

Bien que cette méthode semble efficace, plusieurs éléments peuvent⁤ influencer le nombre de requêtes pouvant être envoyées en parallèle.

Un facteur ‌évident est la taille du tampon TCP du serveur.‌ Étant donné que le serveur doit conserver ​les paquets dans le⁤ tampon jusqu’à⁣ ce qu’ils soient réassemblés, il est essentiel ‍que ce tampon soit‌ suffisamment grand pour gérer les paquets⁤ reçus dans le désordre.

Heureusement, la plupart des⁤ serveurs modernes disposent d’une RAM conséquente, et la plupart des systèmes d’exploitation​ sont configurés​ par défaut avec des tampons adéquats, ce qui fait que la taille du ‌tampon⁤ n’est généralement pas un problème majeur.

Cependant, un ‍autre facteur peut également limiter le nombre de requêtes simultanées. Dans le protocole HTTP/2, le nombre de ⁣flux pouvant être ouverts en même temps est restreint par le paramètre SETTINGS_MAX_CONCURRENT_STREAMS. Par​ exemple, si ce ⁤paramètre est fixé à 100, le serveur ne peut traiter que 100​ requêtes‍ simultanément sur une seule connexion TCP.

Cela pose un problème crucial lorsque nous ​tentons d’appliquer les techniques décrites ici, car il est nécessaire ‌d’envoyer les requêtes dans une seule connexion TCP ⁤pour utiliser la synchronisation du premier numéro⁢ de séquence.

Malheureusement,‌ des serveurs HTTP populaires comme Apache et ​Nginx imposent⁢ des limites strictes sur le paramètre SETTINGS_MAX_CONCURRENT_STREAMS :

Implémentation Valeur par défaut SETTINGS_MAX_CONCURRENT_STREAMS
Apache ‌httpd 100
Nginx 128
Go 250

Il est⁤ à noter que la RFC 9113 définit la valeur initiale de SETTINGS_MAX_CONCURRENT_STREAMS comme illimitée, ‌et certaines implémentations offrent des limites généreuses :

Implémentation Valeur par défaut SETTINGS_MAX_CONCURRENT_STREAMS
nghttp2 4294967295
Node.js 4294967295

Ainsi, les techniques abordées dans ⁣cet⁢ article pourraient s’avérer très efficaces selon l’implémentation HTTP/2 utilisée par le serveur.

Démonstration

Dans cette section, je⁢ vais évaluer les performances de la ⁢synchronisation du‌ premier numéro de séquence‍ et montrer à ⁣quoi ⁢ressemble ‌l’exploitation de la vulnérabilité de dépassement de limite.

Pour​ cette démonstration, j’ai utilisé l’environnement ⁣suivant ⁢:

Serveur Client
Plateforme AWS EC2 AWS EC2
Système d’exploitation Amazon⁤ Linux 2023 Amazon Linux ⁢2023
Version⁤ du‍ noyau 6.1.91 6.1.91
Type d’instance c5a.4xlarge t2.micro
Région sa-east-1 ap-northeast-1

Ces serveurs sont situés presque aux antipodes l’un⁣ de l’autre, avec une latence réseau d’environ 250 ms.

J’ai configuré‌ les ‍iptables de la machine cliente pour empêcher l’envoi de ⁣paquets RST au serveur :

iptables -A OUTPUT -p tcp --tcp-flags RST RST -s [IP] -j DROP

Dans un premier⁢ temps, je vais synchroniser 10 000 requêtes en utilisant la synchronisation du premier numéro ‍de séquence et mesurer le temps ⁣nécessaire pour envoyer ces requêtes. Le code utilisé pour cette évaluation est disponible dans le dossier rc-benchmark du dépôt.

Voici les résultats du test de performance :

Métriques Valeur
Temps total 166460500ns
Temps moyen entre les requêtes 16647ns
Temps ‌maximum entre les requêtes 553627ns
Temps médian entre les requêtes 14221ns
Temps‌ minimum⁢ entre ⁢les requêtes 220ns

Comme ‍vous pouvez le constater, j’ai réussi à envoyer 10 000‌ requêtes en environ ‍166 ms. Cela⁣ correspond⁢ à 0,0166 ms par requête, ce qui est extrêmement‌ rapide, surtout lorsque l’on considère ‌que la latence réseau⁣ entre les serveurs est d’environ 250 ms.

Je ⁣vais maintenant illustrer l’exploitation d’une vulnérabilité de dépassement de limite ​dans‍ l’authentification par jeton unique. Le ⁤code utilisé pour cette démonstration ⁤est disponible dans le dossier rc-pin-bypass du dépôt.

Bien que le logiciel du serveur cible limite le nombre ‍maximum de tentatives d’authentification à 5, la machine cliente a pu effectuer 1 000 tentatives, contournant ainsi la limitation de débit. En comparaison, lors d’une attaque similaire avec la ⁢synchronisation du dernier octet, seulement environ⁣ 10 tentatives ‌étaient possibles, ce qui rend cette méthode beaucoup plus fiable ⁢et efficace.

Améliorations Supplémentaires

Bien que la démonstration ait⁤ été concluante, plusieurs améliorations⁢ pourraient rendre l’attaque encore ‍plus‍ fiable et efficace. Voici quelques suggestions⁤ :

  1. Prise en charge de HTTPS :‌ Le PoC actuel nécessite le support de ⁤HTTP/2 sur une connexion non chiffrée, ‌ce que certaines ​implémentations ne permettent pas, car le navigateur ne supporte HTTP/2 que sur TLS. En‌ intégrant le support TLS, nous ⁤pourrions appliquer ces techniques à ⁢un plus large éventail⁢ de cibles.
  2. Gestion des mises à jour de ​la fenêtre TCP par ​le serveur ‍cible : L’implémentation actuelle ne ​prend pas en compte le ‍cas ⁤où le ‌serveur cible met⁤ à jour la fenêtre TCP pendant ‌l’envoi des requêtes. ⁤Avec le PoC actuel, l’attaque échouera probablement si le serveur cible effectue cette mise à jour.
  3. Intégration avec des outils proxy existants : Le‌ PoC actuel manque⁤ de flexibilité et nécessite des modifications ‍du code pour ajouter des en-têtes ⁢ou modifier le corps de la requête. En intégrant des⁢ outils proxy​ comme Burp ⁢Suite ou Caido, nous pourrions facilement ajuster les ‌requêtes ⁤et⁢ les en-têtes.
    • Veuillez noter que cela pourrait ne pas être possible, car ces techniques ​reposent ​sur les couches ⁣3 et‌ 4 du ‌modèle OSI,​ tandis que les outils ‍proxy sont conçus pour fonctionner ‍sur la couche 7.

Conclusion

Dans‍ cet article, j’ai présenté une technique que‌ j’ai nommée ⁢ Synchronisation de Première Séquence pour contourner les limitations des attaques par⁢ paquet unique. Ces ‌techniques peuvent s’avérer très puissantes selon l’implémentation de HTTP/2 utilisée⁣ par le serveur et‍ sont ⁣particulièrement utiles ‌pour exploiter ⁣des vulnérabilités de dépassement de limite ⁢qui ‍sont difficiles à exploiter avec des méthodes traditionnelles.

Bien que cette technique puisse encore⁣ être perfectionnée, je⁤ la trouve déjà⁤ très précieuse pour exploiter des vulnérabilités autrement inaccessibles. En fait, j’ai ⁢réussi à exploiter la vulnérabilité mentionnée précédemment,⁤ et j’espère que vous⁢ pourrez ​également obtenir des ‌résultats‍ similaires. ‌J’attends‌ également avec impatience de voir de nouveaux outils intégrant ces techniques.

Promotion

Chez Flatt Security,‍ nous nous spécialisons dans ⁣l’évaluation de la sécurité et les services de tests d’intrusion⁢ de haute qualité. Pour ‌célébrer le lancement de nos nouvelles pages web en anglais, nous ​offrons actuellement une enquête d’un mois par nos ingénieurs d’élite pour seulement 40 000 $ !

Nous proposons également un outil d’évaluation de la sécurité puissant appelé Shisho Cloud, qui combine la gestion de la posture de sécurité dans le cloud (CSPM) et la⁢ gestion des droits d’accès à l’infrastructure cloud ⁣(CIEM) avec des tests de sécurité d’applications dynamiques (DAST) pour les applications web.

Si vous ⁤souhaitez ⁤en‌ savoir ⁤plus,⁣ n’hésitez pas‍ à nous contacter à l’adresse suivante⁣ : https://flatt.tech/en.

Général

Le pare-brise de la BMW Panoramic iDrive : une expérience immersive à couper le souffle !

BMW a révélé son nouveau système Panoramic iDrive, révolutionnant l’expérience de conduite avec un affichage tête haute 3D qui s’étend sur tout le pare-brise. Imaginez un intérieur où toutes les informations essentielles, comme la vitesse et les directions, sont projetées directement dans votre champ de vision ! C’est une véritable couche de réalité augmentée qui connecte le conducteur à la route.

Avec des boutons haptiques sur le volant et un écran tactile central innovant, chaque détail est conçu pour une personnalisation optimale. Préparez-vous à découvrir cette technologie futuriste dans le prochain SUV électrique X-Class de BMW fin 2025 !

Published

on

Le pare-brise de la BMW Panoramic iDrive : une expérience immersive à couper le souffle !

Une ‌Révolution Technologique : Le Nouveau Système BMW : un aperçu captivant du futur de l'infodivertissement »>iDrive Panoramique de BMW

une Vision d’Avenir

BMW a récemment présenté son innovant système iDrive Panoramique,qui ​se distingue par un affichage tête haute en 3D ⁢impressionnant,occupant l’intégralité du pare-brise. si vous pensiez que l’intérieur‌ épuré des ‌Tesla ‌était à la pointe, attendez de découvrir cette nouvelle⁢ approche.

Un Affichage Révolutionnaire

Fini le tableau de ⁣bord traditionnel ​devant le volant. Désormais, toutes les informations sont projetées directement dans le champ de⁢ vision du conducteur via le pare-brise. Cela inclut la vitesse, les données d’assistance à la conduite, ⁢les feux ​de ⁢circulation, les panneaux routiers⁢ et ⁢même des indications ​de navigation et niveaux de batterie. Chaque ​élément est personnalisable pour ⁤que chaque conducteur puisse choisir ce ​qu’il souhaite afficher. Par ‍exemple,​ lorsque l’assistance ⁣au⁢ conducteur est activée, le chemin navigué s’illumine⁤ en vert.

Frank Weber, directeur technique chez BMW, décrit cette configuration ⁢comme une couche de réalité augmentée ‌qui maintient le ⁤conducteur connecté à la⁤ route.

Intégration des Retours Clients

La société a déclaré que l’intégration des instructions de⁤ navigation avec les données d’assistance au conducteur représente une évolution naturelle alors que⁤ nous nous dirigeons vers des niveaux plus élevés d’automatisation⁣ dans la conduite.De plus,​ ils ont souligné que les retours clients ont été ‌essentiels ⁢pour façonner plusieurs fonctionnalités intelligentes affichées sur‌ ce nouveau système.

!Image

Un Volant Repensé

Les⁣ innovations ⁣ne s’arrêtent pas au pare-brise ‍; BMW ‍a‍ également repensé son volant‍ en y intégrant des ⁣boutons haptiques qui s’illuminent selon différents réglages.

Un nouvel écran tactile central en forme de ⁣losange accompagne cet interface sur le pare-brise et⁣ permet aux utilisateurs d’interagir directement avec lui.Ce dernier offre une interface hautement personnalisable où chacun peut prioriser ses applications favorites (appelées « pixels » par BMW) pour un accès rapide et⁤ facile. La marque envisage également‍ un magasin d’applications pour ⁢encore plus ⁤de fonctionnalités et personnalisations.

Un Système opérationnel ‌Innovant

Le logiciel qui alimente ​ce système est appelé BMW Operating System‍ X ; il ⁤est développé entièrement en interne par l’entreprise et repose sur Android Open Source Project.

!Image

L’Intelligence Artificielle au Service du Conducteur‍

Aucun ​lancement technologique en 2025 ne serait complet sans une touche d’intelligence artificielle (IA).Le système ⁤iDrive ⁣utilise cette technologie⁢ pour apprendre les ‍habitudes et comportements des conducteurs afin d’afficher automatiquement les applications pertinentes ainsi que leurs réglages préférés. Par exemple, si un utilisateur emprunte souvent un itinéraire spécifique vers ⁤son domicile tout en activant⁢ le mode sport, ces paramètres seront proposés proactivement lors du prochain trajet.De plus, selon ‍BMW ,les modèles linguistiques avancés rendent les commandes vocales beaucoup plus naturelles et conversationnelles ; ⁤plutôt que d’utiliser⁣ des mots-clés spécifiques comme « station », il suffit simplement aux conducteurs dire‌ quelque chose comme « trouve une station de recharge près du‍ supermarché ».

Début D’une Nouvelle Ère

Ce design⁣ intérieur audacieux fera​ ses débuts dans le ⁤futur SUV électrique ‌X-Class prévu fin 2025;​ plusieurs autres véhicules basés sur la ⁣nouvelle plateforme « Neue Klasse » suivront bientôt après cela.

!image

Considérations Sécuritaires⁣ Émergentes

Un changement⁢ aussi radical pourrait diviser l’opinion parmi ceux attachés aux⁢ intérieurs‍ classiques ⁤dotés depuis longtemps d’aiguilles traditionnelles et compteurs analogiques caractéristiques chez BMW . Il sera également intéressant d’observer comment la marque abordera‍ les‌ préoccupations relatives à la sécurité; celles-ci étant​ devenues cruciales pour toutes ⁤entreprises automobiles électriques adoptant entièrement interfaces tactiles . En effet , Euro NCAP introduira dès 2026 nouvelles directives exigeant certaines fonctions essentielles soient accessibles via⁣ boutons physiques⁣ afin qu’un véhicule puisse obtenir cinq étoiles lors évaluations sécurité .

Continue Reading

Général

Nvidia révolutionne le monde physique avec GenAI et Cosmos !

Lors de la keynote très attendue du CES 2025, le PDG de Nvidia, Jensen Huang, a captivé l’audience avec des annonces révolutionnaires. Parmi les innovations présentées, le modèle Cosmos se distingue par sa capacité à transformer l’IA générative en actions physiques. Cela signifie que des robots et véhicules autonomes pourront réagir plus efficacement aux stimuli du monde réel. Nvidia ouvre ainsi la voie à une nouvelle ère d’applications robotiques et automobiles, tout en rendant ses modèles disponibles gratuitement pour encourager l’expérimentation.

Published

on

Nvidia révolutionne le monde physique avec GenAI et Cosmos !

Innovations Technologiques : les Annonces Marquantes de Nvidia au CES 2025

Un Événement Incontournable

Lors du CES 2025, l’une des conférences les plus attendues a été celle de Jensen Huang, le PDG de Nvidia. Ce dernier a présenté une série d’annonces captivantes touchant à divers sujets technologiques d’actualité tels que l’intelligence artificielle (IA), la robotique et les véhicules autonomes.

Nouveaux Produits et Progrès Technologiques

Vêtu d’une version scintillante de son emblématique blouson en cuir noir,Huang a détaillé les dernières cartes graphiques GeForce RTX 50 ainsi que des modèles fondamentaux d’IA appelés Nemotron. Il a également partagé des plans pour des agents alimentés par IA.

Parmi les innovations notables figurent des extensions à la plateforme Omniverse, qui permet la création de jumeaux numériques et simule l’interaction entre l’IA et le monde physique. De plus, un superordinateur AI compact nommé Project Digits a été introduit, propulsé par le GPU Grace Blackwell.

Cosmos : Une Révolution dans l’Intelligence Artificielle

Une annonce particulièrement intrigante fut celle du projet Cosmos. Ce dernier est défini comme un ensemble complet de modèles fondamentaux mondiaux intégrant des tokenizers avancés et une pipeline vidéo sophistiquée.L’objectif principal est d’étendre les capacités génératives de l’IA au-delà du numérique vers le monde physique.

En termes simples, alors que la plupart des systèmes génératifs se concentrent sur la création numérique basée sur une vaste base documentaire ou visuelle, Cosmos vise à produire des actions physiques en s’appuyant sur ses données issues d’environnements simulés numériquement.

Implications pratiques pour Divers secteurs

Les implications pratiques sont significatives pour divers domaines tels que la robotique ou les véhicules autonomes. Par exemple, grâce à Cosmos, il devient possible pour un robot humanoïde d’apprendre à exécuter efficacement une tâche spécifique comme retourner une omelette ou manipuler des pièces dans une chaîne de production.De même,un véhicule autonome peut s’adapter dynamiquement aux différentes situations rencontrées sur la route.

Actuellement,ces formations reposent souvent sur un travail manuel intensif où il faut filmer plusieurs fois chaque action humaine ou faire parcourir aux voitures autonomes plusieurs millions de kilomètres. Avec Cosmos cependant,ces méthodes peuvent être automatisées ce qui réduit considérablement coûts et délais tout en élargissant le volume de données disponibles pour entraîner ces systèmes.

La Plateforme cosmo : Un Outil Puissant

Nvidia présente donc Cosmos comme une plateforme dédiée au développement mondial fondée sur l’IA générative qui intègre divers outils facilitant cette évolution technologique rapide. En tant qu’extension directe du simulateur Omniverse déjà existant chez Nvidia, elle permet non seulement d’extrapoler les modèles numériques mais aussi leur request concrète dans notre réalité quotidienne.

Au cœur même du projet se trouvent ces modèles fondamentaux construits grâce à millions heures vidéos accumulées permettant ainsi aux machines formées avec cette technologie réagir avec précision face aux stimuli physiques variés qu’elles rencontrent dans leur environnement réel.

Vers un Avenir Prometteur

Jensen Huang n’a pas manqué souligner lors sa présentation comment nous assistons actuellement à une transition majeure vers ce qu’il appelle « l’IA physique ». en rendant ses modèles disponibles gratuitement afin encourager recherche avancée en robotique et véhicules autonomes , Nvidia montre sa volonté soutenir innovation tout en anticipant tendances futures .

À court terme cependant , cet impact pourrait rester limité car principalement destiné développeurs spécialisés . Néanmoins , son potentiel transformationnel pourrait accélérer considérablement progrès produits concernés tout en améliorant sécurité efficacité systèmes associés .Ces développements témoignent également transformation continue chez Nvidia vers entreprise axée logiciel capable bâtir plateformes adaptées nouvelles applications émergentes. Pour ceux intéressés comprendre direction future société , ces annonces offrent perspectives fascinantes quant maintien croissance impressionnante entreprise .

Continue Reading

Général

L’écran tactile secondaire Corsair Xeneon Edge : un 32:9 qui s’installe partout !

Qu’est-ce qui vient de se passer ? Le CES est toujours une vitrine incroyable de produits technologiques, et cette année, Corsair nous surprend avec son écran tactile Xeneon Edge. Avec ses 14,5 pouces et un rapport d’aspect 32:9, cet écran secondaire pourrait bien devenir l’outil indispensable pour les passionnés de technologie. Grâce à sa résolution impressionnante de 2560 par 720 pixels et à sa connectivité polyvalente via USB Type-C ou HDMI, il s’adapte à tous vos besoins. Imaginez pouvoir gérer vos réseaux sociaux tout en surveillant votre système ! Restez à l’affût pour plus d’infos !

Published

on

L’écran tactile secondaire Corsair Xeneon Edge : un 32:9 qui s’installe partout !

Nouveaux Horizons Technologiques : Le Xeneon Edge de Corsair

Qu’est-ce qui se passe ?

Chaque année, le CES présente une multitude de nouveaux produits technologiques, certains étant plus pratiques que d’autres. L’intérêt que vous portez à l’écran tactile Xeneon Edge de Corsair dépendra probablement de votre besoin d’un écran secondaire de 14,5 pouces au format 32:9.

Une Évolution des Écrans Secondaires

Bien que les écrans secondaires ne soient pas une nouveauté, leur complexité a considérablement augmenté ces dernières années. Le Xeneon Edge se distingue par son design innovant et ses caractéristiques techniques impressionnantes. Avec une résolution LCD de 2560 x 720 pixels, il offre une densité d’affichage remarquable de 183 PPI, un niveau de luminosité atteignant 350 nits et un taux de rafraîchissement à 60 Hz sur son panneau IPS.

!Image du Xeneon Edge

Flexibilité et Installation

Le Xeneon Edge est conçu pour s’adapter à divers environnements. Il peut être placé sur un bureau grâce au support inclus ou fixé à un PC ou toute surface ferromagnétique grâce aux quatorze aimants intégrés. De plus, il peut être installé dans un boîtier via un point de montage pour radiateur de 360 mm, ce qui est plutôt séduisant. Corsair affirme également qu’il est plus mince qu’un ventilateur classique, minimisant ainsi les préoccupations liées à l’espace.

!Installation du Xeneon Edge

Connectivité et Utilisation Pratique

Pour la connexion, le dispositif utilise soit le port USB Type-C DP-Alt Mode soit un port HDMI standard. Une caractéristique intéressante est sa capacité à fonctionner en orientation verticale ou horizontale.Cela en fait un outil idéal pour ceux qui souhaitent faire défiler leurs fils d’actualités sur les réseaux sociaux ou surveiller Discord simultanément. Windows reconnaîtra le Xeneon Edge comme écran additionnel.

Corsair indique également que cet écran tactile capacitif multi-touch à cinq points fonctionne comme n’importe quel autre affichage tactile sous Windows.!Fonctionnalités du Xeneon Edge

Intégration avec iCue

L’écran s’intègre parfaitement avec le logiciel iCue de Corsair permettant aux utilisateurs d’accéder facilement aux informations concernant la vitesse des ventilateurs du système, les températures ainsi que l’utilisation du CPU et GPU. Les utilisateurs peuvent aussi ajuster différents paramètres tels que les profils lumineux et la gestion des ventilateurs directement depuis l’écran tactile.

Disponibilité et Prix

Aucune details précise n’a encore été communiquée concernant le prix du xeneon Edge; cependant, il pourrait s’avérer assez onéreux compte tenu des fonctionnalités avancées proposées par cet appareil innovant. La disponibilité est prévue pour le deuxième trimestre 2025 chez les revendeurs Corsair ainsi que sur leur site officiel.

Dans cette même veine technologique, nous avons déjà vu plusieurs écrans LCD intégrés dans des systèmes AIO (All-in-One) refroidis par liquide auparavant; notamment celui proposé par Lamptron l’année dernière qui servait également d’écran secondaire ou encore Tryx qui a dévoilé en mars dernier ce qui était considéré comme le premier refroidisseur AIO doté d’un écran AMOLED incurvé.

Continue Reading

Trending

Copyright © 2024 Tecknews.