Connect with us

Technologie

Les entreprises d’IA ont promis de s’auto-réguler il y a un an. Qu’est-ce qui a vraiment changé ?

One year ago, on July 21, 2023, seven leading AI companies—Amazon, Anthropic, Google, Inflection, Meta, Microsoft, and OpenAI—committed with the White House to a set of eight voluntary commitments on how to develop AI in a safe and trustworthy way. These included promises to do things like improve the testing and transparency around AI systems

Published

on

Les entreprises d’IA ont promis de s’auto-réguler il y a un an. Qu’est-ce qui a vraiment changé ?

Un an après la signature des engagements volontaires, le paysage de l’intelligence artificielle (IA) a connu des évolutions notables. Le 21 juillet 2023, sept entreprises majeures du secteur de l’IA — Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI — ont pris des engagements auprès de la Maison Blanche pour développer l’IA de manière sécurisée et fiable. Ces engagements incluaient des promesses d’améliorer les tests et la transparence des systèmes d’IA, ainsi que de partager des informations sur les risques potentiels.

À l’occasion de cet anniversaire, le MIT Technology Review a interrogé ces entreprises sur leurs avancées. Les réponses reçues indiquent que le secteur technologique a réalisé des progrès appréciables, bien que des réserves demeurent. Les engagements ont été pris à un moment où l’engouement pour l’IA générative atteignait son paroxysme, avec des entreprises en compétition pour lancer des modèles toujours plus performants. Parallèlement, des préoccupations ont émergé concernant des enjeux tels que les droits d’auteur et les deepfakes. Des figures influentes, comme Geoffrey Hinton, ont également exprimé des inquiétudes sur les risques existentiels que l’IA pourrait poser pour l’humanité, entraînant un débat urgent sur la nécessité de rendre l’IA plus sûre.

Historiquement, le développement de l’IA a été un véritable Far West. Les États-Unis ont souvent hésité à réglementer leurs géants technologiques, préférant leur laisser le soin de s’auto-réguler. Les engagements volontaires représentent une première tentative de règles prescriptives pour le secteur de l’IA, bien qu’ils restent non contraignants. Depuis, la Maison Blanche a émis un décret exécutif qui élargit ces engagements à d’autres entreprises technologiques et départements gouvernementaux.

Merve Hickok, présidente et directrice de recherche au Center for AI and Digital Policy, a noté que, bien que certaines bonnes pratiques aient été mises en place, il reste encore un long chemin à parcourir en matière de gouvernance et de protection des droits. De nombreuses entreprises continuent de faire des affirmations non fondées sur leurs produits, prétendant qu’ils peuvent surpasser l’intelligence humaine.

Un des points saillants des réponses des entreprises est leur engagement accru dans des solutions techniques, telles que les tests de red-teaming, où des experts examinent les modèles d’IA pour en identifier les failles, ainsi que l’utilisation de filigranes pour le contenu généré par l’IA. Cependant, il reste à déterminer si ces engagements ont réellement conduit à des changements significatifs ou si les entreprises auraient mis en œuvre ces mesures de toute façon.

Depuis la signature des engagements, des changements notables ont eu lieu, comme le départ de Mustafa Suleyman, fondateur d’Inflection AI, qui a rejoint Microsoft pour diriger ses efforts en matière d’IA. Robyn Patterson, porte-parole de la Maison Blanche, a exprimé sa gratitude pour les progrès réalisés par les entreprises, tout en appelant le Congrès à adopter une législation bipartisane sur l’IA.

Sans une législation fédérale complète, la meilleure option pour les États-Unis est d’exiger que les entreprises respectent ces engagements volontaires. Brandie Nonnecke, directrice du CITRIS Policy Lab à l’UC Berkeley, souligne que ces entreprises sont en quelque sorte les juges de leurs propres performances, ce qui soulève des questions sur la rigueur de leur auto-évaluation.

Évaluation des engagements des entreprises d’IA

Engagement 1 : Tests de sécurité

Les entreprises s’engagent à effectuer des tests de sécurité internes et externes de leurs systèmes d’IA avant leur lancement. Ces tests, en partie réalisés par des experts indépendants, visent à prévenir des risques majeurs liés à l’IA, notamment en matière de bio-sécurité et de cybersécurité.

Tous les signataires, à l’exception d’Inflection, affirment mener des exercices de red-teaming pour identifier les failles de leurs modèles. OpenAI, par exemple, dispose d’une équipe dédiée à la préparation qui teste ses modèles contre des menaces variées. Anthropic a collaboré avec des experts du UK AI Safety Institute pour tester son modèle Claude 3.5 avant son déploiement. Google et Microsoft ont également mis en place des évaluations similaires pour leurs modèles respectifs.

Cependant, il ne suffit pas de déclarer que des actions sont entreprises ; il est essentiel de démontrer leur efficacité. Par exemple, Amazon et Anthropic ont mentionné leur collaboration avec l’organisation Thorn pour protéger les enfants des risques liés à l’IA, mais des précisions sur l’impact de ces interventions seraient souhaitables.

Résultat : Positif. L’accent mis sur le red-teaming et les tests pour divers risques est une initiative importante, bien que l’accès des chercheurs indépendants aux modèles des entreprises pourrait être amélioré.

Engagement 2 : Partage d’informations

Les entreprises s’engagent à partager des informations sur la gestion des risques liés à l’IA avec d’autres acteurs de l’industrie, les gouvernements, la société civile et le milieu académique. Cela inclut les meilleures pratiques en matière de sécurité et les tentatives de contournement des mesures de protection.

Suite à la signature des engagements, Anthropic, Google, Microsoft et OpenAI ont fondé le Frontier Model Forum, une organisation à but non lucratif visant à faciliter les discussions sur la sécurité et la responsabilité en matière d’IA. Bien que l’engagement avec des organisations à but non lucratif financées par ces entreprises puisse soulever des questions, le forum pourrait favoriser la coopération entre elles pour échanger des informations sur la sécurité.

Tous les signataires font également partie du Consortium de l’Institut de Sécurité de l’Intelligence Artificielle (AISIC), établi par le National Institute of Standards and Technology (NIST), qui élabore des lignes directrices et des normes pour la politique de l’IA et l’évaluation de ses performances.

Engagement des entreprises en matière d’IA : Un aperçu des initiatives et des défis

Collaboration entre secteurs public et privé

Un ensemble diversifié d’acteurs, tant du secteur public que privé, participe activement aux discussions sur l’intelligence artificielle (IA). Des géants technologiques tels que Google, Microsoft et OpenAI sont également représentés au sein du Haut Conseil Consultatif des Nations Unies sur l’Intelligence Artificielle. Ces entreprises mettent en avant leurs collaborations avec le milieu académique pour renforcer la recherche en IA. Par exemple, Google est membre de MLCommons, où il collabore avec des chercheurs sur un benchmark de sécurité en IA intersectoriel. De plus, Google contribue à des projets comme le programme pilote de la National Science Foundation, qui vise à rendre la recherche en IA plus accessible aux États-Unis.

Engagements en matière de sécurité des modèles d’IA

Les entreprises se sont engagées à investir dans la cybersécurité et à mettre en place des mesures de protection contre les menaces internes pour sécuriser les poids de modèles non publiés. Ces poids sont cruciaux pour le fonctionnement des systèmes d’IA, et les entreprises conviennent qu’ils ne doivent être divulgués qu’avec prudence, en tenant compte des risques de sécurité.

Au cours de l’année écoulée, plusieurs entreprises ont renforcé leurs mesures de cybersécurité. Microsoft, par exemple, a lancé l’Initiative Futur Securisé pour faire face à l’augmentation des cyberattaques. La société affirme que ses poids de modèles sont chiffrés pour réduire le risque de vol, et elle applique des contrôles d’identité stricts lors du déploiement de modèles propriétaires avancés. Google a également mis en place une Initiative de Défense Cybernétique, tandis qu’OpenAI a introduit de nouvelles mesures de sécurité, y compris un programme de subventions pour la cybersécurité, permettant aux chercheurs d’accéder à ses modèles pour développer des défenses.

Amazon a également pris des mesures spécifiques pour contrer les attaques ciblant l’IA générative, telles que l’empoisonnement de données et l’injection de prompts. Peu après avoir signé ces engagements, Anthropic a partagé des détails sur ses protections, qui incluent des pratiques de cybersécurité courantes, comme le contrôle d’accès aux modèles et l’inspection de la chaîne d’approvisionnement tierce.

Audit et transparence des systèmes d’IA

Les entreprises se sont engagées à faciliter la découverte et le signalement des vulnérabilités dans leurs systèmes d’IA par des tiers. Bien que des problèmes puissent persister après le lancement d’un système d’IA, un mécanisme de signalement robuste permet de les identifier et de les corriger rapidement. L’une des réponses les plus populaires à cet engagement a été la mise en place de programmes de récompense pour les bogues, qui incitent les chercheurs à signaler les failles dans les systèmes d’IA. Anthropic, Google, Microsoft, Meta et OpenAI ont tous mis en place de tels programmes.

Cependant, des experts comme Brandie Nonnecke soulignent que la mise en œuvre d’audits par des tiers pourrait prendre des années et pose des défis à la fois techniques et socio-techniques. Elle s’inquiète que les premières entreprises à adopter ces audits puissent établir de mauvais précédents en matière de gestion des risques socio-techniques liés à l’IA.

Mécanismes techniques pour la transparence

Les entreprises se sont engagées à développer des mécanismes techniques robustes pour informer les utilisateurs lorsque le contenu est généré par une IA, comme un système de filigrane. Cela favorise la créativité tout en réduisant les risques de fraude et de tromperie. Plusieurs entreprises ont déjà mis en place des outils de filigrane pour le contenu généré par l’IA. Par exemple, Google a lancé SynthID, un outil de filigrane pour divers types de contenu, tandis qu’Amazon ajoute un filigrane invisible à toutes les images générées par son générateur d’images Titan.

En outre, la plupart des entreprises signataires font partie de la Coalition pour la Provenance et l’Authenticité du Contenu (C2PA), qui intègre des informations sur la création et l’édition de contenu par l’IA dans les métadonnées des images. Microsoft et OpenAI attachent automatiquement ces métadonnées aux images générées par DALL-E 3.

Rapport sur les capacités et les risques des systèmes d’IA

Les entreprises se sont engagées à rendre compte publiquement des capacités, des limites et des domaines d’utilisation appropriés et inappropriés de leurs systèmes d’IA. Ce rapport doit aborder à la fois les risques de sécurité et les risques sociétaux, tels que les effets sur l’équité et les biais. Cependant, les engagements de la Maison Blanche laissent une grande place à l’interprétation, permettant aux entreprises de répondre à cette exigence avec des niveaux de transparence très variés.

Les solutions les plus courantes proposées par les entreprises technologiques incluent des « cartes de modèle », qui agissent comme des descriptions de produit pour les modèles d’IA. Microsoft, par exemple, publie un rapport annuel sur la transparence de l’IA responsable, offrant un aperçu de la manière dont l’entreprise développe des applications utilisant l’IA générative.

Conclusion

Bien que des progrès aient été réalisés dans l’engagement des entreprises envers la sécurité et la transparence des systèmes d’IA, il reste encore beaucoup à faire. Les initiatives en matière de cybersécurité, d’audit et de transparence sont des étapes positives, mais leur efficacité dépendra de la mise en œuvre concrète et de la collaboration continue entre les différents acteurs du secteur.

Améliorations nécessaires dans la gouvernance de l’IA

Les entreprises d’intelligence artificielle (IA) doivent encore progresser dans plusieurs domaines. Selon Hickok, une des principales améliorations serait d’accroître la transparence concernant leurs structures de gouvernance et les relations financières entre les sociétés. Elle aurait également souhaité que ces entreprises soient plus ouvertes sur l’origine des données, les processus de formation des modèles, les incidents de sécurité et la consommation d’énergie.

Engagement 7 : Priorité à la recherche sur les risques sociétaux

Les entreprises s’engagent à concentrer leurs efforts de recherche sur les risques sociétaux que les systèmes d’IA peuvent engendrer, notamment en évitant les biais nuisibles et la discrimination, ainsi qu’en protégeant la vie privée. L’historique de l’IA met en lumière la nature insidieuse et la prévalence de ces dangers, et les entreprises s’engagent à développer des IA qui les atténuent.

Les entreprises technologiques ont intensifié leurs recherches sur la sécurité et ont intégré leurs découvertes dans leurs produits. Par exemple, Amazon a mis en place des garde-fous pour Amazon Bedrock, capables de détecter les hallucinations et d’appliquer des protections en matière de sécurité, de confidentialité et de véracité. Anthropic a constitué une équipe de chercheurs dédiée à l’étude des risques sociétaux et de la vie privée. Au cours de l’année passée, la société a publié des recherches sur la tromperie, le contournement des systèmes, des stratégies pour réduire la discrimination, ainsi que sur des capacités émergentes, telles que la capacité des modèles à manipuler leur propre code ou à persuader. OpenAI, de son côté, a formé ses modèles pour éviter de produire du contenu haineux et refuse de générer des réponses basées sur des stéréotypes. Google DeepMind a également publié des recherches pour évaluer les capacités dangereuses et a mené une étude sur les abus potentiels de l’IA générative.

Investissements significatifs dans la recherche sur la sécurité

Ces entreprises ont investi massivement dans ce domaine de recherche. Par exemple, Google a alloué des millions de dollars à la création d’un nouveau fonds de sécurité de l’IA pour promouvoir la recherche à travers le Frontier Model Forum. Microsoft a annoncé un engagement de 20 millions de dollars en crédits informatiques pour étudier les risques sociétaux via le National AI Research Resource et a lancé son propre programme d’accélérateur de recherche sur les modèles d’IA pour les universitaires, appelé le programme Accelerating Foundation Models Research. De plus, la société a recruté 24 chercheurs spécialisés dans l’IA et la société.

Évaluation : Très bon. Cet engagement est relativement facile à respecter, étant donné que les signataires sont parmi les plus grands et les plus riches laboratoires de recherche en IA au monde. Bien que la recherche sur la sécurité soit une étape bienvenue, certains critiques estiment que cette focalisation détourne l’attention et les ressources des recherches sur des problèmes plus immédiats, tels que la discrimination et les biais.

Engagement 8 : Utilisation de l’IA pour relever les défis sociétaux

Les entreprises s’engagent à développer et déployer des systèmes d’IA avancés pour aider à résoudre les plus grands défis de la société. Que ce soit pour la prévention du cancer, l’atténuation du changement climatique ou d’autres enjeux, l’IA, si elle est bien gérée, peut contribuer de manière significative à la prospérité, à l’égalité et à la sécurité de tous.

Depuis cet engagement, les entreprises technologiques ont abordé une variété de problèmes. Par exemple, Pfizer a utilisé Claude pour analyser les tendances dans la recherche sur le traitement du cancer après avoir rassemblé des données pertinentes et du contenu scientifique. Gilead, une entreprise biopharmaceutique américaine, a utilisé l’IA générative d’Amazon Web Services pour évaluer la faisabilité d’études cliniques et analyser des ensembles de données.

Google DeepMind a un bilan particulièrement solide dans le développement d’outils d’IA pouvant aider les scientifiques. Par exemple, AlphaFold 3 peut prédire la structure et les interactions de toutes les molécules de la vie. AlphaGeometry résout des problèmes de géométrie à un niveau comparable à celui des meilleurs lycéens en mathématiques. GraphCast est un modèle d’IA capable de faire des prévisions météorologiques à moyen terme. Pendant ce temps, Microsoft a utilisé des images satellites et l’IA pour améliorer les réponses aux incendies de forêt à Maui et cartographier les populations vulnérables au climat, ce qui aide les chercheurs à identifier des risques tels que l’insécurité alimentaire, la migration forcée et les maladies.

OpenAI, quant à elle, a annoncé des partenariats et des financements pour divers projets de recherche, notamment un projet explorant comment les modèles d’IA multimodaux peuvent être utilisés en toute sécurité par les éducateurs et les scientifiques en laboratoire. Elle a également proposé des crédits pour aider les chercheurs à utiliser ses plateformes lors de hackathons sur le développement d’énergies propres.

Évaluation : Très bon. Certaines initiatives visant à utiliser l’IA pour stimuler la découverte scientifique ou prévoir des événements météorologiques sont véritablement prometteuses. Bien que les entreprises d’IA n’aient pas encore utilisé l’IA pour prévenir le cancer, cela reste un objectif ambitieux.

Dans l’ensemble, des changements positifs ont été observés dans la manière dont l’IA est développée, tels que les pratiques de red-teaming, les filigranes et de nouvelles méthodes pour que l’industrie partage les meilleures pratiques. Cependant, ces solutions techniques ne suffisent pas à résoudre le problème complexe des dommages causés par l’IA, et un travail considérable reste à accomplir. Un an après ces engagements, il est également surprenant de constater que les discussions portent sur des risques hypothétiques, tels que les bioweapons, tout en omettant des sujets cruciaux comme la protection des consommateurs, les deepfakes non consensuels, les données et le droit d’auteur, ainsi que l’empreinte environnementale des modèles d’IA. Ces omissions semblent particulièrement étranges aujourd’hui.

Général

Anker SOLIX dévoile la Solarbank 2 AC : la nouvelle ère du stockage d’énergie ultra-compatible !

Découvrez le Solarbank 2 AC, une véritable révolution dans le domaine de l’énergie solaire ! Grâce à ses batteries au phosphate de fer lithium, ce système s’adapte parfaitement à vos besoins. Avec une puissance impressionnante de 2400 watts et la possibilité d’ajouter jusqu’à cinq batteries supplémentaires, il assure un stockage optimal. Sa compatibilité avec le compteur Anker SOLIX Smart favorise une gestion intelligente de votre consommation énergétique. Ne ratez pas l’offre spéciale « early bird », disponible dès maintenant pour seulement 999 euros ! Saisissez cette chance unique !

Published

on

Anker SOLIX dévoile la Solarbank 2 AC : la nouvelle ère du stockage d’énergie ultra-compatible !

Le Solarbank 2 AC : Une Révolution dans le Stockage Énergétique

Batteries au Lithium Fer Phosphate

Le Solarbank 2 AC se démarque par l’utilisation de batteries au lithium fer phosphate (LFP), reconnues pour leur sécurité et leur efficacité. Ce modèle est particulièrement innovant grâce à son système de couplage alternatif, qui lui permet de s’adapter facilement à divers systèmes solaires déjà en place.Que ce soit pour des installations sur toiture, des systèmes solaires compacts pour balcons ou d’autres configurations réduites, il peut fonctionner avec un micro-onduleur de 800 Watts.

Capacité et flexibilité Énergétique

Avec une capacité maximale d’injection dans le réseau domestique atteignant 1200 watts,le Solarbank 2 AC peut être associé à deux régulateurs solaires MPPT. Cela ouvre la possibilité d’ajouter jusqu’à 1200 watts supplémentaires via des panneaux solaires additionnels, portant ainsi la puissance totale à un impressionnant 2400 watts. Pour les utilisateurs nécessitant davantage de stockage énergétique, il est possible d’intégrer jusqu’à cinq batteries supplémentaires de 1,6 kilowattheure chacune, augmentant la capacité totale à 9,6 kilowattheures.

Intégration dans un Écosystème Intelligent

Le Solarbank 2 AC s’intègre parfaitement dans un écosystème énergétique intelligent grâce à sa compatibilité avec le compteur Anker SOLIX Smart et les prises intelligentes proposées par Anker. cette fonctionnalité permet une gestion optimisée de la consommation électrique tout en réduisant les pertes énergétiques inutiles. De plus, Anker SOLIX prévoit d’étendre cette compatibilité aux dispositifs Shelly.

Durabilité et Résistance aux Intempéries

Anker SOLIX met également l’accent sur la longévité du Solarbank 2 AC. Conçu pour supporter au moins 6000 cycles de charge, cet appareil a une durée de vie estimée dépassant quinze ans. Il est accompagné d’une garantie fabricant décennale et possède une certification IP65 qui assure sa résistance face aux intempéries tout en étant capable de fonctionner dans des températures variant entre -20 °C et +55 °C.

Disponibilité et Offres Promotionnelles

Le solarbank 2 AC est disponible sur le site officiel d’Anker SOLIX ainsi que sur Amazon au prix standard de 1299 euros. Cependant, une offre promotionnelle « early bird » sera active du 20 janvier au 23 février 2025, permettant aux acheteurs intéressés d’acquérir cet appareil dès 999 euros ! Cette promotion inclut également un compteur Anker SOLIX Smart offert pour chaque commande passée durant cette période spéciale.

le Solarbank 2 AC représente une avancée significative dans le domaine du stockage énergétique domestique grâce à ses caractéristiques techniques avancées et son engagement envers la durabilité environnementale.

Continue Reading

Technologie

Ne manquez pas cette offre incroyable : le Air Fryer Moulinex Easy Fry Max à -42% sur Amazon !

Les soldes d’hiver sont là ! Ne ratez pas l’incroyable offre d’Amazon sur le Moulinex Easy Fry Max, à seulement 69 euros au lieu de 119 euros, soit une réduction sensationnelle de -42% ! Avec sa capacité généreuse de 5 L, cette friteuse sans huile est idéale pour régaler jusqu’à 6 convives. Grâce à ses 10 programmes de cuisson et son interface tactile intuitive, préparez des plats sains et savoureux en un clin d’œil. Dépêchez-vous, les stocks s’épuisent vite et cette offre est limitée dans le temps !

Published

on

Ne manquez pas cette offre incroyable : le Air Fryer Moulinex Easy Fry Max à -42% sur Amazon !

Technologie

Les soldes d’hiver sont en cours, et Amazon en profite pour offrir des promotions intéressantes, notamment sur les friteuses à air. Actuellement, le Moulinex Easy Fry Max est proposé à un prix attractif de 69 euros au lieu de 119 euros, ce qui représente une réduction immédiate de 42 %. C’est une occasion parfaite pour acquérir une friteuse sans huile XL d’une capacité généreuse de 5 L, idéale pour préparer des repas pour jusqu’à six personnes à un tarif très compétitif.

Étant donné que cette offre est limitée dans le temps,il est conseillé d’agir rapidement si vous souhaitez en bénéficier. De plus, avec un tel prix, les stocks pourraient s’épuiser rapidement. Ce modèle se classe parmi les meilleures ventes sur Amazon avec plus de 1000 unités écoulées le mois dernier.

Profitez des offres sur Amazon

Amazon propose également la livraison gratuite et rapide pour cet article qui bénéficie d’une garantie de deux ans. En outre, il existe une option de paiement échelonné en quatre fois sans frais sur ce modèle. Enfin, sachez que vous avez la possibilité de changer d’avis et retourner le produit gratuitement dans un délai de 30 jours afin d’obtenir un remboursement intégral.

Moulinex Easy Fry Max : cuisinez sainement pour toute la famille

Le moulinex Easy Fry Max fonctionne comme un four à air chaud permettant la préparation de plats savoureux tout en utilisant peu ou pas du tout d’huile. En plus des frites croustillantes qu’il réalise parfaitement, cet appareil se révèle très polyvalent et peut cuisiner une multitude d’autres recettes.

avec ses dix programmes prédéfinis adaptés à divers ingrédients tels que poulet,steak,poisson ou légumes ainsi que des options pour bacon et desserts comme les pizzas ,cet appareil répond aux besoins variés des familles modernes. De plus, Moulinex met à disposition un livre numérique rempli de recettes accessible via QR Code afin que vous puissiez facilement trouver l’inspiration culinaire lorsque nécessaire.

Sa capacité généreuse permet non seulement la préparation rapide mais aussi économique : jusqu’à 70 % moins énergivore et presque deux fois plus rapide qu’un four traditionnel ! Son interface intuitive avec écran tactile facilite son utilisation quotidienne.

en outre, le panier antiadhésif compatible lave-vaisselle simplifie grandement l’entretien après chaque utilisation. N’oubliez pas qu’il s’agit là encore d’une offre temporaire ; ne tardez donc pas si vous souhaitez profiter du meilleur prix possible sur cette friteuse innovante !

Pour accéder à cette remise exceptionnelle :

Continue Reading

Technologie

TikTok revient en force aux États-Unis, mais pas sur l’App Store !

Le suspense autour de TikTok est à son comble ! En avril 2024, le Congrès américain a voté une loi obligeant l’application à changer de propriétaire avant le 19 janvier. Les utilisateurs ont anxieusement attendu la décision finale. Bien que TikTok ait brièvement cessé ses activités, elle est revenue en ligne, mais absente de l’App Store. Apple justifie cette décision par des obligations légales. Cependant, les utilisateurs peuvent toujours accéder à leur compte… sans mises à jour. L’avenir de TikTok pourrait prendre un tournant décisif avec les promesses du nouveau président.

Published

on

TikTok revient en force aux États-Unis, mais pas sur l’App Store !

Technologie

En avril 2024, le Congrès américain a adopté une législation obligeant TikTok à trouver un nouvel acquéreur, ByteDance étant accusé d’activités d’espionnage. Les utilisateurs de l’submission aux États-Unis ont donc attendu avec impatience le week-end précédent la date limite du 19 janvier pour savoir si TikTok serait interdit dans le pays.

Bien que TikTok n’ait pas réussi à dénicher un repreneur avant cette échéance, l’application a temporairement suspendu ses activités… mais seulement pour quelques heures. le réseau social est désormais de retour en ligne, mais il n’est plus accessible sur l’App Store.

Retour de TikTok : Une Absence Persistante sur l’App Store

Apple a expliqué sa décision de retirer TikTok de son App store par un communiqué officiel. « Apple doit respecter les lois en vigueur dans les régions où elle opère. Selon la loi Protecting Americans from Foreign Adversary Controlled Applications act, les applications développées par ByteDance ltd., y compris TikTok et ses filiales comme CapCut et Lemon8, ne pourront plus être téléchargées ou mises à jour sur l’App Store pour les utilisateurs américains après le 19 janvier 2025 », précise la société.

Il est crucial de souligner que les utilisateurs américains ayant déjà installé TikTok peuvent toujours accéder au service. Cependant, ils ne recevront plus aucune mise à jour future de l’application. L’avenir du réseau social pourrait dépendre des décisions du nouveau président des États-Unis.

DÉCLARATION DE TIKTOK :

>

En collaboration avec nos partenaires techniques, nous travaillons activement à rétablir notre service. Nous remercions le président Trump pour avoir clarifié la situation et rassuré nos partenaires qu’ils ne subiront aucune sanction en continuant d’offrir TikTok aux plus de 170 millions d’utilisateurs…

Le successeur de Joe Biden sera investi comme président ce lundi 20 janvier et prévoit d’émettre un décret afin d’accorder un délai supplémentaire à TikTok pour trouver un acquéreur potentiel.Donald Trump propose même que les États-Unis détiennent une participation significative dans cette application.

« Je souhaite que les États-Unis possèdent une part importante dans une coentreprise avec cet outil numérique afin que nous puissions préserver son intégrité tout en lui permettant d’évoluer […]. Ainsi,notre pays détiendrait la moitié des parts dans une coentreprise établie entre nous et tout acheteur sélectionné »,a déclaré Donald Trump.

L’avenir immédiat de TikTok pourrait donc connaître des évolutions majeures très prochainement. Il convient également de noter qu’une rumeur circulait selon laquelle Elon Musk envisagerait d’acquérir des parts dans la plateforme,mais celle-ci a été rapidement démentie par un porte-parole officiel.

Continue Reading

Trending

Copyright © 2024 Tecknews.