
OpenAI : 1 milliard de dollars permet de tenir (seulement) 1 mois ?
18.12.2025 | 2 Min.
À première vue, on se demande ce qui pourrait bien freiner OpenAI. L’entreprise à l’origine de ChatGPT enchaîne les partenariats prestigieux avec les géants de la tech et séduit désormais bien au-delà de la Silicon Valley. Dernier exemple en date : Disney, qui vient de signer un accord stratégique avec OpenAI. Un partenariat qui permettra à l’outil vidéo Sora d’utiliser des personnages iconiques de la marque, de Mickey Mouse à tout l’univers Disney. Dans la foulée, le groupe américain s’est engagé à investir un milliard de dollars dans le capital d’OpenAI.Une somme impressionnante… mais qui paraît presque dérisoire au regard des finances de l’entreprise dirigée par Sam Altman. Car OpenAI dépense énormément, et même de plus en plus vite. La course à l’intelligence artificielle est devenue un champ de bataille industriel où chaque avancée technologique se paie au prix fort, en puissance de calcul, en infrastructures et en talents. Selon plusieurs estimations relayées par le média Mashable, ce milliard de dollars fraîchement injecté ne suffirait à couvrir que trois à quatre semaines des pertes actuelles d’OpenAI. Une donnée vertigineuse, qui prend encore plus de relief lorsqu’on la compare aux engagements globaux de l’entreprise : cette somme représenterait à peine un millième des dépenses prévues à moyen terme.Autrement dit, OpenAI brûle du cash à un rythme rarement vu dans l’histoire récente de la tech. Au point que certains analystes commencent à évoquer, à voix basse, un scénario longtemps jugé impensable : celui d’une fragilité financière, voire d’une faillite à long terme si le modèle économique ne se stabilise pas. Cette inquiétude intervient dans un contexte moins favorable qu’il n’y paraît. Ces derniers mois, un décrochage technologique a été observé entre ChatGPT et son principal concurrent, Gemini, développé par Google. Avec Gemini 3, le géant californien a repris une position de leader, laissant planer le doute sur la capacité d’OpenAI à conserver son avance initiale. L’histoire de la tech est riche de précédents. Être pionnier ne garantit pas le succès durable. Les plus anciens se souviennent de Netscape, premier navigateur web grand public, rapidement marginalisé par Internet Explorer à la fin des années 1990. Un rappel brutal que, dans ce secteur, l’innovation coûte cher… et que la domination n’est jamais acquise. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Amazon débranche l’IA pour ses séries ?
17.12.2025 | 2 Min.
L’intelligence artificielle est devenue le mot magique de la Silicon Valley. Les géants du numérique veulent l’injecter partout, parfois à marche forcée. Chez Amazon, très engagé dans cette course technologique, l’idée a été de truffer sa plateforme de streaming Prime Video de fonctionnalités dopées à l’IA. Mais l’expérience tourne, pour l’instant, au sérieux revers. Ces derniers jours, Amazon a essuyé une vague de critiques sur les réseaux sociaux. En cause : une nouvelle fonction de résumés générés par intelligence artificielle, testée en version bêta aux États-Unis. Le principe semblait séduisant : proposer, sous forme de courts clips vidéo narrés par une voix synthétique, un rappel des éléments clés de l’intrigue d’une série. Dans les faits, l’outil s’est révélé largement défaillant.La polémique a explosé autour de Fallout, l’une des séries phares de Prime Video. Les résumés produits par l’IA contenaient des erreurs factuelles, des incohérences, et parfois des éléments qui ne correspondaient tout simplement pas à l’histoire. Rapidement, les extraits ont circulé en ligne, suscitant moqueries et indignation. Face au bad buzz, Amazon n’a pas tardé à réagir. La plateforme a tout simplement désactivé la fonctionnalité, non seulement pour Fallout, mais aussi pour l’ensemble des séries concernées par le test : Tom Clancy’s Jack Ryan, The Rig, Bosch et Upload. Un retrait discret, mais révélateur d’un échec cuisant dans l’intégration de l’IA à l’expérience de streaming.Ce n’est d’ailleurs pas la première fois que Prime Video se retrouve dans l’embarras sur ce terrain. Plus tôt ce mois-ci, Amazon avait déjà été critiqué pour avoir proposé des doublages d’animés générés par intelligence artificielle, jugés artificiels et dénaturant les œuvres originales. Là encore, sous la pression des abonnés, ces contenus avaient été retirés. Ces ratés successifs illustrent les limites d’une stratégie qui consiste à déployer l’IA à tout prix, parfois au détriment de la qualité. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Stocker les data en Europe ne nous protègent pas des USA ?
16.12.2025 | 2 Min.
C’est une révélation qui risque de refroidir les ardeurs des partisans du cloud « souverain ». En Allemagne, un rapport juridique commandé par le ministère de l’Intérieur, longtemps resté confidentiel, vient d’être rendu public grâce à une demande d’accès à l’information. Et son constat est sans appel : les lois américaines permettent bel et bien aux agences de renseignement des États-Unis d’accéder à des données hébergées en Europe. Pour y voir clair, Berlin avait missionné des juristes de l’Université de Cologne. Leur question était simple, mais explosive : jusqu’où s’étend réellement le pouvoir des autorités américaines sur les données stockées hors de leur territoire ? La réponse tient en quelques textes bien connus à Washington : le Stored Communications Act, renforcé par le Cloud Act, et surtout la section 702 du Foreign Intelligence Surveillance Act, prolongée par le Congrès jusqu’en 2026 au moins. Ensemble, ces lois offrent une portée extraterritoriale massive aux services américains. Le point clé est juridique, pas géographique. Peu importe que vos données soient stockées à Francfort, Dublin ou Paris. Ce qui compte, c’est qui contrôle l’infrastructure. Si la maison mère d’un fournisseur cloud est basée aux États-Unis, elle peut être contrainte de transmettre des données, même si celles-ci sont hébergées par une filiale européenne. Et la zone grise va plus loin encore : selon les experts cités par Heise Online, même certaines entreprises européennes peuvent être concernées dès lors qu’elles entretiennent des relations commerciales substantielles avec les États-Unis. On pourrait croire que le chiffrement règle le problème. Là encore, le rapport tempère. Le droit américain impose aux entreprises de préserver l’accès aux données jugées pertinentes dans le cadre d’enquêtes potentielles. Un fournisseur cloud qui se rendrait techniquement incapable d’y accéder s’exposerait à de lourdes sanctions. Résultat : un conflit frontal entre le RGPD européen, qui limite les transferts vers des pays tiers, et l’extraterritorialité revendiquée par Washington. Le Data Privacy Framework, censé servir de pont entre les deux blocs, apparaît plus fragile que jamais.Cette situation touche directement les géants américains du cloud, mais le cas de Microsoft 365, omniprésent dans les administrations et les entreprises européennes, cristallise les inquiétudes. Certains juristes estiment qu’un usage compatible avec le RGPD reste possible, à condition de mener des évaluations d’impact très poussées. D’autres jugent cette approche illusoire. Pour des acteurs comme Nextcloud, le diagnostic est clair : audits et clauses contractuelles ne suffisent plus. L’Europe doit investir massivement dans ses propres infrastructures, miser sur l’open source et développer des technologies réellement autonomes. Car une chose est désormais évidente : héberger des données en Europe ne garantit plus leur protection. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Microsoft prêt à abandonner l’IA en cas de « péril » ?
15.12.2025 | 2 Min.
La phrase a résonné comme un coup de tonnerre dans le monde de la tech. Mustafa Suleyman, responsable de l’intelligence artificielle grand public chez Microsoft, a affirmé que le groupe pourrait tout simplement renoncer à certains développements si l’IA devenait incontrôlable. Un propos rare dans un secteur davantage habitué aux promesses d’omnipotence qu’aux appels à la retenue.Cette prise de position tranche avec l’euphorie ambiante de la Silicon Valley. Tandis que nombre d’acteurs poursuivent à marche forcée le Graal de l’« intelligence artificielle générale », Microsoft se présente en gardien prudent, prêt à activer un bouton d’arrêt d’urgence. Pour Mustafa Suleyman, la ligne est claire : l’entreprise ne développera pas de systèmes qu’elle ne peut pas maîtriser. L’ambition affichée est celle d’une « superintelligence humaniste », conçue pour assister l’humain, et non pour le remplacer. Copilot, l’assistant intégré aux outils de Microsoft, serait la première illustration de cette vision. Mais ce discours soulève un paradoxe. Microsoft est aussi l’un des principaux investisseurs mondiaux dans l’IA, avec des dizaines de milliards de dollars engagés dans ses infrastructures et dans son partenariat stratégique avec OpenAI. Une posture d’équilibriste, entre accélération technologique maximale et promesse de retenue éthique. Appuyer sur l’accélérateur tout en affirmant garder le pied sur le frein.Cette prudence affichée éclaire aussi les relations, parfois ambiguës, entre Microsoft et OpenAI. Là où OpenAI revendique ouvertement l’objectif de créer une intelligence artificielle générale, Microsoft temporise. Son PDG, Satya Nadella, a récemment qualifié ce concept de « légèrement survendu », préférant mettre en avant des usages concrets et immédiatement utiles. Reste à savoir si cette ligne rouge est réellement infranchissable ou si elle relève d’une stratégie de communication destinée à rassurer le public et les régulateurs. Car dans le même temps, Microsoft a renégocié son partenariat avec OpenAI afin de pouvoir développer ses propres modèles d’IA, en toute autonomie. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Une start-up créée le « Tinder des enfants » ?
14.12.2025 | 2 Min.
Sur le papier, l’application française Wizz promet une expérience sociale encadrée et sécurisée. Dans les faits, le constat est bien plus inquiétant. Son fonctionnement repose sur le swipe, comme Tinder ou Bumble. Pourtant, Wizz assure ne pas être une application de rencontres et met en avant un système de vérification d’âge par intelligence artificielle, censé séparer strictement les utilisateurs par tranche d’âge. Une barrière qui, selon plusieurs enquêtes, ne tiendrait pas. Les faits divers s’accumulent. À Hawaï, une fillette de 11 ans a été agressée par un militaire de 19 ans qui se faisait passer pour un adolescent de 15 ans sur l’application. D’autres affaires décrivent des scénarios similaires : un homme de 23 ans prétendant avoir 14 ans, ou encore un individu de 27 ans se présentant comme mineur pour approcher et agresser plusieurs adolescentes. Dans tous les cas, le point commun est le même : une vérification d’âge défaillante.Le magazine américain The Hill a voulu tester ce système. Un journaliste de 28 ans s’inscrit sur Wizz. Verdict : l’algorithme d’IA valide son profil comme celui d’un adolescent de 16 ans, sans alerte. Les « algorithmes sophistiqués de sécurité » mis en avant par l’entreprise apparaissent alors comme un simple argument marketing. Déjà épinglée par les médias, l’application avait été retirée temporairement des boutiques d’Apple et de Google, avant de revenir avec la promesse d’améliorations. Manifestement, sans effet concret. Ce débat s’inscrit dans un contexte plus large. Aux États-Unis, le Kids Online Safety Act, soutenu aussi bien par des élus démocrates que républicains, vise à imposer aux plateformes un véritable devoir de protection. Le principe est simple : comme dans l’automobile ou l’agroalimentaire, une entreprise ne pourrait plus lancer un service sans démontrer qu’il est sûr pour ses utilisateurs, notamment les mineurs.L’industrie technologique reste aujourd’hui l’une des rares à échapper à ce type d’obligation. Avec une loi comme le KOSA, les plateformes devraient prouver l’efficacité réelle de leurs dispositifs de sécurité, sous peine de poursuites judiciaires. Les promesses ne suffiraient plus. Si ce texte doit encore franchir plusieurs étapes au Congrès américain, il envoie déjà un signal clair. Pour des applications comme Wizz, l’ère de l’auto-déclaration et des garde-fous symboliques touche peut-être à sa fin. Protéger les mineurs ne peut plus relever du discours. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.



Choses à Savoir TECH