PodcastsTechnologiesZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Dernier épisode

495 épisodes

  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Manipulation de la mémoire de l'IA : le nouveau poison du marketing numérique

    24/02/2026 | 3 min
    Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.
    Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.
    Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.
    Le bouton "Résumer" : un cheval de Troie invisible
    Microsoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".
    Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.
    Lorsqu’un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.
    Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.
    Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.
    Et cette stratégie marketing s'industrialise.
    L'industrialisation de la manipulation
    En l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.
    Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.
    En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.
    Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.
    Vers une hygiène numérique de la mémoire IA
    La mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.
    Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.
    Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".
    Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    OpenAI dévoile GPT-5.3-Codex-Spark, son modèle ultra-rapide qui privilégie la vitesse sur la précision

    23/02/2026 | 2 min
    Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.
    C’est une version allégée mais ultra-rapide de son modèle de génération de code.
    La vitesse pure
    D'abord, la promesse est simple : la vitesse pure.
    Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.
    On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.
    Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.
    Partenariat stratégique avec Cerebras
    Ensuite, il faut regarder sous le capot pour comprendre ce bond de performance.
    Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.
    Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C’est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.
    Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.
    Plus vite, mais plus faillible
    OpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.
    Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.
    En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.
    On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Cette IA a reconstitué un jeu de société romain disparu depuis 2 000 ans

    20/02/2026 | 3 min
    Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.
    Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.
    Simulation de données au service de l'archéologie
    D'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.
    Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.
    C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.
    L'IA agit ici comme un accélérateur de raisonnement
    Ensuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.
    Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.
    Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.
    Etude des mécanismes cognitifs et du comportement humain
    Enfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.
    Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.
    Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Projet Suncatcher : Pourquoi Google veut installer ses processeurs d'IA en orbite dès 2027

    19/02/2026 | 3 min
    Et si l'avenir de l'intelligence artificielle ne se jouait plus au sol, mais à 500 kilomètres au-dessus de nos têtes ?
    C'est le pari fou, mais très sérieux, de Google et la société Planet avec le projet Suncatcher. L'objectif est simple : construire les premiers centres de données orbitaux.
    Les deux géants viennent d'annoncer une accélération majeure avec le lancement prévu de deux satellites de démonstration d'ici début 2027.
    Une alimentation solaire quasi continue
    Le premier pilier de cette stratégie repose sur la résolution d'une équation énergétique devenue critique sur Terre.
    Aujourd'hui, les centres de données IA saturent les réseaux électriques et posent des problèmes de refroidissement colossaux.
    En plaçant ces serveurs en orbite héliosynchrone, Google et Planet visent une alimentation solaire quasi continue.
    Concrètement, ces satellites qui serviraient de "fermes de calcul" déploieront des panneaux solaires XXL pour alimenter des puces TPU, les processeurs de Google optimisés pour l'IA.
    Mais le vrai défi technique reste la dissipation de la chaleur dans le vide spatial et la protection des composants contre les radiations. C'est tout l'enjeu des tests de 2027. Il s'agit de prouver qu'on peut faire tourner un cluster de calcul intensif dans l'hostilité de l'espace.
    Un cluster spatial volant
    Ensuite, le projet Suncatcher inaugure une architecture réseau d'un genre nouveau : le cluster spatial volant.
    On ne parle pas de satellites isolés, mais de grappes de machines situées à moins de 200 mètres les unes des autres, reliées par des liaisons laser à très haut débit.
    Cela préfigure un cloud hybride totalement indépendant des infrastructures terrestres et capable de traiter les données directement dans l'espace.
    Planet utilise ici son expérience unique, ayant déjà mis en orbite plus de 600 satellites, pour industrialiser ce que Google appelle un "système de cluster à grande échelle".
    Vers le développement industriel
    Enfin, cette alliance marque un tournant concurrentiel majeur dans la course à l'espace.
    Si Jeff Bezos et Elon Musk ont déjà évoqué l'idée de data centers spatiaux, Google et Planet sont les premiers à passer concrètement en phase de recherche et développement industrielle.
    Le PDG de Planet, Will Marshall, l'affirme : nous ne sommes qu'à quelques années du point de bascule économique où l'espace deviendra moins cher que la Terre pour le calcul intensif.
    Avec la baisse drastique des coûts de lancement, l'infrastructure spatiale devient un levier stratégique pour la puissance de calcul.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Pourquoi l'IA générative a conquis les Français plus vite que le smartphone

    18/02/2026 | 3 min
    Ce n'est plus de la science-fiction. La réalité brutale de l'intelligence artificielle générative qui vient de franchir un cap historique, note le dernier baromètre de l'Arcep.
    En seulement deux ans, nous sommes passés d'une curiosité de laboratoire à un outil de masse utilisé par près d'un Français sur deux. C'est aussi un séisme qui redéfinit les frontières entre vie privée et vie professionnelle.
    Une accélération technologique sans précédent
    Le premier constat est celui d'une accélération technologique sans précédent dans l'histoire moderne.
    Là où le smartphone avait mis trois ans pour atteindre un niveau de pénétration significatif, l'IA générative n'a eu besoin que de vingt-quatre mois pour conquérir près de 50 % de la population.
    Et cette adoption quasi instantanée culmine chez les français de moins de 25 ans avec un taux de 85 %.
    Pour les entreprises, cela signifie que la question n'est plus de savoir s'il faut intégrer l'IA, mais comment gérer des collaborateurs qui sont déjà, pour la plupart, des utilisateurs aguerris de cette technologie dans leur sphère privée.
    L'IA générative inverse les codes traditionnels de l'innovation
    Surtout, au-delà de cette vitesse de déploiement, l'IA générative inverse les codes traditionnels de l'innovation.
    Historiquement, les grandes vagues technologiques entraient dans nos vies par le bureau avant de s'inviter dans nos salon. Pour l'IA, c'est l'inverse.
    Le recours à ces outils relève d'abord d'une initiative personnelle plus de 40 % des usagers, tandis que l'usage strictement professionnel concerne 30 % des actifs.
    C'est ce qu'on appelle le Shadow AI. Les salariés testent, expérimentent et résolvent des problèmes complexes avec ChatGPT ou Claude chez eux, avant de ramener ces réflexes au travail.
    Par ailleurs, une pression nouvelle apparaît. Près de 20 % des Français se voient désormais imposer l'IA par les plateformes qu'ils utilisent déjà, comme les moteurs de recherche ou les messageries, rendant la technologie incontournable, qu'on le veuille ou non.
    Une nouvelle fracture numérique de compétence et d'usage
    Enfin, il faut noter une nouvelle fracture numérique, non plus d'accès, mais de compétence et d'usage.
    Le profil type de l'utilisateur intensif se dessine très nettement. Il est jeune, diplômé du supérieur, cadre ou indépendant.
    Pour le monde professionnel, ce clivage est un enjeu majeur. Les indépendants et les cadres, avec plus de 75 % d'utilisateurs, transforment déjà leurs méthodes de travail quand d'autres secteurs restent sur le bord de la route.
    Cette concentration des usages chez les profils les plus qualifiés risque de créer un avantage compétitif pour ceux qui maîtrisent l'art de la requête et du prompt, laissant présager une restructuration profonde du marché du travail basée sur la collaboration homme-machine.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plus de podcasts Technologies

À propos de ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.    Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Site web du podcast

Écoutez ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet, Tech Café ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités
Applications
Réseaux sociaux
v8.7.0 | © 2007-2026 radio.de GmbH
Generated: 2/24/2026 - 1:41:51 PM