PodcastsTechnologiesZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

ZD Tech : tout comprendre en moins de 3 minutes
ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet
Dernier épisode

519 épisodes

  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Voici pourquoi 8 % des employés sont responsables de 80 % des cyberattaques

    30/03/2026 | 3 min
    Aujourd'hui, nous plongeons au cœur du défi numéro un de la cybersécurité moderne : le risque humain.
    Car ne vous y trompez pas, si les pare-feu et les algorithmes de détection sont de plus en plus robustes, les attaquants, eux, ont trouvé une parade bien plus efficace : pirater l'utilisateur plutôt que la machine. 
    L'effondrement du paradigme technocentré
    Premier point de rupture, l'effondrement du paradigme technocentré.
    Pendant des années, la réponse à toute menace a été l'empilement de solutions logicielles affirme le rapport The State of Human Risk 2026 de la société Mimecast.
    Pourtant, aujourd'hui, la majorité des incidents majeurs ne provient pas d'une faille de code, mais d'un abus d'identifiants ou d'une erreur de manipulation de la part des utilisateurs.
    Et les cybercriminels exploitent systématiquement ces faiblesses.
    On sécurise des forteresses vides
    Mais le problème n'est pas que l'humain est faible. En fait nos systèmes de protection n'ont pas été pensés pour la manière dont les employés travaillent réellement en 2026.
    En clair, on sécurise des forteresses vides alors que les employés sont déjà dehors, exposés à un hameçonnage ultra-personnalisé par l'IA.
    Ensuite, il faut regarder la réalité mathématique de ce risque, et elle est frappante.
    Saviez-vous que seulement 8 % des collaborateurs sont à l'origine de 80 % des incidents de sécurité ?
    En clair, nous faisons face à une concentration extrême du danger.
    Et attention, on ne parle pas ici de sabotage interne ou de malveillance. Il s'agit la plupart du temps d'employés bien intentionnés, mais victimes de la fatigue, de la distraction ou de tactiques d'ingénierie sociale tellement sophistiquées qu'elles deviennent indétectables.
    Et l'impact financier, lui, n'a rien de virtuel. Un seul incident lié à une menace interne coûte en moyenne 13 millions de dollars.
    La place de la France
    Enfin, comment se situe la France dans ce paysage mouvant ?
    Le marché français se distingue par une posture de "pragmatique prudent" selon l'étude.
    Les décideurs français ne cèdent pas à la panique mais adoptent une approche méthodique. Les DSI français ont compris que l'IA sert avant tout aux attaquants pour créer des leurres parfaits.
    Pour y répondre, la France mise sur deux leviers.
    D'abord, une gouvernance de fer héritée des secteurs très réglementés comme la banque, qui tire l'ensemble du marché vers le haut.
    Ensuite, une conviction profonde que la technologie seule est aveugle sans formation.
    En France, l'éducation des utilisateurs est donc perçue comme un investissement de sécurité prioritaire.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Pourquoi les agents d'IA rendent les bases de données vectorielles plus indispensables que jamais

    27/03/2026 | 3 min
    Aujourd'hui, on démonte une idée reçue qui a la vie dure dans les couloirs des DSI.
    Non, les agents d'IA ne vont pas tuer les bases de données vectorielles. C'est même tout le contraire.
    On pensait que l'augmentation massive de la taille des fenêtres de contexte des grands modèles de langage rendrait la recherche vectorielle obsolète, mais la réalité du terrain montre que les agents ont besoin de ces infrastructures plus que jamais.
    Du RAG aux agents d'IA
    D'abord, il faut comprendre que le passage du RAG classique, la génération augmentée par récupération, vers les agents autonomes change totalement d'échelle.
    Là où un humain pose quelques questions par minute, un agent peut générer des centaines, voire des milliers de requêtes par seconde pour collecter les informations nécessaires à une seule prise de décision.
    Cette intensité transforme la recherche vectorielle, qui n'est plus un simple accessoire de stockage mais devient une véritable couche d'infrastructure critique.
    C'est ce que confirme Andre Zayarni, le patron de Qdrant, qui vient de lever 50 millions de dollars. Pour lui, la mémoire des agents ne remplace pas la recherche, elle s'appuie dessus.
    Et si cette couche de récupération n'est pas taillée pour la charge, c'est toute la qualité de la décision de l'IA qui s'effondre.
    Vers les moteurs spécialisés
    Ensuite, parlons de la spécialisation technique.
    Aujourd'hui, presque toutes les bases de données du marché, de Postgres aux solutions des hyperscalers, supportent le format vectoriel.
    Mais attention, supporter un format ne signifie pas savoir gérer la performance à grande échelle.
    Et pour les entreprises qui manipulent des millions de documents, les solutions généralistes montrent vite leurs limites.
    On observe en effet trois signaux d'alerte : une dégradation de la pertinence quand les données changent trop vite, une latence qui explose lors des appels d'outils en parallèle par l'agent, et des coûts d'infrastructure qui s'envolent.
    C'est là que des moteurs spécialisés, souvent écrits en Rust, reprennent l'avantage en offrant une précision que les fenêtres de contexte ne peuvent pas garantir seules.
    Dès que la qualité vient à manquer, il faut migrer
    Enfin, l'enjeu stratégique pour vos équipes est de savoir quand basculer vers une infrastructure dédiée.
    Commencez donc avec ce que vous avez déjà dans votre pile technologique. Mais dès que la qualité vient à manquer, il faut migrer.
    En clair, l'agent n'est que l'interface. C'est la base vectorielle qui est la "vérité du terrain".
    En résumé, les bases vectorielles ne sont pas un artefact de l'ère précédente, elles sont le moteur de l'autonomie des agents de demain.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Ce goulot d'étranglement du noyau Linux qui ralentit vos conteneurs, les enseignements techniques de Netflix

    26/03/2026 | 3 min
    Aujourd'hui, nous plongeons dans les entrailles de l'infrastructure de Netflix. Le géant du streaming vient de lever le voile sur un mystère technique : pourquoi vos conteneurs ralentissent-ils parfois sans raison ?
    La réponse ne se trouve pas dans votre code, mais bien plus bas, au croisement du noyau Linux et de l'architecture de vos processeurs.
    Le mur invisible du noyau Linux
    Et le premier point, c'est le mur invisible du noyau Linux.
    Les ingénieurs de Netflix ont en effet remarqué que lors de pics de charge, la création de conteneurs se figeait totalement pendant plusieurs secondes.
    En creusant, ils ont découvert un goulot d'étranglement au niveau du "Global Mount Lock" du système de fichiers virtuel de Linux.
    Concrètement, chaque conteneur nécessite des dizaines de montages de couches d'images. Et lors d'un déploiement massif, le système peut subir plus de 20 000 appels système simultanés.
    Et comme ils doivent tous passer par un seul et même verrou de sécurité dans le noyau, tout le serveur s'arrête net, un peu comme une foule immense essayant de passer par une seule porte battante.
    Tous les processeurs ne sont pas égaux
    Mais le second pilier, c'est l'impact crucial du matériel.
    Car l'étude de Netflix révèle que tous les processeurs ne sont pas égaux face à ce stress.
    Sur les anciennes instances, la gestion de la mémoire entre les processeurs, ce qu'on appelle le NUMA, aggrave massivement la latence.
    À l'inverse, les puces de nouvelle génération, comme les processeurs AMD et Intel les plus récents sur AWS, s'en sortent bien mieux grâce à leurs architectures de cache distribué.
    Et plus surprenant encore, désactiver l'Hyper-Threading a permis d'améliorer la latence de 30 %.
    Bref, pour des charges de travail intensives en conteneurs, le choix de l'instance cloud ne se résume pas au nombre de cœurs, mais à la topologie réelle du silicium.
    Repenser la structure même des images de conteneurs
    Enfin, quelles solutions pour vos équipes ?
    La solution la plus efficace a été pour Netflix de repenser la structure même des images de conteneurs. En regroupant les montages de couches sous un parent commun, Netflix a fait passer la charge de travail d'un mode linéaire à un mode constant.
    Peu importe le nombre de couches de votre application, l'impact sur le noyau reste donc minimal. En combinant cette optimisation logicielle avec un routage des tâches vers les processeurs les plus robustes, le groupe a retrouvé de la fluidité.
    C'est la preuve qu'à grande échelle, la performance ne se gagne plus seulement dans l'application, mais dans une parfaite maîtrise de toute la pile technologique.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Tout ce qu'il faut savoir sur le rachat de Wiz par Google, une opération à 32 milliards pour dominer la sécurité de l'IA

    25/03/2026 | 2 min
    Google vient de franchir une étape historique pour sa division Cloud en bouclant le rachat de Wiz pour 32 milliards de dollars.
    Ce n'est pas seulement une acquisition de plus, c'est une refonte totale de la stratégie de cybersécurité du géant de Mountain View qui entend désormais s'imposer comme le gardien du temple de l'intelligence artificielle. 
    Le fameux "security graph" de Wiz
    Premier point, Google Cloud et Wiz affichent une ambition claire : passer d'une sécurité réactive à une protection "de bout en bout" pensée pour l'ère de l'IA.
    Concrètement, l'idée est de fusionner le renseignement sur les menaces de Google avec le fameux "security graph" de Wiz.
    Ce dernier permet de cartographier l'intégralité des ressources cloud, du code source jusqu'à l'exécution en temps réel.
    Pour les DSI, la promesse est forte : disposer d'une plateforme unique intégrant les opérations de sécurité, la détection des menaces et la protection spécifique des modèles d'IA.
    Une approche strictement multi-cloud et multi-modèles
    Deuxième axe stratégique, et c'est sans doute le plus crucial pour le marché, Google et Wiz maintiennent une approche strictement multi-cloud et multi-modèles.
    C’était la grande crainte des observateurs, mais la réponse des dirigeants est sans équivoque : Wiz restera agnostique. La plateforme continuera de sécuriser les environnements des clients, qu'ils tournent sur AWS, Azure ou Google Cloud.
    De la même manière, si Gemini sera au cœur de l'intégration, la plateforme ne se fermera pas aux autres modèles de langage. Dans un monde hybride où les entreprises refusent de mettre tous leurs œufs dans le même panier, Google joue la carte de l'ouverture, quel que soit l'hébergeur ou l'IA utilisée.
    L'arrivée des agents d'IA
    Enfin, l'apport de Google doit permettre à Wiz de passer à la vitesse supérieure en matière d'automatisation grâce aux agents d'IA.
    Aujourd'hui, le temps entre la découverte d'une vulnérabilité et son exploitation par des acteurs malveillants s'est drastiquement réduit.
    Pour contrer cette accélération, l'intégration prévoit de doper les trois agents IA de Wiz dédiés aux tests d'intrusion, à l'investigation et à la remédiation.
    L'objectif final est d'aboutir à des flux de travail entièrement "agentiques" où la sécurité s'auto-corrige presque en temps réel.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
  • ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

    Le marché des SSD pros explose de 50 % face à la demande massive de l'IA

    24/03/2026 | 3 min
    Le stockage pour les pros vient de vivre un véritable changement de dimension ces derniers mois.
    Selon les derniers chiffres de TrendForce pour le quatrième trimestre 2025, les revenus des cinq plus grands fabricants mondiaux de disques SSD pour entreprises ont bondi de plus de 50 %.
    On ne parle plus ici d'une simple croissance de marché, mais d'une explosion portée par la maturité de l'intelligence artificielle générative et une mutation profonde des infrastructures de données.
    Le basculement massif de l'IA vers la phase d'inférence
    Le premier moteur de cette envolée, c'est le basculement massif de l'IA vers la phase d'inférence.
    Si 2024 et le début de 2025 étaient consacrés à l'entraînement des modèles d'IA, nous sommes désormais dans l'ère de l'exécution.
    Or, l'inférence demande une lecture de données ultra-rapide et constante. Conséquence directe, les clients délaissent les disques durs mécaniques, dont les stocks s'amenuisent, pour passer au tout SSD.
    C'est le groupe SK qui tire le mieux son épingle du jeu avec une croissance record de 75 % sur le trimestre. Leur stratégie est claire : miser sur les SSD de très haute capacité basés sur la technologie QLC. Ces disques permettent de stocker des volumes massifs de données tout en offrant la réactivité nécessaire aux serveurs d'IA modernes.
    La sécurisation des approvisionnements
    Le deuxième point clé de cette mutation réside dans la verticalité et la sécurisation des approvisionnements.
    Samsung conserve sa place de leader mondial grâce à un argument de poids en période de tensions logistiques : le contrôle total de sa chaîne de valeur.
    En produisant à la fois ses propres puces de mémoire vive DRAM et ses puces de stockage NAND Flash, le géant coréen rassure les DSI qui craignent des ruptures de stock.
    Cette intégration verticale devient un avantage concurrentiel critique alors que les infrastructures deviennent de plus en plus complexes.
    L'innovation se déplace désormais sur les SSD à haute endurance
    Enfin, il faut regarder vers l'avenir proche car le paysage technologique va encore bouger.
    Micron et Kioxia l'ont bien compris en délaissant le marché grand public pour se concentrer sur les marges élevées du secteur professionnel.
    L'innovation se déplace désormais sur des segments de niche mais stratégiques, comme les SSD à haute endurance capables de supporter des cycles d'écriture intensifs pour les opérations de mise en cache.
    Pour les décideurs, l'enjeu de 2026 ne sera pas seulement de trouver du volume de stockage, mais de choisir des solutions spécifiquement optimisées pour les charges de travail de l'IA, capables d'allier vitesse de transfert et stabilité sur le long terme.
    Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !

    Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Plus de podcasts Technologies

À propos de ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet

Découvrir au quotidien les enjeux de la technologie. Le podcast de la rédaction de ZDNet, pour les professionnels à la recherche d'infos pratiques et concrètes pour mieux comprendre le marché IT et telco et son influence sur les métiers.    Hébergé par Ausha. Visitez ausha.co/fr/politique-de-confidentialite pour plus d'informations.
Site web du podcast

Écoutez ZD Tech : tout comprendre en moins de 3 minutes avec ZDNet, Tech Café ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités
Applications
Réseaux sociaux
v8.8.5| © 2007-2026 radio.de GmbH
Generated: 3/30/2026 - 1:12:28 PM