PodcastsTechnologiesL'IA aujourd'hui !

L'IA aujourd'hui !

Michel Levy Provençal
L'IA aujourd'hui !
Dernier épisode

374 épisodes

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2025-12-28

    28/12/2025 | 5 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux modèles et outils, mémoire pour agents, étude sur le raisonnement humain, virage industriel, impacts sociétaux, conduite autonome et partage décentralisé.D’abord, cap sur le modèle GLM-4.7 dévoilé par Z.ai. Cette version se concentre sur des usages d’ingénierie réels: tâches longues, appels d’outils fréquents et stabilité. Formé et évalué pour des cycles multi-étapes, il prend en charge des cadres d’agents de codage comme Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation menées dans un environnement basé sur Claude Code, il améliore le taux d’achèvement par rapport à GLM-4.6 et devient le modèle par défaut du GLM Coding Plan. Benchmarks publics: 67,5 sur BrowseComp (tâches web) et 87,4 sur τ²-Bench, meilleur score rapporté parmi les modèles open source disponibles. Sur SWE-bench Verified, LiveCodeBench v6 et Terminal Bench 2.0, il atteint un niveau comparable ou supérieur à Claude Sonnet 4.5 et grimpe en tête sur Code Arena, premier parmi les modèles open source et premier en Chine. Il progresse aussi en génération front-end avec des mises en page plus cohérentes. Disponible via l’API BigModel.cn, il est intégré à l’environnement full-stack de z.ai et déjà relié à TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Pour ancrer la mémoire dans les agents, MemMachine propose une couche universelle, interopérable et extensible. Elle stocke et rappelle des préférences et des données entre sessions, agents et modèles, construisant un profil utilisateur durable. Objectif: transformer des chatbots en assistants personnalisés et contextuels. L’outil est distribué en conteneur Docker et en package Python, avec une communauté active, notamment sur Discord.Côté productivité tout-en-un, 1minAI agrège des modèles comme ChatGPT, DALLE, GoogleAI, Anthropic et Midjourney. Au menu: texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images, suréchantillonnage pour passer en haute résolution, et création de contenus multilingues pour blogs, réseaux sociaux, publicités, descriptions, emails et newsletters. L’interface permet de piloter plusieurs modèles au sein d’un même flux.Sur le partage décentralisé, Flus officialise la sortie de sa fonction Mastodon. Après avoir connecté son instance depuis “Comptes & données” puis “Configurer le partage vers Mastodon” et autorisé la liaison (ex: https://piaille.fr), un bouton “Partager vers Mastodon” apparaît sur chaque lien. Les messages sont personnalisables, avec par défaut le titre, l’URL et l’adresse du bloc‑note Flus; on peut en ajouter plusieurs, un compteur garantit le respect de la limite de caractères. L’extension navigateur 1.0 n’envoie pas encore vers Mastodon, mais facilite l’accès au bloc‑note où le partage est possible.Dans l’industrie, Salesforce constate une baisse de confiance dans les LLM et privilégie l’automatisation prévisible. Le message: les modèles sont performants, mais exigent données précises, logique métier et gouvernance pour atteindre une fiabilité entreprise. Contexte tendu après des suppressions de postes liées au déploiement d’agents d’IA.La recherche interroge la capacité des modèles à anticiper le comportement humain. Dans le concours de beauté keynésien “Devinez le Nombre” — choisir entre 0 et 100, puis viser la moitié de la moyenne — des modèles comme ChatGPT‑4o et Claude‑Sonnet‑4 ajustent leurs choix selon le profil d’adversaires décrits, mais surestiment la rationalité réelle et “jouent trop intelligemment”. Ils peinent aussi à détecter certaines stratégies dominantes en duels. Des travaux connexes évoquent une précision d’environ 69% pour les meilleurs systèmes, avec des risques de mimétisme persuasif.Sur les impacts, un texte critique les coûts environnementaux (électricité, métaux rares), le recours à des travailleurs sous‑payés, l’usage de ces technologies pour justifier des licenciements et la diffusion de fausses informations. Il dénonce des effets sur l’esprit critique, des designs addictifs, un manque de régulation, et rappelle que les IA génératives prédisent des mots plutôt qu’elles ne “comprennent”, d’où des erreurs. Les promesses d’AGI ou de singularité sont jugées irréalistes, les investissements étant perçus comme un détournement des priorités écologiques et stratégiques.Enfin, dans l’auto, Elon Musk affirme que Tesla a progressé depuis le départ d’Andrej Karpathy. Il met en avant un “niveau d’intelligence par gigaoctet” plus élevé et un avantage tiré des données massives collectées par la flotte sur route, mises à jour en continu. Des graphiques partagés suggèrent un écart croissant avec des concurrents comme Waymo, nourrissant le débat sur l’avantage des données réelles pour la conduite autonome.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2025-12-27

    27/12/2025 | 5 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : mémoire pour agents IA, controverses sur l’IA générative, nouveau modèle GLM-4.7, partage Flus–Mastodon, rationalité humaine vue par l’IA, Tesla vs Waymo et l’app 1minAI.On commence avec MemMachine, une couche de mémoire universelle pour agents. Elle fournit un stockage et une récupération de souvenirs évolutifs, extensibles et interopérables, qui persistent entre sessions, agents et modèles. Objectif: permettre aux applis d’apprendre des interactions passées et d’affiner un profil utilisateur utilisable par différents systèmes. Côté mise en œuvre, MemMachine est disponible en conteneur Docker et en package Python, avec un guide “Hello World”. Le projet est sous licence Apache 2.0 et ouvert aux contributions; la communauté est active sur Discord.Virage critique ensuite: plusieurs griefs visent l’IA générative, ChatGPT en tête. Coûts environnementaux élevés — électricité, métaux rares, eau — et jeux de données souvent collectés sans consentement. Des entreprises s’en servent pour justifier des licenciements, tandis que la production de contenus peut nourrir la désinformation. Autre effet pointé: le “deskilling”, perte d’esprit critique et d’autonomie cognitive chez les utilisateurs. Des chatbots ont été associés à des comportements dangereux, jusqu’à des cas de suicide. Faute de régulation stricte, ces outils se diffusent, sans pour autant mener à l’AGI. Ils bousculent l’emploi et la vie privée, et peuvent dégrader la qualité du travail en automatisant le répétitif.Cap sur GLM-4.7, dévoilé par Z.ai juste avant Noël. Ce LLM open-source cible des environnements de développement réels: tâches longues, appels d’outils fréquents et exigence de stabilité. Bâti sur GLM-4.6, il renforce les flux de codage, le raisonnement complexe et l’exécution de type agent. Il prend en charge les schémas “penser-puis-agir” dans Claude Code, Cline, Roo Code, TRAE et Kilo Code. Sur 100 tâches de programmation réelles évaluées dans Claude Code, il améliore le taux d’achèvement et la cohérence par rapport à 4.6 et devient le modèle par défaut du GLM Coding Plan. Résultats publics: 67,5 sur BrowseComp et 87,4 sur τ²-Bench, le plus haut score rapporté parmi les modèles open-source disponibles. Il progresse aussi en front-end, produisant des mises en page plus cohérentes. Disponible via l’API BigModel.cn et intégré à l’environnement full-stack de z.ai, il est adopté par TRAE, Cerebras, YouWare, Vercel, OpenRouter et CodeBuddy.Côté outils du quotidien, Flus facilite désormais le partage vers Mastodon. Il suffit de connecter son compte en indiquant l’adresse de son serveur. Les messages peuvent être personnalisés — titre, lien, notes — avec un compteur pour rester sous les 500 caractères. L’extension navigateur ne publie pas directement, mais ouvre rapidement la page de partage sur la plateforme web. De quoi fluidifier la veille et la diffusion de liens.Sur le plan cognitif, une étude montre que des modèles comme ChatGPT et Claude attribuent trop de rationalité aux humains dans des contextes stratégiques. Testés via le “concours de beauté” keynésien, ici “Devinez le Nombre” — choisir entre 0 et 100, le gagnant étant le plus proche de la moitié de la moyenne — les modèles ajustent leurs choix selon le profil d’adversaires décrits, d’étudiants à théoriciens des jeux. Pourtant, ils “jouent trop intelligemment” et ratent souvent la cible. Ils s’adaptent à l’âge ou l’expérience, mais peinent à repérer des stratégies dominantes en duels. Ces résultats rejoignent d’autres constats: précision limitée d’ensemble et capacité à imiter des traits humains, avec un risque de manipulation. Enjeu: mieux calibrer l’IA au comportement réel.Dans l’automobile, Elon Musk estime dépassées les positions d’Andrej Karpathy sur l’IA de Tesla et affirme des progrès depuis son départ. Il met en avant un meilleur “niveau d’intelligence par gigaoctet”, soit une utilisation plus efficace des données, soutenue par des gains de capacité et de vitesse d’apprentissage. Atout revendiqué: les données issues de millions de Tesla sur route, fournissant un flux continu et varié, à l’opposé de tests en laboratoire. Des visuels partagés montrent un écart grandissant avec des concurrents comme Waymo. Musk souligne un apprentissage et des mises à jour en continu fondés sur les kilomètres parcourus.Enfin, 1minAI réunit plusieurs modèles — ChatGPT, DALLE, GoogleAI, Anthropic, Midjourney — dans une interface unique. L’app gère texte‑vers‑parole avec choix de voix, traduction audio, transcription, génération d’images et mise à l’échelle pour améliorer la résolution. Elle permet d’orchestrer simultanément différents modèles et propose des générateurs multilingues pour articles de blog, commentaires sociaux, publicités, descriptions, emails et newsletters. 1minAI s’appuie notamment sur des modèles d’OpenAI comme ChatGPT et DALLE.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2025-12-26

    26/12/2025 | 5 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : hôpitaux et IA en duo, régulation États-Unis/Chine, qualité du code généré, culture cassette face au streaming, IA et casse-tête de jeu vidéo, et nouvelle plainte d’auteurs contre des géants de l’IA.D’abord, la santé. Des travaux récents mettent en avant la collaboration bidirectionnelle entre médecins et IA dans l’évaluation des tumeurs cérébrales. L’idée n’est pas de remplacer l’expertise clinique, mais de la renforcer. Les spécialistes apportent le contexte médical et la lecture des cas complexes, tandis que l’IA traite rapidement des volumes d’images et de données, propose des analyses et des pistes de diagnostic. Résultat rapporté: de meilleures performances à la fois pour les équipes humaines et pour les agents IA, avec des évaluations plus précises et plus rapides. Cette approche, qui combine jugement clinique et calcul intensif, est présentée comme un levier d’amélioration des décisions, avec l’objectif final d’améliorer la prise en charge des patients.Changement de décor: la régulation. Aux États-Unis, les entreprises d’IA évoluent encore dans un cadre largement auto-régulé au niveau fédéral. En Chine, l’encadrement est bien plus strict. Selon un rapport détaillé, les modèles doivent réussir une batterie de 2 000 questions, fréquemment mises à jour, avec un taux de refus d’au moins 95 % sur les requêtes jugées interdites, comme celles relatives au massacre de Tiananmen ou aux violations des droits humains. Ce filtrage s’accompagne d’objectifs de sécurité, par exemple limiter le partage de contenus violents ou pornographiques et prévenir l’auto-mutilation via les chatbots. Un contraste net avec les pratiques américaines, où ces problématiques restent un sujet de mise à niveau continue des systèmes.Cap maintenant sur la qualité du code. Une étude du Model Evaluation & Threat Research indique que le code généré par IA comporte davantage de problèmes que celui écrit par des développeurs: 10,83 problèmes en moyenne pour des tâches d’extraction avec IA, contre 6,45 pour du code humain. Les auteurs notent aussi un ralentissement: des développeurs outillés par l’IA ont mis 19 % de temps en plus pour achever leurs tâches, tout en ayant le sentiment d’aller plus vite. Dans le même temps, Satya Nadella a indiqué que 20 à 30 % du code de Microsoft est désormais généré par IA, ce qui interroge sur la dépendance aux outils et la fiabilité en production.Sur le terrain culturel, un récit témoigne d’un retour aux cassettes et, plus largement, aux médias physiques. Au Japon, où l’achat en magasin reste fort, la cassette n’a jamais disparu. À Tokyo, dans le quartier de Shimokitazawa, des rayons s’entassent jusque sur un vieux piano, et à Nakameguro une boutique affiche un ratio d’environ 10 cassettes pour 1 vinyle. L’auteur y achète un walkman bon marché, coque transparente, et privilégie une écoute hors ligne. En toile de fond, des utilisateurs disent quitter Spotify; des artistes auraient retiré leur musique pour protester contre des publicités de recrutement pour l’ICE et des liens avec des drones militaires; publier ses “Wrapped” serait devenu gênant. Beaucoup se tournent vers Bandcamp, la duplication de cassettes et les mixtapes. L’argument: retrouver une écoute intentionnelle, loin de la réduction de “friction” propre au streaming et de contenus générés par IA perçus comme standardisés, tout en soutenant directement les créateurs.Côté capacités de raisonnement, un casse-tête visuel inspiré d’un Zelda a servi de test. La règle: frapper un bloc rouge ou bleu inverse la couleur des blocs adjacents; objectif, tout mettre en bleu. Sans accès Internet pendant l’essai, Google Gemini 3 Pro a souvent trouvé la solution, mais parfois au terme de longues séquences d’essais, jusqu’à 42 pages. GPT-5.2-Thinking a résolu correctement et rapidement les variantes, de façon répétée. Claude Opus 4.5 a d’abord échoué à bien interpréter l’image; après explications, il a calculé la bonne solution via une équation. En projection, des agents pourraient automatiser la création de guides de jeux: l’exemple NitroGen de Nvidia joue, capture, documente, puis transmet à un rédacteur. Une approche transposable à d’autres logiciels nécessitant de la documentation.Enfin, le juridique. Le journaliste John Carreyrou et cinq auteurs ont déposé plainte contre xAI, Anthropic, Google, OpenAI, Meta et Perplexity, accusant un entraînement de modèles sur des œuvres protégées sans consentement. Particularité: une stratégie de plaintes individuelles plutôt que des actions collectives, pour éviter des règlements à bas coût sur des milliers de cas. C’est la première fois que xAI est visée dans ce type de dossier. Réactions: Perplexity affirme ne pas indexer les livres; Anthropic, déjà impliquée dans plusieurs affaires, a accepté un règlement collectif de 1,5 milliard de dollars, que les plaignants jugent insuffisant, estimant que les auteurs ne toucheraient qu’environ 2 % du plafond légal prévu par le Copyright Act. Le cadre juridique reste mouvant, tandis que des accords commerciaux émergent, à l’image d’un partenariat récent entre un grand studio et un acteur de l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2025-12-25

    25/12/2025 | 5 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une IA de jeu vidéo ouvre un débat sur l’e-sport et la robotique, un corpus de compétences pour construire des agents fiables, une affaire de deepfake dans une école de Louisiane, la sécurité mise à l’épreuve par des “API fantômes”, une note sur Bluesky et JavaScript, et l’Advent of Code vu par l’IA.Nvidia dévoile NitroGen, un modèle open source entraîné plus de 40 000 heures et fondé sur l’architecture GR00T N1.5. Capable de jouer à plus de 1 000 jeux, il analyse l’image en temps réel et génère des commandes de manette, avec une hausse de 52 % de réussite sur des jeux jamais “vus”. Code, modèle et poids sont publiés sur GitHub et Hugging Face. L’ouverture alimente deux dynamiques: d’un côté, un outil d’accessibilité potentielle pour des joueurs handicapés et un terrain d’entraînement pour la robotique humanoïde via le “multivers des simulations”; de l’autre, la crainte d’une prolifération de bots difficilement détectables en ligne, dans un contexte où 80 % des joueurs disent avoir déjà été confrontés à la triche. L’e-sport pourrait devoir renforcer ses contrôles à mesure que ces agents progressent.Dans un autre registre, une collection structurée de compétences d’ingénierie contextuelle propose un cadre pour bâtir des systèmes d’agents en production. L’accent est mis sur la gestion du contexte — prompts système, outils, documents récupérés, historique — plutôt que sur la seule rédaction d’instructions. Le corpus décrit la dégradation du contexte (perte au milieu, courbes d’attention en U, rareté de l’attention) et des techniques de compression pour ne conserver que les tokens à fort signal. Trois volets: fondamentaux, architectures (multi‑agents, mémoires, outils) et opérations (optimisation, évaluation avancée). Philosophie de divulgation progressive, approche agnostique des plateformes, exemples en pseudocode Python, et démonstrations comme “LLM-as-Judge”. Les compétences peuvent être intégrées en copiant les dossiers dédiés dans un répertoire de compétences.À la Louisiance, une collégienne de 13 ans a vu des images d’elle, générées par IA pour la montrer nue, circuler sur Snapchat. Messages éphémères, impossibles à retrouver, moqueries persistantes. Après des alertes à un conseiller et à un adjoint du shérif restées sans effet concret, elle a fini par frapper un camarade suspecté: exclusion de plus de dix semaines pour elle, pas de sanction équivalente pour le garçon. Deux élèves ont finalement été inculpés pour diffusion illégale d’images créées par IA, en vertu d’une nouvelle loi de l’État. La jeune fille souffre d’anxiété et de dépression; de retour dans son établissement, elle reste en probation, privée d’activités extrascolaires. L’affaire illustre la facilité de créer des deepfakes à partir de photos publiques et les limites des protocoles scolaires face au cyberharcèlement.Côté sécurité logicielle, une fintech a découvert un endpoint de production non documenté — une “API fantôme” — créé lors d’une session assistée par GitHub Copilot. Des attaquants s’en sont servis pour extraire des données clients. Ce type d’endpoint, tel qu’un “/api/v2/admin/debug-metrics”, peut exposer des PII s’il n’est ni testé ni protégé. Un rapport Veracode indique que 45 % du code généré par IA contient des vulnérabilités OWASP Top 10; Java échoue à 72 %, Python, JavaScript et C# entre 38 % et 45 %. Une étude Apiiro observe une multiplication par dix des failles en six mois dans les dépôts analysés, et un doublement des expositions d’identifiants cloud. Autre vecteur: le “slopsquatting”, quand l’IA recommande un package inexistant ensuite piégé sur npm ou PyPI. En réponse, des équipes instrumentent l’analyse du trafic pour repérer des endpoints non référencés, comparent en continu la spécification à la réalité de prod, et mènent des audits dédiés au code généré, avec relecture au niveau d’un débutant.Bref détour par le web: pour une application très interactive, JavaScript reste indispensable. Pour explorer le réseau social décentralisé Bluesky et son protocole, des informations publiques sont disponibles sur bsky.social et atproto.com.Enfin, Armin Ronacher, alias mitsuhiko, a confié un billet invité à Claude Code, brisant la ligne éditoriale de son blog sur l’IA. Il y annonce clore son aventure Advent of Code de cette année, menée avec Claude Opus pour écrire et optimiser tous les puzzles, y compris la génération d’entrées. Il présente cette démarche comme une pratique créative et publie un billet daté du 23 décembre 2025.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2025-12-24

    24/12/2025 | 6 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : transparence des vidéos générées, métiers de la rédaction bousculés, CES 2026 et agents autonomes, un espace projet autour de TRELLIS.2, et le lancement de GPT‑5.2‑Codex.D’abord, Google renforce la traçabilité des contenus. L’application Gemini permet désormais de vérifier si une vidéo a été créée ou retouchée avec les outils d’IA de Google. Concrètement, l’utilisateur importe une vidéo puis pose sa question à Gemini, qui analyse l’image et l’audio pour y détecter SynthID, un filigrane numérique invisible apposé par Google sur ses créations. L’outil peut distinguer image et son, et préciser les segments concernés. Limites à noter: les fichiers ne doivent pas dépasser 100 Mo ni 90 secondes, et la détection ne couvre que les technologies de Google. Une vidéo générée par une autre IA, comme ChatGPT, ou modifiée sans SynthID, ne sera pas identifiée. Ce n’est pas un détecteur universel de deepfakes, mais l’ajout de la vidéo répond à la diffusion de faux contenus sur les réseaux sociaux.Passons au monde du travail, où l’IA recompose les métiers de la rédaction. Jacques Reulet II, ex-responsable des opérations de support dans un éditeur de logiciels, raconte avoir d’abord formé des IA aux tâches qu’il enseignait à des humains. Quand les chatbots ont atteint un niveau jugé suffisant, son équipe a été remplacée et il a été licencié. Ce cas s’inscrit dans une tendance plus large: artistes, traducteurs, développeurs et surtout rédacteurs voient leurs départements réduits, leurs postes supprimés, parfois jusqu’à la fermeture d’entreprises. Des témoignages évoquent une rédactrice affublée du surnom “ChatGPT” avant un licenciement sans explication. Les promesses de gains faciles à l’IA foisonnent sur YouTube, mais la réalité décrite est faite de bascules vers des emplois précaires. Le travail ne disparaît pas, il se transforme: beaucoup éditent des textes générés par IA, pour des rémunérations en baisse. Certains espèrent que la “touche humaine” redevienne un différenciateur. Jacques, lui, a déménagé au Mexique pour réduire ses coûts en attendant un nouvel emploi, tout en demeurant pessimiste sur la suite.Cap sur le CES 2026, où l’IA agentique sort du laboratoire. Des “agents maîtres” orchestrent plusieurs agents autonomes, changeant la gouvernance des systèmes d’information: clients et collaborateurs délèguent de plus en plus leurs actions numériques. Conséquence, le SEO glisse vers le GEO, l’optimisation pour moteurs génératifs: les sites sont pensés pour être compris et exploités par des agents IA. En parallèle, la robotique entre en phase de commercialisation: robots humanoïdes et machines spécialisées sont déployés dans l’industrie et la logistique pour la surveillance et la maintenance. Les modèles économiques évoluent avec des contrats de leasing, à l’image des flottes automobiles. La mobilité autonome poursuit ses progrès malgré les aléas géopolitiques: investissements dans les batteries solides et les robotaxis, et intégration de kits d’autonomie sur des véhicules existants, avec des avancées visibles chez Waymo et Cruise. Côté usages, l’IA gagne les objets portés: lunettes à vision augmentée et dispositifs de monitoring biométrique, souvent préfigurés au CES. Enfin, énergie et IA convergent: optimisation du rendement des centrales solaires et baisse de la consommation des data centers. La cybersécurité reste sous tension: l’horizon du Q‑Day en 2030 pousse à adopter des mécanismes de chiffrement résistants au quantique, tandis que des attaquants exploitent déjà l’IA pour industrialiser les offensives. La sécurité post-quantique devient une priorité stratégique.Dans un registre plus technique de collaboration, “Spacesmicrosoft/TRELLIS.2like483” renvoie à un espace ou projet hébergé sur une plateforme liée à Microsoft, autour d’un projet nommé TRELLIS.2. Le statut “Running” indique qu’il est actif. La mention “Zero Spaces” pourrait signaler une configuration sans espace alloué. La section “App” renvoie à l’application en cours, tandis que “Files” et “Community” regroupent respectivement les documents du projet et les échanges. Le “6” accolé à “Community” suggère six discussions ou contributions.Terminons avec OpenAI et GPT‑5.2‑Codex, un modèle spécialisé dans le code. Héritier de Codex, il se positionne comme un agent de génie logiciel à l’échelle industrielle, capable de travailler sur de vastes dépôts et de garder le fil sur des sessions longues grâce à la “compaction native du contexte”, une technique qui réduit les coûts en tokens et améliore la gestion des contextes étendus. Côté mesures, le modèle atteint 56,4 % sur SWE‑Bench Pro et 64 % de précision sur Terminal‑Bench 2.0, montrant sa capacité à opérer dans des environnements de développement concrets. Il apporte aussi des fonctions en cybersécurité défensive, de la détection de vulnérabilités à l’analyse de correctifs. Le déploiement est graduel et prudent: un accès initial réservé aux professionnels de la sécurité pour limiter les usages offensifs, puis une ouverture plus large. Le modèle n’est pas sans limites et peut être devancé par Gemini 3 Flash sur certaines tâches. Il est disponible pour les abonnés payants de ChatGPT, avec une API annoncée en ouverture progressive en 2026.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Le fil IA ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

L'IA aujourd'hui !: Podcasts du groupe

Applications
Réseaux sociaux
v8.2.1 | © 2007-2025 radio.de GmbH
Generated: 12/28/2025 - 7:12:02 PM