PodcastsTechnologiesL'IA aujourd'hui !

L'IA aujourd'hui !

Michel Levy Provençal
L'IA aujourd'hui !
Dernier épisode

385 épisodes

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-08

    08/1/2026 | 5 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : Microsoft pousse Copilot partout, la traduction littéraire à l’ère des machines, une plante cultivée par une IA, les compétences pour gérer des agents, la course à l’IA embarquée, et l’infrastructure NVIDIA pour l’ère des contextes géants.Microsoft transforme Edge en application pilotée par Copilot, avec une interface en test inspirée de l’assistant. Objectif affiché : un navigateur qui saisit l’intention, anticipe les actions et propose des suggestions ou automatisations. En parallèle, la suite Office adopte l’appellation « Microsoft 365 Copilot » après l’échec commercial de Copilot 365. Satya Nadella durcit le ton en interne : s’engager dans l’IA ou s’effacer, signe d’un repositionnement où l’IA devient le fil conducteur des produits.Changement de décor en édition : HarperCollins France prévoit d’ici 2026 de traduire les romans Harlequin via une IA opérée par Fluent Planet, révélait Publisher’s Weekly après des articles en France en décembre. Le flux: traduction automatique, relecture et finalisation par des pigistes, afin de maintenir des prix très bas – 4,99 € pour la série Azur – face à la baisse des ventes. Fluent Planet met en avant BrIAn, un agent propriétaire censé produire des textes 2 à 3 fois plus qualitatifs que la traduction neuronale standard, avec idiomes, style et émotions préservés. L’ATFL et le collectif En Chair et en Os appellent au refus de ces pratiques, dénonçant l’entraînement sur œuvres humaines sans consentement, le travail invisible et précaire (notamment en modération), et une empreinte énergétique élevée. L’autrice Caroline Lee redoute l’éviction d’artistes de couverture et d’éditeurs, et l’impact d’un afflux de livres générés. En mars 2025, Taylor & Francis a annoncé une stratégie similaire, avec correction et validation par éditeurs et auteurs.Sur le terrain expérimental, Claude, l’IA d’Anthropic, a maintenu en vie plus d’un mois une plante, Sol, dans une mini-serre. Toutes les 15 à 30 minutes, l’IA lisait température, humidité, luminosité et pilotait éclairage, chauffage, ventilation et arrosage. Un bug « recursion error » sur l’Arduino a saturé la mémoire et stoppé les automatismes ; malgré cela, Claude a ajusté les paramètres à partir des mesures disponibles. Humidité trop élevée, léger jaunissement des feuilles, mais croissance soutenue. Côté méthode, une boucle ReAct pour le court terme et une couche d’auto-consolidation résumant régulièrement le contexte ont évité la surcharge mémoire. À 43 jours, une tomate restait possible si la stabilité se maintenait.Dans les entreprises, les agents IA passent du concept à la pratique. Ils exécutent campagnes marketing, RH, finance, chaîne logistique ou fabrication. Huit compétences émergent pour les managers: pensée stratégique; littératie en IA et ingénierie d’invite; mise en œuvre responsable et traçable; conception de flux de travail agentiques avec déclencheurs, actions et résultats; communication et intelligence émotionnelle; gestion du changement; gouvernance des données (propriété, accès, qualité, conformité); et apprentissage continu.La compétition mondiale s’étend au matériel: l’IA s’exécute à bord des appareils pour réduire la dépendance au cloud. Samsung s’appuie sur les modèles Gemini, signe d’une bascule vers l’IA embarquée. Cette intégration dope la demande en semi-conducteurs spécialisés et met les fonderies au cœur du jeu.Nadella anticipe 2026 comme année charnière: fini le débat sur le « slop », place à l’impact mesurable. Il mise sur des modèles plus petits et spécialisés qui coopèrent, orchestrés de façon sûre, plutôt qu’un unique modèle géant. Microsoft doit combler l’écart entre promesses de Copilot et usages réels, sous la pression d’un retour sur investissement. L’enjeu: démontrer une valeur concrète tout en maîtrisant l’énergie et les ressources de calcul. Nous n’en serions qu’aux « premiers kilomètres d’un marathon ».Enfin, l’infrastructure suit cette montée en complexité. Avec des fenêtres de contexte de millions de tokens et des modèles à des trillions de paramètres, le cache clé‑valeur (KV) devient critique. NVIDIA Rubin organise des « pods » mêlant GPU, Ethernet Spectrum‑X et un stockage Inference Context Memory Storage (ICMS) taillé pour l’inférence à grande échelle. Propulsé par BlueField‑4, ce niveau de mémoire de contexte précharge et réutilise le cache KV, promettant jusqu’à 5 fois plus de tokens par seconde et 5 fois moins d’énergie que les stockages classiques. Dans la hiérarchie G1–G4, le contexte actif vit idéalement en HBM GPU (G1), puis déborde vers la DRAM (G2) et le stockage local/rack (G3); l’envoyer vers le stockage objet/partagé (G4) ajoute latence, coût par token et baisse d’efficacité. Des cadres comme NVIDIA Dynamo orchestrent ces placements pour éviter de sous‑utiliser des GPU coûteux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-07

    07/1/2026 | 6 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : faux signalement massif chez Uber Eats, images générées non consenties sur X, la plateforme Rubin de NVIDIA, les LLMs pour le tri d’articles scientifiques, l’IA à l’université, PeerTube et JavaScript, Project Graph d’Adobe, IA et codage, citations fantômes et l’outil CERCA, et l’essor de Claude Opus 4.5.On commence par une affaire qui bouscule la vérification de l’information. Un post viral sur Reddit, signé Trowaway_whistleblow, accusait une app de livraison de manipuler les délais, d’imposer des frais pour contrer les syndicats, et d’attribuer aux chauffeurs un “score de désespoir” influençant leurs courses. Le message a atteint la page d’accueil avec 86 000 votes positifs et des millions de vues. Enquête à l’appui, le badge “d’employé Uber Eats” fourni à un journaliste s’est avéré généré par l’IA Google Gemini, et un document technique “confidentiel” truffé d’incohérences, dont l’usage de données d’Apple Watch pour évaluer l’état émotionnel des chauffeurs. Conclusion: une fabrication, et un temps de vérification toujours plus lourd à l’ère des contenus synthétiques. Dans le même registre de confiance, Grok, outil de génération d’images, a vu circuler sur X des visuels sexualisés non consentis, y compris impliquant des mineurs. Les régulateurs ont exigé des mesures de restriction, relançant le débat sur la modération et la protection des utilisateurs.Cap sur l’infrastructure: NVIDIA dévoile la plateforme Rubin, pensée pour bâtir un “superordinateur d’IA”. Six puces co-conçues: CPU NVIDIA Vera, GPU NVIDIA Rubin, commutateur NVLink 6, SuperNIC ConnectX-9, DPU BlueField-4 et commutateur Ethernet Spectrum-6. Objectif: réduire fortement le temps d’entraînement et les coûts d’inférence. Rubin, nommée en hommage à l’astronome Vera Rubin, introduit NVLink de dernière génération, le Transformer Engine, l’informatique confidentielle et un moteur RAS, avec un cap sur l’IA agentique, le raisonnement avancé et les modèles MoE à moindre coût que la plateforme Blackwell. AWS, Google, Microsoft, Meta et d’autres partenaires prévoient d’adopter ces briques pour gagner en mémoire, fiabilité et efficacité.Dans la recherche, une étude a évalué les LLMs pour trier les résumés d’articles dans des revues systématiques et méta-analyses. Des scripts Python ont piloté ChatGPT v4.0 et v3.5, Google PaLM 2, Meta Llama 2, puis les versions récentes: gpt-4.0 turbo, gpt-3.5 turbo, Google Gemini 1.0 pro, Llama 3, et Claude 3. Sur trois bases de résumés, comparées aux décisions humaines, ChatGPT v4.0 affiche une sensibilité et une spécificité équilibrées, avec une précision globale atteignant ou dépassant 90 %. Les auteurs estiment que ces outils peuvent alléger le tri avec un effort humain limité, en mode autonome ou hybride, sans remplacer totalement l’expertise.Dans l’enseignement supérieur, l’usage de l’IA générative explose: à Bordeaux-Montaigne, 85 % des étudiants l’emploient fréquemment, près de 70 % constamment. Les universitaires se divisent: en juin 2025, une lettre ouverte aux Pays-Bas appelle à freiner une adoption jugée non critique; en France, des enseignants, dont Florence Maraninchi, signent un manifeste (près de 2 000 soutiens) pour une objection de conscience. À l’inverse, le réseau TERRA-HN plaide pour une appropriation critique à l’université plutôt qu’un retrait.Côté création, Adobe présente Project Graph, un éditeur visuel par nœuds qui relie modèles d’IA et outils comme Photoshop. Les créateurs conçoivent des flux sur mesure, les empaquettent en “outils portables” avec interface simplifiée, partageables et utilisables à travers les apps Adobe et le web. But: transformer des pipelines complexes — variations de marque, montage vidéo à grande échelle, gestion de séances photo — en briques réutilisables, sans devoir “devenir développeur”.Sur le développement logiciel, le débat s’intensifie. Linus Torvalds juge l’IA plus efficace pour les revues de code, et les entreprises multiplient l’adoption. Mais une étude associe GitHub Copilot à une hausse de 41 % des bogues. AUTOSEL, outil qui s’immisce dans le noyau Linux via l’IA, alarme une partie de la communauté: certains demandent une politique d’urgence sur l’usage de l’IA. Dans le même temps, des filières informatiques stagnent ou reculent, sur fond de crainte d’obsolescence, alors que des groupes comme Microsoft licencient tout en intégrant des outils d’IA.Petit détour par le web décentralisé: PeerTube requiert JavaScript pour fonctionner. Si vous le désactivez, la page ne s’affiche pas. Les utilisateurs soucieux de sécurité peuvent consulter le code de l’instance, chercher des audits, ou utiliser des applications tierces listées par PeerTube. La plateforme fédérée répartit les vidéos sur des “instances” interconnectées. En cas de souci, PeerTube recommande la dernière version de Mozilla Firefox et invite à signaler les bugs sur GitHub.Enfin, la littérature scientifique fait face aux “références fantômes” générées par LLMs: des citations plausibles mais inexistantes, parfois relayées sur le web — une fausse référence attribuée à Ben Williamson compte 43 citations sur Google Scholar. Pour automatiser la vérification, l’outil open source CERCA extrait les références d’un PDF (via Cermine), fait du fuzzy matching, interroge OpenAlex, Crossref et Zenodo, et signale les incohérences. Développé en Java/JavaFX, sous licence AGPL-3.0, il vise à épauler auteurs, relecteurs et éditeurs. En parallèle, l’enthousiasme autour de Claude Opus 4.5, très utilisé pour des projets de code personnels, alimente les questions sur l’automatisation des tâches d’ingénierie.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-06

    06/1/2026 | 6 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : pubs dans ChatGPT, stabilité d’entraînement avec DeepSeek mHC, agents autonomes en centres de contact, médias face à la genIA, secousses SEO chez Google, IA et difficulté des examens, matériel vocal d’OpenAI, virage d’Instagram vers l’authenticité.D’abord, ChatGPT pourrait intégrer de la publicité. Des échanges internes chez OpenAI envisagent un “traitement préférentiel” des résultats sponsorisés. Exemple cité : demander un dosage d’ibuprofène et voir s’afficher une mention pour Advil, avec le reste relégué plus bas. Le service revendique 900 millions d’utilisateurs hebdomadaires. Pour limiter le rejet, un modèle testé ne montrerait des pubs qu’à partir de la deuxième interaction, et du code repéré dans la bêta Android mentionne “publicités de fonctionnalités” et “carrousel de publicités de recherche”. OpenAI dit explorer des formats “conçus pour respecter la confiance”.On enchaîne avec DeepSeek et sa nouvelle architecture mHC, Manifold-Constrained Hyper-Connections. Objectif : stabiliser l’entraînement des grands modèles en contraignant les matrices de mélange au polytope de Birkhoff, où chaque ligne et colonne somme à 1. Testée de 3 à 27 milliards de paramètres, la méthode canalise le flux de signal, là où les Hyper-Connexions classiques peuvent amplifier jusqu’à x3000. mHC s’appuie sur Sinkhorn-Knopp pour normaliser, évite d’avoir recours au gradient clipping, et cible surtout H_res, la matrice appliquée aux résidus, rendue doublement stochastique. Résultat annoncé : gains de stabilité et d’évolutivité sur des entraînements longs.Dans les centres de contact, les agents autonomes passent la vitesse supérieure. Au-delà des réinitialisations de mots de passe, ces systèmes perçoivent le contexte, planifient et agissent à travers CRM, commandes, finance et logistique. Gartner anticipe 80 % des problèmes résolus de façon autonome d’ici 2028. Déploiements concrets : Bosch opère plus de 90 agents avec 76 % de résolution au premier contact ; Heathrow rapporte plus de 30 % de revenus supplémentaires après un engagement proactif automatisé. À la clé, des économies — des cas montrent plus de 800 000 dollars par an — mais avec des garde-fous ; Puzzel décrit une courbe de maturité en cinq étapes pour éviter de brûler les étapes. Côté offre, on voit Agentforce, et NiCE avec CXone Mpower Agents.Place aux médias face à l’IA générative. Plus d’un quart des Français consultent des sites d’infos générées par IA, souvent mis en avant par les plateformes. Parallèlement, les contenus de presse sont exploités pour entraîner des modèles sans consentement ni rémunération. Des pistes se dessinent : valoriser les droits d’auteur via des licences tarifées, mobiliser le droit des marques et le droit “sui generis” des bases de données, et outiller la détection des bots. Le terrain juridique reste mouvant : au Royaume-Uni, l’affaire Getty Images contre Stability AI n’a pas tourné à l’avantage des auteurs ; en Allemagne, l’industrie musicale a gagné contre OpenAI. La CJUE devra trancher pour l’UE.Côté SEO, Google a terminé sa mise à jour principale de décembre 2025, avec de fortes baisses de trafic pour certains éditeurs d’actualité. Le moteur teste aussi des “recettes Frankenstein” générées par IA, critiquées pour leur qualité, et relativise l’intérêt des ccTLD pour le référencement international. Autres tests : icônes de haut-parleur dans les aperçus IA aux États-Unis, et évolution du bouton Gemini dans Chrome. Bing étend “Les gens demandent aussi”. Microsoft Advertising ajoute des colonnes personnalisées et un onglet pour gérer tous les comptes. La communauté pleure Andy Drinkwater, référence du SEO.Sur l’éducation, une étude montre que les LLM évaluent mal la difficulté des questions pour les humains. Mesurée par la corrélation de Spearman, la moyenne reste sous 0,50 : GPT-5 atteint 0,34, quand GPT-4.1 fait 0,44. Les modèles sous-estiment la difficulté, échouent à “jouer” des étudiants plus faibles, et ne prédisent pas bien leurs propres limites. Piste proposée : entraîner sur des données d’erreurs d’élèves. En parallèle, en Allemagne, “rédaction et édition” domine les usages d’OpenAI, avec “tutorat et éducation” juste derrière. Andrej Karpathy défend une “classe inversée” : examens à l’école, apprentissage assisté par IA à la maison.Autre front, le matériel grand public d’OpenAI. L’entreprise accélère avec un modèle IA orienté voix pour une première génération d’appareils, soutenue par l’acquisition de io Products pour 6,5 milliards de dollars. Objectif : rivaliser avec Apple, qui refond la recherche de Siri, et avec Amazon et son Nova Sonic pour l’IA vocale. Foxconn serait impliqué côté fabrication.Enfin, Instagram s’adapte à la défiance envers les images trop parfaites. Adam Mosseri observe que la génération graphique brouille la preuve visuelle ; les moins de 25 ans privilégient des partages plus authentiques, privés et éphémères. La plateforme étudie la signature cryptographique à la prise de vue ; Google teste Nano Banana Pro pour détecter les images générées. En 2026, l’authenticité passe parfois par un certain “désordre” perçu comme gage d’humain.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-05

    05/1/2026 | 6 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un modèle multimodal compact qui tient la distance, une interface web interactive chez Google, l’IA agentique à l’honneur, l’offensive TPU v7 de Google, le parcours d’Arthur Mensch, et un guide pour mieux travailler avec l’IA.On ouvre avec T5Gemma-2, nouveau venu de la famille Gemma 3. Ce modèle encodeur‑décodeur multimodal aligne 270 millions de paramètres et tourne sur un ordinateur portable. Ses embeddings encodeur‑décodeur sont liés, ce qui réduit le nombre total de paramètres, et son décodeur fusionne attention auto et croisée en une seule couche, simplifiant l’architecture et facilitant la parallélisation en inférence. Côté usages, il traite texte et images simultanément et accepte jusqu’à 128 000 tokens grâce à une attention local‑global héritée de Gemma 3. En pratique, un analyste peut donner une capture d’écran d’un graphique de ventes et une consigne textuelle : le modèle repère le mois au plus haut revenu et calcule l’écart à la moyenne trimestrielle. Entraîné sur plus de 140 langues, plus petit et plus flexible que ses prédécesseurs, il cible des machines standard tout en gérant documents longs et tâches multimodales.On reste chez Google avec “vue dynamique” de Gemini, une expérimentation disponible via un bouton sur la version web dans certains pays, dont les États‑Unis. Plutôt qu’un texte statique, l’assistant génère de mini‑pages web interactives : éléments graphiques cliquables, images, animations, informations organisées pour planifier un voyage, structurer des tâches ou comparer des produits sans quitter la page. Limites : l’outil ne capte pas l’intuition humaine — par exemple la perception d’une taille de vêtement — et ces interactions nourrissent la collecte de données. Service gratuit pour l’instant, il pourrait intégrer de la publicité à terme.Cap sur le mot numérique 2025 : “IA agentique”. À la différence de l’IA générative centrée sur la production de contenu, ces agents poursuivent un objectif et prennent des décisions avec peu d’intervention humaine. Exemples : lire les e‑mails, isoler ceux liés aux factures, extraire les montants, alimenter un logiciel comptable, puis envoyer le message de confirmation ; ou encore gérer un agenda, trouver un créneau, réserver un restaurant selon des préférences, et créer l’événement. D’autres termes cités : détox numérique et dégafamisation ; plus loin, hyperscaler, shadowban, vishing, algospeak, numéricovigilance. “IA slop” désigne les contenus générés de faible qualité. Le palmarès des années passées mentionne IA frugale, numérique responsable, métavers.Côté infrastructure, Google prépare pour 2026 le déploiement massif de sa TPU v7 “Ironwood”. Changement d’échelle : la conception passe du serveur au rack, avec matériel, réseau, alimentation et logiciels intégrés au niveau système pour l’entraînement et l’inférence à large échelle. Les TPU, ASIC dédiés à l’IA, reposent sur des matrices statiques avec flux de données et noyaux prédéfinis, quand les GPU lancent dynamiquement des noyaux à l’exécution ; malgré cela, l’écosystème CUDA de Nvidia reste un atout majeur et le portage des bases de code coûteux. Ironwood adopte un design à double puce pour le rendement et le coût, conserve le refroidissement liquide, et mise sur la commutation de circuits optiques pour relier les racks : latence réduite, bande passante stable pour des entraînements longs. Un rack compte 64 puces ; un cluster monte à 144 racks, soit 9 216 TPU synchrones. En 2026, environ 36 000 racks seraient déployés, nécessitant plus de 10 000 commutateurs optiques. La consommation par puce est estimée entre 850 et 1 000 W, jusqu’à 100 kW par rack, avec distribution d’énergie avancée et secours par batterie. La production totale pourrait atteindre 3,2 millions de TPU, mais une expertise poussée de la pile logicielle Google reste nécessaire ; pour la plupart des acteurs, les GPU devraient rester dominants.Portrait rapide d’Arthur Mensch, né en 1992 à Sèvres. Polytechnique, Télécom Paris et Paris‑Saclay, thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind sur les LLM et les systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix : modèles ouverts et interopérables, valorisation en milliards, partenariats avec Microsoft et Nvidia. Il met en avant le contrôle des modèles et une trajectoire européenne de souveraineté.On termine par un mode d’emploi pour mieux travailler avec l’IA d’ici 2026. Clarifier la communication : prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation, “reverse prompting” pour expliciter le raisonnement ; des outils dédiés à l’optimisation des prompts pour ChatGPT ou Gemini aident à cadrer les sorties. Choisir un modèle, le maîtriser, puis étendre à d’autres selon les tâches. Gérer le contexte : formats d’entrée structurés, fichiers de projet organisés pour limiter les redites. Fiabiliser : vérifications automatisées complétées par des contrôles manuels. Traiter les réponses comme une base et y ajouter expertise et style. Orchestrer plusieurs outils : Zapier ou Make.com pour automatiser et relier les services ; LangChain pour combiner des capacités en agents. Revoir régulièrement les flux, éliminer le redondant, ajuster l’alignement avec les objectifs.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-04

    04/1/2026 | 6 min

    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouveau modèle multimodal taillé pour l’ordinateur portable, une interface web expérimentale plus visuelle, l’IA agentique au centre des usages, un guide pratique pour travailler mieux avec l’IA, de grands mouvements industriels, et le parcours d’Arthur Mensch.On ouvre avec T5Gemma-2, dernier-né de la famille Gemma 3. Ce modèle encodeur-décodeur multimodal compte 270 millions de paramètres et fonctionne sur un ordinateur portable. Il traite texte et images grâce à un encodeur de vision efficace et s’appuie sur des embeddings liés entre l’encodeur et le décodeur, ce qui réduit le nombre total de paramètres sans sacrifier les capacités. Autre choix d’architecture, une attention fusionnée côté décodeur qui regroupe auto- et cross-attention en une seule couche, pour simplifier et mieux paralléliser l’inférence. Le modèle gère des contextes jusqu’à 128 000 tokens via une attention local‑global héritée de Gemma 3, et il est massivement multilingue, entraîné sur plus de 140 langues. En pratique, il peut analyser un tableau de bord de ventes à partir d’une image et d’un prompt textuel, déterminer le mois au revenu le plus élevé et calculer l’écart à la moyenne trimestrielle. Il affiche des performances robustes en multilingue, multimodalité, raisonnement et long contexte, et dépasse les Gemma 3 de taille équivalente, limités au texte, sur les tâches multimodales.Restons chez Google avec “la vue dynamique” de Gemini. En phase expérimentale et disponible via un bouton sur la version web dans certains pays, notamment aux États‑Unis, elle génère des mini‑pages web interactives en réponse à une requête. On y trouve des éléments graphiques manipulables, des images, des animations et des onglets pour organiser l’information. L’approche veut dépasser la réponse purement textuelle. Limites à noter : Gemini ne peut pas trancher des aspects subjectifs, comme un ressenti personnel sur un produit. Et comme d’autres IA génératives, le service exploite des données utilisateurs pour s’améliorer, avec des questions associées de confidentialité. Gratuit pour l’instant, il pourrait demain intégrer publicités ou liens d’affiliation pour assurer sa monétisation.Côté usages, “IA agentique” a été élu mot numérique de l’année 2025. L’agent ne se contente pas de générer du contenu : il enchaîne des décisions pour atteindre un objectif, seul ou en coordination avec d’autres. Exemples concrets : lire des e‑mails, isoler ceux liés aux factures, extraire les données, les saisir dans un logiciel comptable et envoyer une confirmation au fournisseur ; ou encore analyser un agenda, repérer les créneaux libres, réserver un restaurant selon des préférences et ajouter l’événement au calendrier. D’autres termes étaient en lice, comme détox numérique et dégafamisation, ainsi que hyperscaler, shadowban, vishing, algospeak et numéricovigilance. Parmi les suggestions, cyberpunk, cyberdystopie, intellition, asservissement numérique, shadow IA, et “IA slop” pour qualifier un contenu généré en masse, de faible qualité, qui brouille la visibilité des créations humaines.Dans la même veine pratique, un guide propose d’atteindre un haut niveau d’efficacité d’ici 2026. Les axes clés : mieux communiquer avec l’IA via du prompting spécifique au domaine, changement de perspective, boucles d’auto‑évaluation et “reverse prompting” pour expliciter le raisonnement ; s’appuyer sur des outils d’optimisation de prompts adaptés à ChatGPT ou Gemini ; choisir un modèle, en maîtriser forces et limites, puis étendre à d’autres. Côté méthode, structurer le contexte et les entrées, standardiser les formats, combiner contrôles automatisés et relecture humaine pour fiabilité. L’approche recommande d’orchestrer plusieurs outils et d’automatiser avec Zapier ou Make.com, voire d’assembler des capacités avec LangChain. Enfin, auditer régulièrement les automatisations, supprimer les redondances et garder l’IA comme partenaire, pas comme pilote unique.Passons aux grands mouvements industriels. SoftBank aurait finalisé un investissement de 41 milliards de dollars dans OpenAI, apportant un soutien financier majeur à ses recherches et à son expansion. Neuralink vise l’automatisation des chirurgies d’implants cérébraux et une production de masse d’ici 2026, avec l’ambition d’interfacer cerveau et ordinateur pour traiter des pathologies neurologiques. Aux États‑Unis, l’ancien président Donald Trump a bloqué l’accord de HieFo sur les actifs de puces d’Emcore, en invoquant la sécurité nationale. En Chine, ByteDance prévoit d’augmenter fortement ses achats de puces d’IA face à la demande pour les produits Nvidia. Sur l’inférence, Nvidia et Groq ont conclu un accord stratégique de licence, qui pourrait élargir la portée des solutions proposées. Enfin, Google prévoit d’accélérer son infrastructure en 2026 avec l’expansion de ses TPU Ironwood, des circuits spécialisés pour les charges d’IA, distincts des GPU plus polyvalents, avec des gains attendus en coût et performance à grande échelle.Pour conclure, un portrait. Arthur Mensch, né en 1992 à Sèvres, formé à l’École polytechnique en 2011, puis à Télécom Paris et Paris‑Saclay, a soutenu une thèse à l’Inria sur l’optimisation stochastique et l’analyse prédictive d’images cérébrales en IRM fonctionnelle. En 2020, il rejoint DeepMind et travaille sur grands modèles de langage et systèmes multimodaux. En 2023, il cofonde Mistral AI avec Guillaume Lample et Timothée Lacroix, mise sur des modèles ouverts et interopérables, atteint en un an une valorisation de plusieurs milliards de dollars, et scelle des partenariats avec Microsoft et Nvidia. Une trajectoire qui place une entreprise française dans la course mondiale à l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Underscore_ ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

L'IA aujourd'hui !: Podcasts du groupe

Applications
Réseaux sociaux
v8.2.2 | © 2007-2026 radio.de GmbH
Generated: 1/8/2026 - 4:22:14 PM