PodcastsTechnologiesL'IA aujourd'hui !

L'IA aujourd'hui !

Michel Levy Provençal
L'IA aujourd'hui !
Dernier épisode

403 épisodes

  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-26

    26/1/2026 | 5 min
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : navigation web et JavaScript sur x.com, un modèle qui lit plus de 10 millions de jetons, la personnalisation Gemini dans la recherche Google, les risques d’injection de prompt, la traque des contenus IA sur Wikipedia, et le code généré par IA selon Ryan Dahl.On commence par x.com, où un message s’affiche si JavaScript est désactivé. Le site demande d’activer JS ou de passer à un navigateur compatible, listé dans son Centre d’aide. Rappel utile: JavaScript alimente les menus déroulants, animations et mises à jour en temps réel sans rechargement. Sans JS, certaines fonctions cessent de marcher. Pour l’activer, direction les réglages de sécurité ou de confidentialité du navigateur. Les options recommandées restent Chrome, Firefox, Safari et Edge, maintenus à jour pour suivre les normes web. x.com renvoie aussi vers ses Conditions d’utilisation, sa Politique de confidentialité et sa Politique cookies, pour clarifier l’usage et la protection des données.Cap sur le MIT CSAIL, qui teste un « Recursive Language Model » capable d’analyser plus de 10 millions de jetons dans un seul document. Les essais ont porté sur des textes de 6 à 11 millions de jetons. Contrairement aux LLM classiques, le RLM ne charge pas tout dans le contexte: il conserve le texte hors du modèle et n’envoie que les passages nécessaires. Il découpe les documents, lit des métadonnées (comme nombre de sections ou de caractères), génère du code pour localiser les passages clés, puis analyse chaque extrait avant d’assembler le résultat. L’architecture sépare un « modèle racine » — qui planifie et écrit le code d’interrogation — d’un « modèle travailleur » plus rapide qui traite les fragments. Sur le benchmark BrowseComp-Plus, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues, dépassant les approches standard. Le système sait boucler sur le texte, chercher des mots-clés, suivre des limites de chapitres, et peut se combiner à du RAG pour retrouver vite des passages tout en gardant le fil. Le code est disponible sur GitHub; les coûts annoncés restent comparables aux solutions classiques, sans réentraînement requis.Transition vers Google: la nouvelle « Intelligence Personnelle » de Gemini arrive dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, uniquement aux États-Unis et sur comptes personnels, l’expérience est optionnelle. Elle peut s’appuyer sur des données de Gmail, Google Photos, YouTube et vos recherches passées. L’utilisateur choisit de connecter Gmail et/ou Photos, et peut couper la fonction à tout moment. Exemple concret: croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire adapté, jusqu’au musée interactif pour les enfants ou au vieux salon de glace détecté via vos selfies gourmands. Google précise que le Mode IA ne s’entraîne pas directement sur votre boîte Gmail ni sur votre bibliothèque Photos; il utilise des « prompts spécifiques » pour améliorer ses réponses. Des erreurs de liaison entre sujets peuvent survenir: l’utilisateur peut clarifier via des relances et donner un pouce vers le bas pour signaler un problème. Une extension à d’autres pays et aux non-abonnés est prévue ultérieurement.Côté sécurité, rappel sur les attaques par injection de prompt, qui poussent des LLM à réaliser des actions non prévues. Les modèles traitent le contexte par similarité textuelle, sans comprendre hiérarchies ni intentions, et ont tendance à répondre plutôt qu’à exprimer l’incertitude. Formés pour des cas moyens, ils gèrent mal les scénarios extrêmes. Des pistes évoquées: intégrer des modèles du monde physique pour mieux contextualiser, tout en reconnaissant l’incertitude de leur efficacité. La recommandation immédiate: multiplier les couches de défense et d’audit autour du modèle.Sur Wikipedia, le guide d’identification des contenus générés par IA serait utilisé pour masquer ces mêmes contenus. Cela alimente une prolifération de « slop », des textes faibles ou trompeurs produits en masse, et une « course aux armements » entre producteurs automatisés et modérateurs. L’enjeu touche la confiance dans l’information en ligne et les projets collaboratifs, y compris ceux qui s’appuient sur des contributions humaines pour entraîner des modèles. D’où l’appel à des méthodes de détection et de régulation plus efficaces.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivaient le code est révolue. NodeJS, qui exécute JavaScript côté serveur, a propulsé le web moderne. Selon lui, les ingénieurs ont encore beaucoup à faire, mais plus en écrivant de la syntaxe: ils doivent se concentrer sur la conception, l’architecture et l’optimisation. Illustration chiffrée: chez Google, environ 30 % du code de production serait généré par IA. L’acceptation de code produit sans en comprendre chaque détail progresse, posant la question des compétences à développer pour rester utile dans ce nouveau cadre.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-25

    25/1/2026 | 5 min
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : lire 10 millions de jetons d’un coup, la personnalisation Gemini dans la recherche, données d’entraînement et mémoire des modèles, injections de prompt, Wikipédia et la dissimulation de textes générés, l’IA qui code selon Ryan Dahl, et un rappel pratique sur JavaScript et x.com.On commence au MIT CSAIL, où un « modèle récursif » (RLM) a analysé des documents de 6 à 11 millions de jetons. Plutôt que de charger tout le texte, il le garde hors mémoire et n’envoie au modèle que les fragments nécessaires. Sur le benchmark BrowseComp-Plus dédié à la récupération de passages précis, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues. Concrètement, le « modèle racine » planifie et écrit du code pour interroger le texte externe, puis un « modèle travailleur » analyse chaque extrait, avant intégration des résultats. Le système commence par lire des indications globales (nombre de sections, de caractères), génère du code pour localiser les passages clés et traite les morceaux pas à pas, sans réentraînement. Il peut aussi se combiner avec le RAG pour retrouver vite des passages, et son code est disponible sur GitHub.Transition avec Google et sa « Intelligence Personnelle » dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, comptes personnels, aux États-Unis, et entièrement optionnelle. Les utilisateurs peuvent relier Gmail et/ou Google Photos, et la fonctionnalité s’appuie aussi sur YouTube et l’historique de recherche. Exemple donné : croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire, avec des recommandations adaptées, jusque dans le détail d’un salon de crème glacée si vos photos en regorgent. Google précise ne pas entraîner directement le modèle sur votre boîte Gmail ni votre bibliothèque Photos ; l’entreprise utilise des « incitations spécifiques » pour améliorer les réponses. Le système peut établir de mauvaises connexions ; l’utilisateur peut clarifier, ou cliquer sur « pouce vers le bas ». Désactivation possible à tout moment, extension internationale prévue ultérieurement.Côté données d’entraînement, le jeu Books3 — environ 200 000 livres, sans autorisation des auteurs — alimente le débat. Des chercheurs de Stanford et Yale montrent que des modèles commerciaux déconnectés d’Internet peuvent réciter des textes. Ils ont amené Gemini 2.5 Pro à restituer 77 % de « Harry Potter à l’école des sorciers » en complétant la première phrase, puis en prolongeant progressivement. Le Monde a aussi obtenu la reproduction du premier paragraphe de « Du côté de chez Swann » et d’œuvres anglaises du domaine public ; pour des œuvres protégées dans leurs tests, l’IA s’est limitée à des résumés. Le sujet remet en question l’idée que les modèles ne mémorisent que des « fragments » et relance la discussion sur le droit d’auteur.Sécurité maintenant : les LLMs restent exposés aux injections de prompt. Le principe consiste à formuler des instructions qui contournent les garde-fous, jusqu’à pousser un modèle à divulguer des mots de passe ou à détailler des procédures sensibles via une fiction. Des contenus hostiles peuvent aussi passer via de l’art ASCII ou des images. Les protections ponctuelles bloquent certaines techniques, mais il n’existe pas de défense générale aujourd’hui. Les modèles ne disposent pas d’instincts sociaux, traitent le contexte comme une similarité textuelle et deviennent vulnérables si le contexte est trop mince ou trop chargé. D’où la nécessité de mécanismes d’audit et de défense autour des modèles.Sur Wikipédia, un guide conçu pour repérer l’écriture générée par l’IA serait désormais utilisé… pour la masquer. Cela illustre une course aux armements entre producteurs automatisés — capables de générer beaucoup de contenu parfois crédible — et les curateurs, limités par le temps et les moyens. Le risque est celui d’une dégradation générale du contenu en ligne, une « tragédie des biens communs ». Certains évoquent des lois pénalisant la dissimulation volontaire. Wikipédia liste des indices, dont l’idée d’un texte « sans âme », non sans paradoxe pour une encyclopédie. À terme, on pourrait voir plus d’automatisation éditoriale, avec contrôle humain ciblé.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivent le code touche à sa fin. Les développeurs se recentreraient sur conception, architecture et optimisation, tandis que l’IA produit une part croissante du code. Google indique déjà environ 30 % de code de production généré par l’IA. Cela suppose d’accepter du code sans en maîtriser chaque détail et d’adapter les compétences au cycle de développement assisté par modèle.Un rappel pratique pour conclure le tour d’horizon web : si x.com ne s’affiche pas correctement, c’est peut-être que JavaScript est désactivé. Activez-le ou passez à un navigateur compatible listé dans le Centre d’aide, car sans JavaScript, de nombreuses fonctions — formulaires dynamiques, animations, affichage — ne marchent pas.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-24

    24/1/2026 | 6 min
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : des modèles capables de lire plus de 10 millions de mots, la nouvelle Intelligence Personnelle de Google, la mémoire des IA et le droit d’auteur, la sécurité face aux injections de prompts, la détection de textes générés sur Wikipedia, et l’avenir du code selon le créateur de NodeJS.On commence au MIT CSAIL, où un “modèle récursif” ou RLM a analysé des documents de 6 à 11 millions de jetons sans perdre le fil. Plutôt que d’avaler tout le texte, le RLM garde le document hors du modèle et n’envoie au grand modèle central — typiquement un GPT-5 complet — que les fragments utiles, étape par étape. Résultat: sur BrowseComp-Plus, il récupère correctement 91 % des réponses attendues; sur OOLONG-Pairs, pensé pour le raisonnement multi-étapes, 58 % de bonnes réponses contre 0,04 % pour le modèle de base; et sur CodeQA, il double le score d’un GPT-5 classique, jusqu’à 62 %. Concrètement, il lit d’abord des consignes générales, écrit du code pour localiser les passages clés, analyse chaque extrait, puis assemble. Il peut s’appuyer sur du RAG pour retrouver vite des segments précis. Le code est disponible sur GitHub, et malgré des étapes supplémentaires, les coûts restent comparables aux approches standards.Transition avec Google, qui déploie l’Intelligence Personnelle de Gemini dans le Mode IA de la recherche. Pour l’instant, c’est réservé aux abonnés AI Pro et AI Ultra aux États-Unis, sur comptes personnels, et entièrement optionnel. L’outil peut utiliser Gmail, Google Photos, YouTube et l’historique de recherche afin d’ajuster ses réponses. On peut connecter Gmail et/ou Photos, et débrancher quand on veut. Exemple concret: le Mode IA peut croiser une réservation d’hôtel trouvée dans Gmail avec des souvenirs dans Photos pour proposer un itinéraire adapté, comme un musée interactif pour enfants ou un salon de crème glacée rétro si vos images regorgent de selfies glacés. Google précise ne pas entraîner directement ses modèles sur votre boîte mail ou vos photos; l’entreprise parle de “prompts spécifiques” pour améliorer les réponses. Elle prévient aussi des risques de mauvaises connexions entre des sujets ou de contexte mal saisi; on peut clarifier en suivi et signaler avec le pouce vers le bas. Une extension à d’autres pays et à des utilisateurs non payants est prévue.Passons aux données d’entraînement et au droit d’auteur. Les LLM apprennent sur des corpus massifs, incluant souvent Wikipédia et Books3, une collection d’environ 200 000 livres réunis sans l’accord des auteurs. Certains soutiennent que ces données forment un “savoir universel” et que les modèles ne mémorisent pas les œuvres mot à mot. Or, une étude récente de Stanford et Yale, menée par Ahmed Ahmed et ses collègues, a obtenu de quatre IA grand public déconnectées d’Internet qu’elles récitent des pages entières. Gemini 2.5 Pro a restitué 77 % du texte de “Harry Potter à l’école des sorciers”, pourtant protégé. La méthode: compléter la première phrase, puis poursuivre par petits morceaux. Dans un autre test, Le Monde a pu faire reproduire le premier paragraphe de “Du côté de chez Swann” et des œuvres anglaises du domaine public ; pour les œuvres protégées, les réponses se sont limitées à des résumés. Le débat sur la mémoire des modèles et l’usage d’œuvres protégées se poursuit.Côté sécurité, les LLM restent vulnérables aux injections de prompt, des demandes formulées pour contourner les garde-fous et obtenir des actions indésirables. Ces modèles s’appuient sur des similitudes textuelles sans compréhension des intentions ou des hiérarchies, et privilégient la production d’une réponse plutôt que l’expression d’incertitude. Leur entraînement sur des cas moyens les met en difficulté face aux situations extrêmes. Des pistes émergent: renforcer la compréhension du contexte, intégrer des modèles du monde physique, et doter les systèmes de signaux de confiance et de normes sociales. Des progrès de fond restent nécessaires.Sur Wikipedia, le guide visant à identifier les contenus générés par IA est désormais détourné pour les masquer. Les critères de détection, pensés pour repérer des textes peu profonds ou trop rigides, servent à “ajuster” des algorithmes afin de rendre les productions plus difficiles à distinguer des écrits humains. Cette course aux armements fragilise la fiabilité de plateformes collaboratives et relance le débat sur transparence et authenticité. Certains experts appellent à interdire légalement le fait de cacher l’origine non humaine d’un contenu, tout en reconnaissant la difficulté d’appliquer de telles règles au rythme des évolutions techniques.Enfin, l’avenir du code avec Ryan Dahl, créateur de NodeJS: selon lui, “l’ère où les humains écrivaient du code est révolue”. Les ingénieurs ont toujours un rôle, mais plus dans la frappe de syntaxe: place à la conception, l’architecture, l’optimisation. La tendance est déjà là: Sundar Pichai indique qu’environ 30 % du code de production chez Google est généré par IA. L’acceptation de programmes produits sans en saisir chaque détail progresse, ce qui pousse les développeurs à adapter leurs compétences et leurs pratiques de contrôle qualité.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-23

    23/1/2026 | 6 min
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : contrat CSU–OpenAI contesté, contrôle d’âge sur ChatGPT, critiques d’Elon Musk, un préprint sur l’IA et les institutions, et un nouveau modèle d’images en temps réel.D’abord en Californie : le système des universités d’État a signé en février 2025 un contrat de 17 millions de dollars avec OpenAI pour déployer ChatGPT Edu auprès du personnel et des étudiants sur 22 campus, dans l’initiative “Université Équipée par l’IA”. Des voix internes s’y opposent. Elles soutiennent que, malgré son nom, ChatGPT Edu n’est pas une technologie éducative dédiée : hormis des paramètres de confidentialité et de sécurité, il serait équivalent à la version gratuite en ligne, non entraîné ni optimisé pour l’enseignement, sans appui systématique sur des sources fiables et évaluées par des pairs, et indifférent à la véracité. Des experts avancent des risques pour les conditions de travail académiques, la qualité pédagogique, de nouvelles formes de discrimination et la santé mentale des étudiants. Le contexte budgétaire tend la situation : à Sonoma State, 46 membres du corps professoral ont été licenciés et 6 départements fermés en janvier 2025 ; à San Francisco State, 615 professeurs vacataires ont disparu en deux ans, et un programme de départ volontaire a été proposé en décembre 2025 aux professeurs proches de la retraite, avec la perspective de licenciements de titulaires si moins de 75 départs sont actés. Neuf campus ont reçu des avis de licenciements possibles depuis 2024. Les signataires demandent de ne pas renouveler le contrat OpenAI et d’allouer les économies à la protection des emplois, ainsi qu’une gouvernance partagée sur l’IA, au service de la mission éducative de CSU.Transition vers la sécurité des usages grand public. OpenAI déploie une fonction qui devine l’âge des utilisateurs de ChatGPT pour mieux protéger les mineurs, hors Union européenne pour l’instant en raison des règles locales. Le modèle de prédiction croise l’âge du compte, les horaires et schémas d’utilisation, les types de questions et centres d’intérêt ; l’âge déclaré n’est qu’un signal parmi d’autres. Des erreurs sont attendues, comme classer à tort un adulte en mineur. Dans ce cas, OpenAI propose une vérification via Persona, un tiers spécialisé, avec documents d’identité officiels ou selfie en direct selon le pays. Les comptes identifiés comme mineurs accèdent à une version spécifique de ChatGPT, limitant l’exposition à certains contenus. Des contrôles parentaux permettent de désactiver des fonctions ou de restreindre les horaires. L’entreprise indique évaluer et ajuster ces dispositifs en continu, dans un contexte de critiques et d’actions en justice, notamment après le suicide d’un adolescent ayant interagi avec le chatbot.Sur le terrain des controverses publiques, Elon Musk a qualifié ChatGPT de “diabolique”, affirmant qu’il aurait convaincu une personne de commettre un meurtre-suicide. OpenAI est également accusée de partager des données de manière sélective dans cette affaire, ce qui alimenterait des soupçons de dissimulation pour préserver son image. Alors que près d’un milliard de personnes utilisent des outils de type ChatGPT, la question de la transparence et de la responsabilité revient au premier plan. OpenAI dit travailler à améliorer la sécurité et la fiabilité de ses produits, tout en reconnaissant la complexité de la tâche.Cette interrogation rejoint un débat académique plus large. Deux professeurs de droit de l’Université de Boston publient un préprint, “Comment l’IA détruit les institutions”. Leur thèse : la conception des systèmes d’IA, en particulier générative et prédictive, est incompatible avec des fonctions clés des institutions civiques – coopération, transparence, responsabilité, capacité d’évolution. Selon eux, l’IA n’est pas un simple outil d’efficacité neutre ; elle tend à “optimiser” des structures comme les agences administratives, les universités, la santé ou le journalisme au point de les affaiblir. Ils soutiennent que, même sans intention d’éradication, l’IA peut épuiser ces institutions. Initialement partis pour un essai plus positif, ils disent avoir réorienté leur travail face à l’ampleur perçue du risque.Pour finir, une avancée côté modèles d’images avec Flux.2 Klein, dédié à la génération et à l’édition en temps réel, pensé pour tourner vite et sur du matériel modeste. Intégré à la famille Flux.2, Klein privilégie la latence faible et la réactivité pour des usages interactifs: aperçus en direct, édition, prototypage rapide, ou intégration dans des flux agentiques. La “famille Klein” comporte plusieurs variantes pour arbitrer vitesse, qualité ou contrôle. Les modèles distillés ne nécessitent que quatre étapes de diffusion, quand les modèles de base peuvent monter à 50 pour plus de flexibilité en réglage fin, recherche ou entraînement LoRA. Côté performance, l’objectif n’est pas un classement abstrait, mais la qualité d’image utilisable par seconde et par gigaoctet de VRAM. Des mesures basées sur l’Elo, comme proxy de la qualité perçue, indiquent que les versions distillées 4B et 9B obtiennent de bons scores avec une fraction de la latence et de l’empreinte mémoire de modèles plus grands. Une démo gratuite est proposée via le billet d’annonce.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
  • L'IA aujourd'hui !

    L'IA aujourd'hui épisode du 2026-01-22

    22/1/2026 | 6 min
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : l’accord Oracle–OpenAI sous pression, le classement LMArena rebattant les cartes, Wikipedia à 25 ans face à l’IA, évolutions chez Google Search et la pub, chevauchement d’audience ChatGPT–Gemini, un jouet AI par Bravo iDeas, et MemU, mémoire pour agents.Commençons par Oracle. L’éditeur a scellé un accord géant avec OpenAI: 300 milliards de dollars sur cinq ans pour des centres de données, soit 60 milliards par an. L’annonce a propulsé l’action Oracle à des records, mais a aussitôt soulevé une question: OpenAI a déclaré environ 10 milliards de revenus annuels, loin des 60 nécessaires. Sam Altman mise sur les ventes de ChatGPT pour combler l’écart. Cette proximité financière a toutefois enflammé le juridique: des détenteurs d’obligations, emmenés par l’Ohio Carpenters’ Pension Plan, poursuivent Oracle pour des documents d’offre de septembre jugés « faux et trompeurs », accusant l’entreprise d’avoir omis des plans d’octobre qui ont ensuite fait chuter le prix des obligations. Oracle, souvent derrière Amazon, Azure et Google dans le cloud, voyait dans ce partenariat un levier majeur et a parlé à Wall Street d’un objectif de 166 milliards de dollars de revenus cloud annuels d’ici 2030, dépendant largement d’OpenAI. En novembre, les gains boursiers liés à l’accord se sont effacés, le marché doutant de sa viabilité. Autre signal: le méga-centre de données « Stargate » à Saline Township, Michigan, vacille, Blue Owl Capital disant ne pas pouvoir réunir les 10 milliards requis.Côté performances des modèles, LMArena place en janvier 2026 les modèles de Google devant ceux d’OpenAI. Le GPT-5.1 « high » n’arrive qu’en neuvième position, battu par Gemini, mais aussi par Grok, Claude et Ernie de Baidu. Rappelons que LMArena repose sur des duels anonymes à partir d’un même prompt, les votes alimentant un score Elo: gagner contre mieux classé rapporte davantage; perdre contre moins bien classé coûte plus. Déjà en 2025, OpenAI perdait du terrain. ChatGPT demeure très utilisé, mais Gemini progresse par ses performances, et Claude s’installe dans l’usage professionnel. En 2026, Google domine plusieurs catégories, que LMArena détaille via des classements par tâche.Passons à Wikipedia, qui fête ses 25 ans. Son modèle éditorial, ses citations de sources et sa gouvernance collective restent une référence à l’heure où le web est inondé de contenus générés par IA. La fondation a mis en pause des résumés générés automatiquement après une réaction des éditeurs, très vigilants face aux canulars issus de l’IA et inquiets d’une baisse des visites humaines. Jimmy Wales a évoqué un usage possible de l’IA, mais des éditeurs y voient « l’antithèse de Wikipedia ». Dans ce contexte, Selena Deckelmann, directrice produit et technologie de la Wikimedia Foundation, rappelle le défi: piloter l’infrastructure et la stratégie produit d’un des sites les plus visités au monde tout en préparant l’encyclopédie à l’ère générative.Chez Google, plusieurs signaux: la firme ne soutient pas les fichiers LLMs.txt pour la recherche; le mode IA teste des couleurs de police plus claires pour afficher prix et stocks; il propose désormais d’élargir les requêtes; et les aperçus IA peuvent inclure des réponses avec texte barré, pointant des informations écartées. Côté pub, un sondage indique que davantage d’annonceurs envisagent Microsoft Advertising cette année, sans doute pour diversifier leurs canaux.Les audiences de ChatGPT et de Gemini se rapprochent nettement, surtout depuis le lancement de Nano Banana fin août, signe d’une convergence d’usage entre plateformes.Du côté produits, Bravo iDeas arrive sur le jouet intelligent avec, le 20 janvier, un « jouet émotionnel » intégrant puces AI et LLMs. L’architecture centrée personnage vise des échanges plus naturels; les puces traitent localement pour des réponses plus rapides et fluides.Enfin, zoom sur MemU, un système de mémoire agentique pour LLM et agents IA. Il ingère conversations, documents, images, en extrait une mémoire structurée et la range dans un système de fichiers hiérarchique, compatible récupération par intégration (RAG) et récupération pilotée par LLM. Deux voies d’essai: en cloud via memu.so, ou en auto-hébergement avec Python 3.13+ et une clé API OpenAI, stockage en mémoire ou PostgreSQL. MemU accepte des fournisseurs de modèles et d’embeddings au-delà d’OpenAI, et fonctionne avec OpenRouter. Côté API, memorize() pour extraire et stocker, retrieve() pour retrouver la mémoire pertinente. Deux stratégies: recherche vectorielle rapide par similarité cosinus, ou récupération par raisonnement LLM pour une compréhension sémantique plus profonde. Cas d’usage: mémoire de conversation pour assistants personnels, extraction de compétences depuis des journaux d’exécution pour équipes DevOps, ou mémoire multimodale pour documentation et apprentissage. Sur le benchmark Locomo, MemU annonce 92,09 % de précision moyenne sur les tâches de raisonnement.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Underscore_ ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

L'IA aujourd'hui !: Podcasts du groupe

Applications
Réseaux sociaux
v8.3.0 | © 2007-2026 radio.de GmbH
Generated: 1/26/2026 - 10:02:48 AM