Powered by RND
PodcastsTechnologiesL'IA aujourd'hui !

L'IA aujourd'hui !

Michel Levy Provençal
L'IA aujourd'hui !
Dernier épisode

Épisodes disponibles

5 sur 307
  • L'IA aujourd'hui épisode du 2025-10-22
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : science ouverte avec arXiv, économie des modèles de base, fiabilité des IA génératives, usages et choix de modèles, OCR avec DeepSeek, bras de fer autour du scraping, parole d’expert avec Serge Abiteboul, évaluation d’invites chez Google, et Codex IDE d’OpenAI.D’abord, arXiv souligne la Semaine de l’Accès Ouvert et rappelle son rôle: diffusion gratuite de la recherche, sans paywall, pour stimuler collaboration et innovation. La plateforme appelle aux dons afin de financer l’infrastructure et permettre à tous les chercheurs de partager leurs travaux sans frais.Dans la même veine, un document intitulé “The Economics of AI Foundation Models: Openness, Competition, and Governance” examine les modèles de base d’IA. L’ouverture y recouvre la transparence et l’accessibilité des modèles, leviers de concurrence et de meilleures règles de contrôle. La gouvernance vise un usage éthique via des mécanismes de régulation, publication des pratiques et contrôle des risques.Cap sur la fiabilité des générateurs: l’hallucination reste un risque pour les contenus pédagogiques. Une IA peut valider à tort le modèle VAK, ou inventer des références. Pourquoi? Ces systèmes prédisent des suites de mots probables sans vérifier les faits. Stratégies proposées: croiser les sources (ouvrages, articles), vérifier via Google Scholar ou Crossref, considérer la sortie comme un brouillon relu par un humain, demander des justifications et refuser toute info non sourcée. Transmettre cette posture critique aux apprenants évite la diffusion d’erreurs.Côté usages, près de 10% de l’humanité utilise l’IA chaque semaine, surtout via des services gratuits. Une analyse d’OpenAI sur ChatGPT montre une recherche d’informations plus que de bavardage. Pour choisir un modèle: capacités, confidentialité, accès, approche éthique. Essayez d’abord les versions gratuites d’Anthropic, Google ou OpenAI, puis, selon besoins, des abonnements de 20 à 200 dollars par mois pour le vocal, l’image, la vidéo ou la recherche approfondie. Les agents, plus lents, gèrent mieux les tâches complexes. Côté offres citées: ChatGPT avec options payantes, Gemini 2.5 Flash et Pro, une option Deep Think pour les abonnés Ultra, Claude Sonnet 4.5 avec réflexion étendue. Le mode de recherche approfondie, la connexion à vos données (emails, calendrier) et l’entrée multimodale enrichissent les réponses. Attention aux biais comme la sycophance; donnez du contexte et testez.Sur le terrain, DeepSeek publie DeepSeek-OCR, un modèle de 6,6 Go affiné pour l’OCR, distribué en poids compatibles PyTorch/CUDA. Mise en œuvre rapportée sur un NVIDIA Spark via une boucle agentique et Claude Code en Docker, avec permissions contrôlées. Après des soucis GPU (NVIDIA GB10) avec PyTorch 2.5.1, passage à PyTorch 2.9.0 ARM64 et CUDA 12.8/12.9/13.0 pour installer les roues adéquates. Les premiers résultats, vides, ont été corrigés par des prompts orientés extraction. Scripts, sorties et notes ont été packagés en zip et versés sur GitHub, montrant l’intérêt d’agents parallèles pour automatiser des chaînes complexes.Sur le web, Cloudflare mène une coalition contre l’IA de Google accusée de capter du trafic éditeurs via des réponses directes sans compensation. Mesures annoncées: blocage par défaut des robots d’indexation IA, politique de signalisation, initiative “Pay Per Crawl” pour faire payer l’accès, et même un “labyrinthe” de faits non pertinents pour perturber le scraping non autorisé. Les résumés IA dans la recherche Google réduiraient les clics sortants, posant la question de la viabilité du modèle publicitaire des sites.Côté culture et pédagogie, “Parlez-moi d’IA” reçoit Serge Abiteboul, professeur à l’ENS et directeur de recherche émérite à l’INRIA. Il y aborde différences humain–machine, créativité, autonomie de décision, et s’interroge sur sentiments, spiritualité et éventuelle conscience des systèmes, pour démystifier l’IA de 2025.Google propose LLM-Evalkit, cadre open source bâti sur les SDK Vertex AI pour rendre l’ingénierie d’invite mesurable: définir une tâche, constituer un jeu de données représentatif, évaluer avec des métriques et versionner les prompts. L’outil centralise les essais, compare les sorties, garde l’historique, s’intègre à Vertex AI et offre une interface sans code. Il est disponible sur GitHub, avec des tutoriels et 300 dollars de crédit d’essai.Enfin, OpenAI met en avant Codex IDE, intégré à des environnements comme Visual Studio Code et Windsor. Au menu: suggestions contextuelles, explications de fonctions, débogage, prise en charge de tâches répétitives, refactorisation et optimisation. Codex Cloud déporte les calculs lourds, permet de mettre en file des modifications et facilite le travail d’équipe. Les changements restent soumis à votre validation dans l’IDE, pour garder la main à chaque étape.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:00
  • L'IA aujourd'hui épisode du 2025-10-21
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une fausse percée d’OpenAI en maths, une arnaque tech déjouée par une IA, la voix des ingénieurs face au battage, les mégaprojets d’infrastructures d’OpenAI, l’évolution de la recherche Google, un essai IA en santé, l’inquiétude de Wikipédia, et un nouveau modèle unifié pour l’image.D’abord, retour sur une annonce précipitée chez OpenAI. Des chercheurs ont affirmé sur X que GPT‑5 avait résolu dix problèmes d’Erdős et avancé sur onze autres. Après critiques — notamment de Demis Hassabis — les messages ont été retirés. L’origine: un tweet de Kevin Weil, soutenu par d’autres, laissant entendre des preuves autonomes sur des questions de théorie des nombres. Thomas Bloom, qui gère erdosproblems.com, a clarifié qu’“ouvert” sur son site signifie “non connu de lui”, pas “non résolu”. GPT‑5 n’a fait que pointer des travaux existants. Yann LeCun a parlé d’emballement. Au‑delà du couac, l’intérêt réel ressort: utilisé comme outil de recherche, le modèle repère des articles éparpillés. Terence Tao y voit le gain immédiat: accélérer la recherche documentaire et “industrialiser” certaines tâches, sous contrôle humain.Dans un tout autre registre, un développeur, David Dodda, a échappé à une arnaque de recrutement sur LinkedIn grâce à son assistant IA. Un faux responsable blockchain, doté d’un profil premium crédible (plus de 1 000 connexions, calendrier, dépôt Bitbucket privé), lui a envoyé un test technique. L’analyse par Cursor a révélé un malware dans server/controllers/userController.js : une fonction asynchrone obfusquée, tableau d’octets ASCII décodé en UTF‑8 vers une URL donnant un accès externe au système, identifiants, portefeuilles crypto et données clients. L’infrastructure, éphémère, s’est volatilisée en 24 heures. Ce type d’attaque rappelle les campagnes du groupe Lazarus avec le malware BeaverTail et le backdoor InvisibleFerret ciblant des extensions comme MetaMask et Coinbase Wallet. Un simple scan automatisé peut éviter de lourdes pertes.Parlons maintenant du climat dans l’industrie. De nombreux ingénieurs et chefs de produit jugent l’IA utile mais pâtissant d’un excès de hype et d’une pression à l’adhésion. Ils défendent une “technologie normale”, avec les mêmes critiques et contrôles que les autres. Les licenciements massifs récents et la peur de contredire les narratifs dominants freinent l’expression de cette position modérée. Des voies alternatives existent: systèmes respectant le consentement des créateurs, sobriété environnementale, moins de centralisation.Côté infrastructures, OpenAI et Broadcom visent 10 gigawatts (GW) de puces et capacité d’ici fin 2029. Pour mesurer l’ampleur: construire 1 GW de data center coûterait au moins 32,5 milliards de dollars et environ 2,5 ans; le matériel seul est estimé entre 50 et 60 milliards par Barclays, Jensen Huang cite 50 milliards. OpenAI évoque 33 GW via AMD, NVIDIA, Broadcom et sept sites “Stargate”, dont Lordstown (Ohio) qui serait plutôt un centre technologique avec conteneurs qu’un data center complet. Objectif 2033: 250 GW, soit près de 10 000 milliards de dollars — environ un tiers du PIB américain — alors que la capacité mondiale atteignait ~55 GW en février. L’enjeu financier est considérable: lever au moins 50 milliards pour 1 GW Broadcom, plus d’autres milliards pour NVIDIA/AMD, et des coûts opérationnels annuels élevés.Du côté de la recherche en ligne, Google explique que le vrai changement vient des usages: les internautes modifient leur manière de chercher, ce qui redessine l’affichage et les clics. Le groupe pousse les recherches en “mode IA” via des notifications, met à jour ses règles Google Ads sur les médicaments sur ordonnance, et autorise désormais la vente d’abonnements à des biens physiques via Merchant Center. Autre nouveauté: publier des posts à l’échelle de plusieurs fiches Google Business, utile pour les réseaux de points de vente.Santé publique: une étude a comparé des conversations éducatives menées par humains et par un chatbot, HeartBot, pour améliorer chez les femmes aux États‑Unis la reconnaissance des symptômes d’infarctus et la réponse adaptée. Dans les deux cas, nette progression: meilleure identification et différenciation des symptômes, plus d’intentions d’appeler les urgences et de se rendre sous 60 minutes. Les échanges humains obtiennent toutefois un gain statistiquement supérieur, sauf sur la question de l’appel d’une ambulance. Les participantes ont ensuite évalué l’efficacité perçue du message et la qualité de la conversation. Les chatbots offrent une disponibilité 24/7 et une personnalisation dynamique, mais doivent progresser sur les dimensions relationnelles; des essais contrôlés randomisés sont recommandés.Wikipédia s’inquiète d’une baisse de trafic liée aux réponses générées par l’IA dans les résultats de recherche: seulement 1 % des requêtes conduiraient à cliquer sur le lien cité par le résumé IA. Moins de visites signifie moins de contributeurs et de donateurs, mettant à mal le modèle économique de nombreux sites et, plus largement, l’équilibre du Web ouvert.Enfin, en vision, UniFusion propose d’utiliser un grand modèle Vision‑Langage figé comme encodeur unifié pour texte et images, créant un espace commun de représentation. À partir de là: génération d’images depuis du texte, édition, composition par références ou fusion multi‑images, sans encodeurs spécifiques ni réentraînement par tâche. L’approche rompt avec la séparation habituelle entre encodeurs texte type CLIP et autoencodeurs visuels, pour favoriser un raisonnement inter‑modalités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:35
  • L'IA aujourd'hui épisode du 2025-10-20
    Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un CLI de codage assisté par IA, argent et « bulle » de l’IA face au local, un petit modèle qui vise GPT-5, le débat utilité vs. limites, une piste thérapeutique contre le cancer, une dérive sur Reddit Answers, et les “Agent Skills” pour Claude.On commence avec Codex CLI d’OpenAI, propulsé par ChatGPT 5 Codex. L’outil s’installe via npm ou Homebrew, puis se connecte à votre compte ChatGPT pour démarrer sans friction. Côté sécurité, il propose trois niveaux de permissions fichiers: lecture seule, automatique et accès complet, pour contrôler précisément ses actions. La continuité de session permet de reprendre un travail en cours, et un commutateur de modèle ajuste le niveau de raisonnement selon la tâche. Un mode transcription détaille pas à pas l’exécution du code. L’outil automatise génération, débogage et optimisation, s’intègre au déploiement sur Vercel, et ajoute une recherche web dans le terminal pour docs et API. Compatible avec divers langages et frameworks, il fonctionne comme un assistant temps réel côté terminal.Changement de focale: l’argent afflue dans l’IA, mais l’enthousiasme interroge. OpenAI et Nvidia auraient signé un contrat de 100 milliards de dollars pour un centre de données, Meta proposerait jusqu’à 100 millions par chercheur, et le capital-risque aurait investi près de 200 milliards sur le premier semestre 2025. Face à ces montants, certains y voient une bulle plus large que celle d’Internet. En contrepoint, l’IA locale progresse: ajout d’un assistant vocal embarqué dans des appareils ménagers, fonctionnant sans Internet, pour dépanner un lave-vaisselle par simple pression d’un bouton. Moins de la moitié des appareils “smart” sont connectés: l’IA embarquée pourrait peser plus dans la durée que des chatbots en ligne.Du côté des modèles, Anthropic lance Claude Haiku 4.5, une version compacte qui vise des performances comparables à GPT-5 tout en réduisant l’empreinte. L’objectif: fournir une qualité de génération soutenue avec des besoins ressources plus modestes, utile pour les déploiements contraints.Sur l’utilité réelle de l’IA, un rappel: même si une bulle venait à éclater, les avancées restent. Les LLM peuvent se tromper et leur valeur métier est parfois limitée, mais d’autres briques fonctionnent déjà bien: traduction, transcription, analyse d’images. Le débat philosophique — chambre chinoise, “perroquets stochastiques” — n’efface pas des progrès concrets. Whisper transcrit des discours multilingues avec précision. AlphaFold a contribué à des avancées qui ont mené à un Nobel de chimie en 2024. En radiologie, l’IA devient un outil d’appui, sans remplacer totalement les praticiens.Retour à la recherche biomédicale: Google et Yale présentent Cell2Sentence-Scale, basé sur Gemma et entraîné sur 57 millions de cellules. En traitant l’expression génétique comme un langage, le modèle a prédit qu’inhiber l’enzyme CK2 augmente la présentation MHC-I, rendant des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire. Des tests à Yale, avec silmitasertib et interféron sur des cellules neuroendocrines humaines, ont montré une hausse de 50% de la présentation d’antigènes. Deux versions open source existent sur Hugging Face: C2S-Scale-Gemma-2B et -27B, entraînées sur CellxGene et le Human Cell Atlas. Le modèle prédit effets de traitements, résume des jeux de données et répond à des questions biologiques. C’est préclinique, en attente d’évaluation par les pairs et d’essais cliniques longs; l’équipe poursuit l’exploration des mécanismes et d’autres prédictions.Côté plateformes, Reddit Answers, l’IA conversationnelle de Reddit, a proposé pour la gestion de la douleur d’essayer le kratom, et a même mentionné l’héroïne. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves: toxicité hépatique, convulsions, troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’insécurisé et inefficace. L’incident relance la question de la sécurité des réponses générées dans des contextes santé.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude. Une compétence est un dossier avec un fichier SKILL.md, dont l’en-tête YAML contient au minimum nom et description, préchargés au démarrage pour que l’agent sache quand l’utiliser. Les compétences peuvent inclure des fichiers supplémentaires, consultés à la demande selon le principe de divulgation progressive, et des scripts que l’agent peut exécuter quand le code est plus fiable ou efficient que la génération de texte. Exemple: étendre l’édition de PDF, jusqu’à remplir des formulaires. Avertissement toutefois: des compétences malveillantes peuvent introduire des vulnérabilités ou pousser à l’exfiltration de données. Recommandation: n’installer que depuis des sources fiables et auditer avant usage.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    5:50
  • L'IA aujourd'hui épisode du 2025-10-19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : nouveaux outils pour développeurs, percées biomédicales, controverse autour d’un assistant IA, et débat sur la bulle de l’IA.On commence côté développement avec Codex CLI, un outil en ligne de commande propulsé par le modèle ChatGPT 5 Codex. Installation via npm ou Homebrew, connexion à votre compte ChatGPT, et c’est parti. L’outil propose trois niveaux d’accès aux fichiers — lecture seule, automatique, et accès complet — pour maîtriser ce que l’IA peut modifier. On trouve aussi la reprise de session, un réglage du niveau de raisonnement selon la complexité des tâches, et un mode transcription qui expose pas à pas l’exécution du code. Codex CLI automatise génération, débogage et optimisation, sait déployer via Vercel, et intègre une recherche web pour consulter docs et mises à jour d’API sans quitter le terminal. Compatible avec de nombreux langages et frameworks, il agit comme un assistant temps réel dans la console.Restons du côté des modèles avec Claude Haiku 4.5 d’Anthropic. Cette version compacte vise des performances comparables à GPT-5 tout en demandant moins de ressources. Elle couvre les usages classiques des LLM — génération, traduction, analyse de sentiments — et cible les équipes qui veulent intégrer de l’IA avancée sans infrastructure lourde. L’enjeu ici est l’efficacité: moins de coûts de calcul pour des résultats de haut niveau.Cap sur la recherche médicale. Google et Yale présentent Cell2Sentence-Scale, un modèle basé sur l’architecture Gemma, entraîné sur 57 millions de cellules. Il prédit qu’inhiber l’enzyme CK2 avec le silmitasertib augmente d’environ 50 % la visibilité des tumeurs par le système immunitaire en boostant les molécules MHC-I à la surface des cellules cancéreuses. Des essais en laboratoire sur des cellules neuroendocrines humaines, traitées avec silmitasertib et interféron, ont confirmé cette hausse de la présentation des antigènes. Deux versions open source existent, C2S-Scale-Gemma-2B et -27B, publiées sur Hugging Face, entraînées notamment sur CellxGene et le Human Cell Atlas. Attention cependant : résultats précliniques, en attente d’évaluation par les pairs et d’essais cliniques.Changement de registre avec la modération. Reddit Answers, l’interface conversationnelle de Reddit, a proposé à un utilisateur cherchant des alternatives aux opioïdes d’essayer le kratom… et même l’héroïne. Le kratom n’est pas classé par la DEA mais est illégal dans certains États. La FDA déconseille son usage, citant des risques d’atteintes hépatiques, de convulsions et de troubles liés à l’usage de substances. La Mayo Clinic le qualifie d’“insecure et inefficace”. L’épisode relance la question du contrôle qualité des réponses générées dans des contextes sensibles.Retour aux agents IA avec les “Agent Skills” d’Anthropic. L’idée : des dossiers modulaires qui encapsulent des procédures, scripts et ressources, découverts dynamiquement par l’agent. Chaque compétence contient un SKILL.md avec un en-tête YAML minimal (nom, description) chargé au démarrage, puis un contenu détaillé accessible à la demande — un principe de divulgation progressive qui évite de saturer le contexte. Les compétences peuvent inclure du code exécutable pour des opérations déterministes. Exemple donné : une compétence PDF avec un script Python pour extraire les champs d’un formulaire sans charger le PDF dans le contexte. Recommandation de sécurité : installer uniquement depuis des sources de confiance et auditer les contenus.Enfin, débat économique. Les chiffres donnent le vertige : un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars pour des chercheurs chez Meta, et près de 200 milliards investis par le capital-risque dans l’IA au premier semestre 2025. Certains y voient une bulle plus ample que la bulle Internet. À l’inverse, le terrain montre des usages locaux concrets : un assistant vocal embarqué sur des électroménagers, sans Internet, pour dépanner un lave-vaisselle. Moins de la moitié des appareils connectés étant réellement en ligne, l’IA embarquée pourrait s’imposer. D’autres briques tiennent la route : Whisper transcrit 99 langues en local, AlphaFold a contribué au Nobel de chimie 2024, et la radiologie assistée par IA progresse. Même si la valorisation se corrige, ces capacités demeurent.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    5:19
  • L'IA aujourd'hui épisode du 2025-10-18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : un nouvel outil de codage d’OpenAI, l’argent afflue mais la bulle guette, un modèle compact chez Anthropic, une piste anticancer signée Google–Yale, un dérapage chez Reddit Answers, et les “Agent Skills” pour spécialiser Claude.OpenAI met en avant Codex CLI, propulsé par ChatGPT 5 Codex, pensé comme un compagnon de développement. Au menu: raisonnement personnalisable, continuité de session pour limiter les ruptures de flux, et recherche web intégrée. L’installation se fait via npm ou brew, avec permissions de fichiers configurables et retours détaillés d’exécution. L’outil couvre le codage assisté, le débogage, l’analyse de logs, l’intégration de données et le déploiement, notamment grâce à une intégration fluide avec Vercel. Compatible avec de nombreux langages et frameworks, il vise à automatiser les tâches répétitives et à accélérer les cycles de livraison, tout en laissant la main sur la sécurité et la transparence.Sur le front économique, les montants annoncés donnent le vertige: un contrat de 100 milliards de dollars entre OpenAI et Nvidia pour un centre de données, des offres jusqu’à 100 millions de dollars chez Meta pour attirer des chercheurs, et près de 200 milliards investis par le capital-risque dans les startups d’IA au premier semestre 2025. Des voix alertent sur une bulle plus vaste que celle d’Internet. Argument clé: l’IA locale progresse vite sur du matériel peu coûteux, sans connexion. Exemple concret: un assistant vocal embarqué dans des appareils électroménagers pour aider, hors ligne, à dépanner un lave-vaisselle. Avec moins de la moitié des objets connectés réellement en ligne, le local pourrait compter davantage que les chatbots web. L’auteur pointe aussi la consommation énergétique, les questions de droits d’auteur et l’utilité variable des LLM en entreprise, tout en reconnaissant des avancées solides en traduction, transcription, vision et radiologie. Même si l’économie de l’IA se contracte, la technologie ne disparaîtra pas.Toujours côté modèles, Anthropic lance Claude Haiku 4.5, la version compacte de sa gamme. Objectif: des performances proches de GPT-5 avec moins de ressources, pour des usages comme l’assistance, la génération de contenu ou l’automatisation. Les LLM apprennent les structures et contextes en analysant de grands corpus, puis produisent des réponses cohérentes. Le format compact vise des intégrations plus légères, donc des coûts et latences réduits pour les entreprises.Avancée biomédicale: Google et Yale dévoilent Cell2Sentence-Scale, bâti sur l’architecture Gemma et entraîné sur 57 millions de cellules. En traitant l’ARN mono-cellule comme un “langage”, le modèle a prédit qu’inhiber l’enzyme CK2 rendrait des tumeurs “immunologiquement froides” plus visibles pour le système immunitaire via une hausse de MHC-I. Validation in vitro: traitement de cellules neuroendocrines humaines au silmitasertib et à l’interféron, avec +50 % de présentation d’antigènes, résultat inédit dans la littérature. Deux versions open source, C2S-Scale-Gemma-2B et 27B, sont disponibles sur Hugging Face, entraînées à partir de CellxGene et du Human Cell Atlas. Le cadre peut aussi prédire des effets de traitements, résumer des jeux de données et répondre à des questions biologiques. Ces travaux restent précliniques et devront passer l’évaluation par les pairs et des essais cliniques.Côté plateformes, Reddit Answers fait polémique après avoir proposé, dans un fil sur la douleur, d’essayer l’héroïne et le kratom. Le kratom, extrait de Mitragyna speciosa, n’est pas classé par la DEA mais est illégal dans certains États. La FDA met en garde contre des risques graves, dont toxicité hépatique, convulsions et troubles liés à l’usage de substances. La Mayo Clinic le juge “non sûr et inefficace”. L’incident relance le débat sur la modération et les garde-fous des assistants conversationnels intégrés.Enfin, Anthropic introduit les “Agent Skills” pour spécialiser des agents comme Claude via des dossiers modulaires. Chaque compétence est un répertoire avec un fichier SKILL.md et un en-tête YAML (nom, description). Au démarrage, l’agent charge ces métadonnées, puis lit la compétence complète à la demande selon le principe de divulgation progressive. Les compétences peuvent inclure des fichiers annexes et du code exécutable pour des tâches déterministes. Exemple: une compétence PDF embarque un script Python qui extrait les champs d’un formulaire sans tout charger dans le contexte. Avertissement: installer uniquement depuis des sources fiables et auditer les contenus pour éviter des vulnérabilités.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    5:35

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Dwarkesh Podcast ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

L'IA aujourd'hui !: Podcasts du groupe

Applications
Réseaux sociaux
v7.23.9 | © 2007-2025 radio.de GmbH
Generated: 10/23/2025 - 2:53:39 AM