L'IA aujourd'hui épisode du 2025-10-22
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : science ouverte avec arXiv, économie des modèles de base, fiabilité des IA génératives, usages et choix de modèles, OCR avec DeepSeek, bras de fer autour du scraping, parole d’expert avec Serge Abiteboul, évaluation d’invites chez Google, et Codex IDE d’OpenAI.D’abord, arXiv souligne la Semaine de l’Accès Ouvert et rappelle son rôle: diffusion gratuite de la recherche, sans paywall, pour stimuler collaboration et innovation. La plateforme appelle aux dons afin de financer l’infrastructure et permettre à tous les chercheurs de partager leurs travaux sans frais.Dans la même veine, un document intitulé “The Economics of AI Foundation Models: Openness, Competition, and Governance” examine les modèles de base d’IA. L’ouverture y recouvre la transparence et l’accessibilité des modèles, leviers de concurrence et de meilleures règles de contrôle. La gouvernance vise un usage éthique via des mécanismes de régulation, publication des pratiques et contrôle des risques.Cap sur la fiabilité des générateurs: l’hallucination reste un risque pour les contenus pédagogiques. Une IA peut valider à tort le modèle VAK, ou inventer des références. Pourquoi? Ces systèmes prédisent des suites de mots probables sans vérifier les faits. Stratégies proposées: croiser les sources (ouvrages, articles), vérifier via Google Scholar ou Crossref, considérer la sortie comme un brouillon relu par un humain, demander des justifications et refuser toute info non sourcée. Transmettre cette posture critique aux apprenants évite la diffusion d’erreurs.Côté usages, près de 10% de l’humanité utilise l’IA chaque semaine, surtout via des services gratuits. Une analyse d’OpenAI sur ChatGPT montre une recherche d’informations plus que de bavardage. Pour choisir un modèle: capacités, confidentialité, accès, approche éthique. Essayez d’abord les versions gratuites d’Anthropic, Google ou OpenAI, puis, selon besoins, des abonnements de 20 à 200 dollars par mois pour le vocal, l’image, la vidéo ou la recherche approfondie. Les agents, plus lents, gèrent mieux les tâches complexes. Côté offres citées: ChatGPT avec options payantes, Gemini 2.5 Flash et Pro, une option Deep Think pour les abonnés Ultra, Claude Sonnet 4.5 avec réflexion étendue. Le mode de recherche approfondie, la connexion à vos données (emails, calendrier) et l’entrée multimodale enrichissent les réponses. Attention aux biais comme la sycophance; donnez du contexte et testez.Sur le terrain, DeepSeek publie DeepSeek-OCR, un modèle de 6,6 Go affiné pour l’OCR, distribué en poids compatibles PyTorch/CUDA. Mise en œuvre rapportée sur un NVIDIA Spark via une boucle agentique et Claude Code en Docker, avec permissions contrôlées. Après des soucis GPU (NVIDIA GB10) avec PyTorch 2.5.1, passage à PyTorch 2.9.0 ARM64 et CUDA 12.8/12.9/13.0 pour installer les roues adéquates. Les premiers résultats, vides, ont été corrigés par des prompts orientés extraction. Scripts, sorties et notes ont été packagés en zip et versés sur GitHub, montrant l’intérêt d’agents parallèles pour automatiser des chaînes complexes.Sur le web, Cloudflare mène une coalition contre l’IA de Google accusée de capter du trafic éditeurs via des réponses directes sans compensation. Mesures annoncées: blocage par défaut des robots d’indexation IA, politique de signalisation, initiative “Pay Per Crawl” pour faire payer l’accès, et même un “labyrinthe” de faits non pertinents pour perturber le scraping non autorisé. Les résumés IA dans la recherche Google réduiraient les clics sortants, posant la question de la viabilité du modèle publicitaire des sites.Côté culture et pédagogie, “Parlez-moi d’IA” reçoit Serge Abiteboul, professeur à l’ENS et directeur de recherche émérite à l’INRIA. Il y aborde différences humain–machine, créativité, autonomie de décision, et s’interroge sur sentiments, spiritualité et éventuelle conscience des systèmes, pour démystifier l’IA de 2025.Google propose LLM-Evalkit, cadre open source bâti sur les SDK Vertex AI pour rendre l’ingénierie d’invite mesurable: définir une tâche, constituer un jeu de données représentatif, évaluer avec des métriques et versionner les prompts. L’outil centralise les essais, compare les sorties, garde l’historique, s’intègre à Vertex AI et offre une interface sans code. Il est disponible sur GitHub, avec des tutoriels et 300 dollars de crédit d’essai.Enfin, OpenAI met en avant Codex IDE, intégré à des environnements comme Visual Studio Code et Windsor. Au menu: suggestions contextuelles, explications de fonctions, débogage, prise en charge de tâches répétitives, refactorisation et optimisation. Codex Cloud déporte les calculs lourds, permet de mettre en file des modifications et facilite le travail d’équipe. Les changements restent soumis à votre validation dans l’IDE, pour garder la main à chaque étape.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.