L'IA aujourd'hui épisode du 2025-11-07
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : bases de l’IA générative, IA pour la biosphère, protocole MCP et exécution de code, failles “HackedGPT”, IA et références académiques, et financement d’OpenAI.Commençons par un rappel utile. L’IA générative apprend à partir de données existantes pour créer du nouveau contenu: texte, images, audio, vidéo, code. Là où une IA classique reconnaît un chat sur une photo, une IA générative peut en “imaginer” un et le dessiner. Les grandes familles de modèles incluent les GANs, les VAEs, les transformateurs et les modèles de diffusion. ChatGPT illustre la génération de texte, DALL·E et Stable Diffusion la création d’images photoréalistes. Comprendre ces bases permet d’aborder n’importe quel système, de GPT-4 à Midjourney, et d’en composer des usages sur mesure.Cap sur la biosphère. De nouvelles recherches visent à prédire le risque de déforestation et à cartographier les espèces à grande échelle. En partenariat avec le World Resources Institute, un modèle fondé sur la télédétection produit une cartographie des facteurs de perte forestière — agriculture, exploitation forestière, minière, incendies — avec une résolution de 1 km² pour 2000-2024. L’équipe publie un jeu de données de référence pour anticiper le risque de déforestation. Particularité: le modèle s’appuie uniquement sur des entrées satellites, sans couches locales comme les routes, et utilise une architecture de transformateurs de vision. Résultat: des prédictions fines, jusqu’à 30 mètres, couvrant de vastes régions.Deuxième volet: localiser les espèces. Un réseau de neurones graphiques combine des observations de terrain ouvertes, des intégrations satellitaires d’AlphaEarth Foundations et des traits d’espèces — par exemple la masse corporelle — pour inférer des aires de répartition probables, à grande échelle et pour de nombreuses espèces simultanément. Les scientifiques peuvent ensuite affiner ces cartes avec leurs données locales.Troisième brique: écouter la nature. La bioacoustique s’appuie sur des enregistreurs bon marché, mais les volumes audio sont massifs et bruités. Perch 2.0, une mise à jour d’un classificateur de vocalisations animales, améliore l’identification, notamment des oiseaux. Proposé en tant que modèle fondamental, il peut être rapidement adapté sur le terrain à de nouvelles espèces et habitats, partout sur Terre.Passons aux agents IA et à l’intégration d’outils. Le Model Context Protocol, standard ouvert lancé en novembre 2024, a vu naître des milliers de serveurs et des SDK dans les principaux langages. Problème: plus on connecte d’outils, plus charger leurs définitions et faire transiter les résultats intermédiaires dans la fenêtre de contexte devient coûteux et lent. Solution proposée: l’exécution de code avec MCP. Plutôt que d’appeler directement les outils, l’agent écrit du code qui dialogue avec les serveurs MCP, ne charge que les outils utiles, traite les données dans l’environnement d’exécution et ne renvoie que le résultat. Exemple chiffré: joindre la transcription d’une réunion depuis Google Drive à un lead Salesforce passe d’environ 150 000 à 2 000 jetons, soit 98,7 % d’économie. Les résultats intermédiaires restent dans l’exécution, limitant l’exposition de données sensibles; l’état peut être conservé via des fichiers. En contrepartie, il faut un bac à sable sécurisé, des limites de ressources et une supervision.Côté sécurité, un rapport signale sept vulnérabilités dites “HackedGPT” visant ChatGPT; quatre persisteraient dans ChatGPT-5. Techniques observées: un commentaire piégé sur un blog peut injecter des instructions lors d’un simple résumé; une attaque “0‑click” compromet l’utilisateur si le modèle visite une page au code malveillant; le mécanisme “url_safe” peut être contourné via des liens de tracking Bing, utilisés pour exfiltrer des données en codant chaque lettre; “Conversation Injection” exploite l’architecture double; un bug de rendu markdown masque des commandes; enfin, des instructions peuvent être inscrites dans la mémoire longue durée. Les vulnérabilités ont été signalées; certaines restent non corrigées.Sur la fiabilité des références académiques, une comparaison montre des écarts nets. Pour les hallucinations de premier ordre — références inexistantes —: ChatGPT fournit environ 60 % de références réelles, Claude 56 %, Gemini 20 %, avec parfois zéro référence valide. Pour les hallucinations de second ordre — références réelles mais hors‑sujet —: environ 50 % des citations de ChatGPT soutiennent les affirmations, Claude entre 40 et 50 %, Gemini 0 %. Les meilleurs résultats sont obtenus avec ChatGPT et, de près, Claude Sonnet 4 en mode Recherche; la vérification manuelle reste indispensable.Enfin, finances d’OpenAI. La directrice financière évoque la recherche de garanties publiques pour abaisser le coût de la dette et améliorer les ratios prêt‑valeur, en construisant un écosystème de financeurs: banques, capital‑investissement et éventuellement institutions publiques. Malgré une valorisation élevée, l’entreprise opère à perte, portée par la R&D et la puissance de calcul. Elle affirme que l’activité entreprise et grand public aurait des marges brutes “très saines” sans ces investissements, mais la priorité reste l’innovation à long terme. Aucune IPO n’est à l’ordre du jour.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.