Powered by RND
PodcastsTechnologiesL'IA aujourd'hui !

L'IA aujourd'hui !

Michel Levy Provençal
L'IA aujourd'hui !
Dernier épisode

Épisodes disponibles

5 sur 338
  • L'IA aujourd'hui épisode du 2025-11-22
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : reconstruction 3D avec SAM 3D, réforme numérique européenne, Gmail et l’entraînement de l’IA, bonnes pratiques Gemini 3, départ de Yann LeCun, alphabétisation en IA et débats sur la standardisation des idées.On commence avec SAM 3D, une nouvelle étape pour passer d’une image 2D à des reconstructions 3D. Deux modèles sont présentés. SAM 3D Objects reconstruit objets et scènes à partir d’une seule photo, en gérant les vues indirectes et les occultations grâce au contexte. SAM 3D Body se concentre sur la pose et la forme humaines, même avec des postures atypiques ou des parties masquées. Il s’appuie sur un maillage 3D, le Meta Momentum Human Rig, qui sépare squelette et tissus mous pour une lecture plus claire des poses. Ces modèles reposent sur un moteur de données capable d’annoter à grande échelle des images du monde réel en formes, textures et dispositions 3D, avec un entraînement mêlant données synthétiques et réelles. Applications visées: jeu vidéo, cinéma, robotique. Un bac à sable, Segment Anything Playground, permet de charger ses images et d’obtenir des reconstructions. Limites actuelles: résolution de sortie et gestion des interactions entre plusieurs objets ou personnes; des pistes annoncées concernent la pose des mains et les interactions humain-environnement.Cap vers Bruxelles: la Commission européenne a dévoilé le 19 novembre 2025 le « Digital Omnibus », un paquet pour harmoniser les règles. Côté RGPD, il propose d’exclure certaines données pseudonymisées, d’élargir l’« intérêt légitime » pour entraîner des systèmes d’IA sans consentement explicite, et de faciliter la gestion de données sensibles découvertes après coup dans les jeux d’entraînement, sans devoir tout recommencer. Un volet cookies introduit un consentement en un clic valable six mois. Sur l’IA Act, adopté en 2024, l’exécutif souhaite reporter de plus d’un an les obligations pour les systèmes à haut risque comme la biométrie ou le recrutement automatisé, alléger les démarches pour les PME et exempter certains modèles de l’enregistrement européen si l’usage est strictement procédural. Emmanuel Macron a plaidé à Berlin pour une « préférence européenne » technologique. Les critiques pointent un recul des protections: l’association NOYB parle d’abaissement massif, le groupe social-démocrate exprime ses réserves. Le texte part maintenant au Parlement et aux États membres pour plusieurs mois.Sous le radar, Gmail activerait des paramètres permettant l’accès à tous les messages et pièces jointes pour entraîner ses modèles d’IA, avec un déploiement progressif et, chez certains, une activation par défaut. Objectif: nourrir Gemini pour des fonctions comme Smart Compose ou l’aide à la rédaction, en s’appuyant sur le contenu réel des e-mails. Google promet anonymisation et sécurité, mais cela peut interroger en cas d’informations sensibles. Pour se désinscrire, il faut agir en deux temps: 1) désactiver les « fonctionnalités intelligentes » dans les réglages Gmail/Chat/Meet; 2) désactiver les « fonctionnalités intelligentes » de Google Workspace; puis vérifier que les deux sont bien coupés.Côté modèles, Gemini 3 est annoncé comme nettement supérieur à 2.5 Pro et s’accompagne de lignes directrices pour mieux l’exploiter: planification explicite, décomposition des tâches et auto-critique; instructions structurées avec délimiteurs XML ou Markdown (sans les mélanger); recours à des outils agentiques comme la persistance, le pré-calcul et la réflexion; adaptation au domaine d’usage. Pas de recette figée: l’ingénierie du contexte se teste et s’itère selon les données, la latence et la complexité.Chapitre recherche: Yann LeCun quitte Meta après 12 ans et la création du labo FAIR. Il lance une startup pour poursuivre le programme AMI, visant des systèmes capables de comprendre le monde physique, de stocker une mémoire persistante, de raisonner et de planifier des séquences d’actions. Meta a soutenu AMI et restera partenaire. LeCun a remercié la direction de Meta, tout en assumant un décalage avec la course aux modèles immédiatement opérationnels; il reste réservé sur les LLM comme avenir de l’IA.Dans les organisations, l’alphabétisation en IA devient un enjeu. 81 % des recruteurs placent les compétences IA parmi les priorités d’embauche en 2025, alors que beaucoup d’utilisateurs se sentent encore peu confiants. Deux traditions coexistent: formation technique avancée et réflexion éthique et sociétale (confidentialité, sécurité, équité, transparence). Les combiner en approche socio-technique favorise la collaboration entre profils. Selon le Forum économique mondial, 40 % des employeurs envisagent de réduire les effectifs d’ici 2030 avec l’automatisation: d’où le besoin d’équipes qui utilisent l’IA et comprennent ses effets sur les processus. L’agence humaine doit rester centrale, car la sécurité dépend autant de la conception que des contextes de travail.Enfin, trois ans après le lancement de ChatGPT en novembre 2022, l’outil revendique plus de 700 millions d’utilisateurs hebdomadaires. Deux essais récents alertent sur une standardisation des idées: Marion Carré décrit un « tapis roulant » où l’IA recycle le déjà-vu; Anne Alombert rapproche les IA génératives des sophistes, simulant la connaissance et risquant une « prolétarisation » intellectuelle. Elles prônent un usage critique, inspiré de modèles participatifs comme Wikipédia ou la plateforme open source Tournesol.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:29
  • L'IA aujourd'hui épisode du 2025-11-21
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : données sensibles exposées par une appli d’images érotiques, contenus générés par IA dans la presse, compatibilité de PeerTube, prédictions IA sur le Bitcoin, limites des LLM face aux rétractations scientifiques, nouveaux modèles d’OpenAI pour le code, et iPadOS 26 qui marie ChatGPT et création d’images.On commence par une fuite massive: Secret Desires, un chatbot de jeu de rôle érotique et plateforme d’images par IA, a laissé accessibles au public des bases de données contenant près de deux millions de photos et vidéos. Les fichiers incluaient des clichés réels téléchargés par des utilisateurs, mais aussi des images générées par IA, souvent très explicites. Les données révèlent l’usage d’outils d’échange de visages pour créer des contenus sexuels non consentis, visant aussi bien des célébrités que des femmes n’ayant aucune présence publique. Contrairement aux applis de “nudification”, ces outils insèrent des personnes dans des vidéos sexuelles générées par IA. L’incident illustre l’ampleur de ces pratiques et l’exposition de personnes avec très peu de traces numériques.Dans les médias, la production de contenus par IA progresse. Deux grands groupes de presse français hébergent des sites reposant en partie sur l’IA, ce qui pourrait gonfler artificiellement leur audience. L’exemple le plus visible: sain-et-naturel.ouest-france.fr, signalé par une extension de Next qui alerte sur les sites dont les articles semblent générés par IA. Cette extension a déjà repéré plus de 8 500 sites francophones. Certains articles du site apparaissent dans la rubrique Environnement d’Ouest-France sans être rédigés par ses journalistes. Après un message public d’un journaliste, les mentions légales ont été mises à jour pour préciser que le contenu peut être partiellement généré par IA, une indication auparavant absente. Le responsable, Cyril Renault, dit privilégier des méthodes vérifiables et publie des traductions en Nature et Écologie, tandis que Psychologie et Bien-être propose des textes non sourcés illustrés par des images générées par IA. En jeu: transparence éditoriale et crédibilité.Côté plateformes vidéo, rappel pratique pour PeerTube: JavaScript est indispensable. Si votre navigateur le bloque, la lecture et les fonctions interactives peuvent dysfonctionner. PeerTube est décentralisé, réparti sur un réseau de serveurs, mais nécessite un navigateur compatible. En cas de problème, testez la dernière version de Mozilla Firefox. Et si vous suspectez un bug, signalez-le sur le suivi des problèmes GitHub du projet, dont le code est ouvert et auditable.Finance maintenant. L’IA de xAI, Grok, est utilisée pour anticiper les mouvements du Bitcoin en combinant données historiques, économiques et comportementales. Dans un contexte baissier, ses modèles projettent une correction marquée, avec un possible retour vers des niveaux historiquement bas. Le Bitcoin se négociait autour de 95 700 dollars après une chute de 13 % sur une semaine, et des pertes supplémentaires sont envisagées. Ces analyses, présentées comme une aide à la décision, invitent à la prudence: imprévus de marché, complémentarité avec d’autres outils, et réévaluations régulières des scénarios.Recherche scientifique: une étude récente pointe les limites des LLM pour repérer les articles rétractés. Sur 21 chatbots testés, moins de la moitié des publications invalidées ont été correctement identifiées. Les faux positifs sont notables: environ 18 % des articles valides du chercheur Joachim Boldt ont été classés à tort comme rétractés. Les réponses varient selon la formulation et le moment de la question. Dans certains cas, ChatGPT a rapporté des faits rétractés comme vrais et évalué des articles rétractés comme de haute qualité. Message clair: ces outils ne doivent pas être utilisés seuls pour des vérifications critiques.Du côté des modèles, OpenAI lance GPT-5.1-Codex-Max, désormais par défaut dans l’agent de codage Codex CLI. Il est pensé pour des tâches de code “agentiques” proches de Codex et devrait arriver prochainement via API. OpenAI annonce aussi des scores élevés sur SWE-Bench Verified: 76,5 % au niveau de réflexion “élevé” et 77,9 % en “très élevé”. Bien que Gemini 3 Pro ait été légèrement dépassé par Claude Sonnet 4.5 sur ce benchmark, OpenAI indique détenir désormais le modèle au score le plus haut. Particularité du nouveau Codex-Max: la “compaction” de contexte, qui lui permet de travailler de manière cohérente sur des millions de tokens en compactant automatiquement l’historique pour garder l’essentiel. Parallèlement, GPT-5.1 Pro est déployé pour tous les abonnés Pro de ChatGPT, tandis que GPT-5 Pro reste disponible 90 jours comme modèle hérité.Enfin, iPadOS 26 relie ChatGPT à l’app Image Playgrounds. L’outil combine traitement sur l’appareil pour la rapidité et traitement hors appareil via ChatGPT pour des images plus détaillées. Les utilisateurs peuvent piloter la génération avec des invites précises, des mots-clés et des images de référence, et choisir parmi divers styles artistiques. Le mode hors appareil demande une connexion stable et peut prendre plus de temps, avec en contrepartie une qualité accrue. Les créations se sauvegardent et se partagent facilement dans l’écosystème iPadOS, pour un usage personnel ou professionnel.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:18
  • L'IA aujourd'hui épisode du 2025-11-20
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : accessibilité dans Microsoft Office, météo augmentée par l’IA, styles d’écriture de ChatGPT, IA et université, création vidéoludique sans IA, et débats autour des LLM.On commence par Word et PowerPoint sur Windows. Microsoft active une nouvelle génération de texte alternatif à la demande, propulsée par des modèles génératifs. Exit la génération automatique à l’insertion de l’image: vous déclenchez la description quand vous le souhaitez, avec des formulations plus riches, descriptives et contextuelles. L’entreprise dit avoir ajouté des garde-fous pour rester fidèle au contenu visuel et éviter des formulations inadaptées. Cette nouveauté est disponible pour les abonnés Microsoft 365 en version 2510 (Build 19328.20000) ou ultérieure. Côté licences perpétuelles, les anciennes versions ne génèrent plus d’ALT par défaut; l’option reste activable via Fichier > Options > Accessibilité > Générer automatiquement du texte alternatif. Les prochaines versions perpétuelles adopteront la même expérience générative à la demande. Pour donner un retour, ouvrez l’Assistant Accessibilité, “Donner un avis”, ou “Donner un avis sur ce texte alternatif” dans le volet dédié.Cap sur la météo: Google dévoile WeatherNext 2, conçu par DeepMind et Google Research. Le modèle produit des prévisions huit fois plus rapidement que ses prédécesseurs, avec une précision horaire, et surpasse l’ancienne version sur 99,9 % des variables suivies, dont température, vent et humidité. Il va jusqu’à 15 jours d’horizon, et chaque prédiction s’exécute en moins d’une minute sur un seul TPU. Côté méthode, il s’appuie sur un Functional Generative Network qui injecte un bruit contrôlé pour générer plusieurs scénarios à partir des mêmes observations, utile pour mieux capter des événements rares ou extrêmes. Les données arrivent sur Earth Engine et BigQuery, et un accès anticipé est ouvert sur Vertex pour des inférences personnalisées. Jusqu’ici, ces avancées alimentaient des services Google (recherche, météo sur smartphone, Google Maps Platform via API); l’entreprise prévoit d’étendre l’usage à Google Maps.Changement de registre, écriture assistée: Sam Altman indique que ChatGPT suit désormais des instructions personnalisées pour éviter les tirets cadratins. L’annonce intervient peu après la sortie de GPT-5.1. Les réactions restent partagées: contrôler une ponctuation si simple souligne les limites d’un modèle probabiliste. Demander d’éviter un caractère diminue sa probabilité d’apparition sans la supprimer. Quant à l’origine de la surutilisation, plusieurs pistes circulent, du poids des livres du XIXe siècle dans les corpus à des habitudes issues de plateformes d’écriture. En filigrane, le débat porte sur la capacité des modèles à suivre finement des préférences de style.Dans l’enseignement supérieur, une veille bimestrielle dresse le tableau. Amazon annonce des licenciements touchant des employés de bureau, en partie pour automatiser certains postes et réallouer des coûts salariaux vers l’IA, suscitant des inquiétudes chez les étudiants. Un ouvrage signé Olivier Babeau et Laurent Alexandre, “Ne faites plus d’études. Apprendre autrement à l’ère de l’IA”, affirme que le modèle académique actuel est dépassé: l’IA dispenserait l’enseignement, les enseignants deviendraient des coachs tout au long de la vie. A l’inverse, une tribune de Mathilde Cerioli, Teddy Nalubega et Nagla Rizk soutient que l’IA peut réduire les inégalités si elle est encadrée et adaptée aux infrastructures locales, en allégeant les pénuries d’enseignants et en soutenant des classes surchargées. La revue Alsic consacre un numéro à l’IA et à la didactique des langues, insistant sur l’apprentissage de l’usage des outils d’IA par les étudiants. Sur Mediapart, Julien Cueille rappelle que la “révolution numérique” 2000-2010 n’a pas amélioré les apprentissages, et s’interroge sur l’impact réel d’une “révolution IA”. Dans les universités, les discussions portent sur un “bon usage de l’IA”: préserver des espaces de réflexion tout en repensant l’écriture et l’évaluation.Dans le jeu vidéo, le studio AdHoc, derrière Dispatch, refuse d’utiliser l’IA pour remplacer les acteurs vocaux ou pour la conception de jeux. Le directeur créatif Nick Herman et le producteur exécutif Michael Choung estiment que l’IA ne restitue ni la profondeur ni la surprise des performances humaines, citant celles de Jeffrey Wright et Aaron Paul. Pour eux, l’IA ressemble à un outil de production, pas de création; l’objectif n’est pas de réduire les équipes. Ils ne condamnent pas pour autant les studios qui font un autre choix. Dispatch a dépassé le million d’exemplaires en dix jours, et une saison 2 est désormais envisagée.Enfin, côté recherche, Yann LeCun quitte Meta. Il considère les grands modèles de langage comme une impasse pour aller vers une IA générale. Selon lui, l’AGI viendra, mais pas via les seuls LLM; il plaide pour une autre voie, à rebours d’investissements actuels dans des “modèles de monde” qui visent à simuler les environnements au-delà du texte. Le secteur se heurte aussi à une pénurie de données d’entraînement de haute qualité, freinant l’idée de superintelligence. Chez Meta, le recrutement intensif piloté par Mark Zuckerberg aurait créé des tensions internes, entre départs, menaces de démission et critiques d’un cap jugé flou.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:09
  • L'IA aujourd'hui épisode du 2025-11-19
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : RGPD et entraînement des modèles, un modèle “médaillé d’or IMO” chez OpenAI, le départ de Yann LeCun de Meta, l’animation d’images avec Champ, des mondes 3D avec Marble, et une tribune sur une IA qui s’installe durablement.D’abord, Bruxelles envisage de revoir le RGPD pour faciliter l’entraînement des modèles d’IA. Une proposition clé serait de considérer l’usage de données personnelles pour l’entraînement comme un “intérêt légitime”. Concrètement, des entreprises pourraient s’affranchir du consentement explicite si elles justifient que l’utilisation sert l’innovation ou le développement technologique. Autre pivot: redéfinir la “donnée personnelle”. Une information ne serait plus couverte si l’entreprise qui la collecte ne peut pas identifier la personne concernée, ce qui exclurait potentiellement de larges ensembles de données du RGPD. Enfin, les données sensibles ne bénéficieraient d’une protection renforcée que lorsqu’elles “révèlent directement” l’origine, les opinions, la santé ou l’orientation sexuelle. Ces chantiers allègeraient les obligations des acteurs de l’IA, tout en soulevant des craintes d’un recul de la protection de la vie privée.Côté modèles, OpenAI travaille sur une nouvelle version surnommée “gagnant de la médaille d’or de l’IMO”. Le but n’est pas de remplacer GPT‑5.x, mais d’offrir des performances de pointe sur des tâches spécifiques, sans se cantonner à un domaine ultra étroit. Le modèle serait peu optimisé pour l’IMO en tant que telle et s’appuie surtout sur des avancées générales en apprentissage par renforcement et en calcul, sans recourir à des outils externes comme des interpréteurs de code. Rappel utile: en apprentissage par renforcement, le système apprend via récompenses et pénalités, mais il peine sur des tâches sans réponses claires. Dans ce cadre, Andrej Karpathy rappelle que le défi du “Software 2.0” tient à la vérifiabilité des tâches: mathématiques, code ou jeux avancent car la correction est explicite, quand le travail créatif ou le raisonnement contextuel progressent plus lentement. Même si ces modèles surpassent l’humain sur des domaines très vérifiables, l’impact pour l’utilisateur moyen pourrait rester limité à court terme, tout en accélérant la recherche en preuves mathématiques ou en optimisation.Dans l’écosystème, Yann LeCun quitte Meta pour fonder sa start‑up. À la tête de FAIR depuis 2013, il a porté PyTorch, la recherche fondamentale et l’open source. Meta change de stratégie: création de Meta Superintelligence Labs et acquisition de Scale AI pour 15 milliards de dollars, avec Alexandr Wang aux commandes, afin d’intégrer des modèles très grands dans les produits de la maison. LeCun soutient que les LLM actuels ne suffisent pas à atteindre une intelligence générale et mise sur des “world models” apprenant le monde de manière causale, à l’image d’un enfant. Son projet JEPA illustre cette voie. Ce départ interroge l’avenir de l’open source chez Meta et rappelle l’intérêt, pour l’Europe, d’investir dans des avancées scientifiques plutôt que dans une course à l’infrastructure.On reste dans la création visuelle avec Champ, pour “Animation d’Image Humaine Contrôlable et Cohérente avec Guidance Paramétrique 3D”. À partir d’une photo, il génère une vidéo animée de la personne. L’article explique comment l’exécuter en local, présente ses forces et ses faiblesses, et replace Champ parmi d’autres modèles suivis récemment: Chronos d’Amazon pour les séries temporelles, Open‑Sora‑Plan pour la génération vidéo, et DocOwl pour les questions‑réponses sur documents. Le code a été repéré via PapersWithCode, plateforme pratique pour retrouver rapidement les implémentations les plus récentes.Changement de focale: et si la bulle IA ne crevait pas? Certains observateurs redoutent non la fin de l’IA, mais sa consolidation. Longtemps rangée avec le métavers et les NFT, l’IA gagne pourtant du terrain: 12 % des Français utiliseraient ChatGPT quotidiennement. Même en cas de correction du marché ou de défaillance d’acteurs, les modèles génératifs continueraient à évoluer et à s’intégrer. Des projets se développent pour mettre l’IA au service des travailleurs, tandis que des usages contestables existent déjà, comme des faux justificatifs de dépenses. Enfin, le débat écologique s’intensifie, entre mises à niveau logicielles qui rendent du matériel obsolète et coûts environnementaux de la mise au rebut.Pour finir, Marble 3D Worlds fait entrer l’IA dans l’intelligence spatiale. À partir d’un texte ou d’images, il construit des scènes 3D complètes, cohérentes en profondeur, perspective, éclairage, objets et textures. Donnez “un marché médiéval tranquille au crépuscule” et le système compose l’environnement, en respectant la perspective et les contraintes du monde réel. Le mode Chisel sépare la structure du style: volumes simples d’abord, puis détails et ambiance via une invite textuelle. L’édition en scène permet d’ajuster l’éclairage, de remplacer des objets ou de changer l’humeur sans tout reconstruire; la fonction d’extension prolonge la scène au-delà d’une zone sélectionnée. Les exports haute fidélité visent le web, les moteurs de jeu et les outils de design, avec des usages en jeux vidéo, architecture, effets visuels et robotique. World Labs lance aussi Marble Labs, pour partager des flux de travail entre artistes, ingénieurs et designers.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    6:06
  • L'IA aujourd'hui épisode du 2025-11-18
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une plainte contre la Commission européenne pour usage d’IA générative, la pile PARK pour bâtir des plateformes d’IA en entreprise, des modèles de vision alignés sur la perception humaine, et l’impact des LLM sur la cybersécurité.D’abord, affaire européenne. L’ICCL a saisi le Médiateur européen, estimant que la Commission européenne a utilisé de l’IA générative dans des documents publics en contradiction avec ses propres règles et ses obligations de fournir une information exacte. Dans une réponse à une demande d’accès aux documents, la Commission a inclus quatre liens, dont au moins un contenait “utm_source=chatgpt.com”, révélant qu’il avait été généré via ChatGPT d’OpenAI. On ignore si d’autres passages reprenaient des sorties d’IA et si cette pratique est courante. Or, les lignes directrices internes indiquent que “le personnel ne doit jamais reproduire directement la sortie d’un modèle d’IA générative dans des documents publics.” L’ICCL rappelle aussi le droit à une bonne administration inscrit dans les traités. Pour son Senior Fellow, Kris Shrishak, les autorités devraient divulguer l’usage d’outils génératifs et préciser lesquels, et assumer la charge de prouver la véracité des informations—à défaut, s’abstenir de les utiliser.Cap sur l’entreprise. Face à l’IA générative, trois voies se dessinent pour les équipes tech : étendre les plateformes data/ML existantes, s’appuyer sur des API, ou bâtir une plateforme unifiée sur mesure. Pour ce dernier choix, une pile s’impose : PARK, pour PyTorch, AI Frontier Models, Ray, Kubernetes. L’architecture combine Kubernetes pour orchestrer les ressources et la mise à l’échelle des conteneurs ; Ray pour le calcul distribué, la tolérance aux pannes et l’exécution multi-nœuds ; des modèles de base préentraînés, ajustables et déployables sur des tâches spécifiques ; et PyTorch comme cadre haut niveau pour développer ou affiner ces modèles. L’intérêt : une plateforme cohérente couvrant entraînement, adaptation et déploiement, en gardant la maîtrise des coûts, de la sécurité et des performances.On enchaîne avec la recherche. Une équipe de Google DeepMind, Anthropic et d’Allemagne propose AligNet, une méthode pour rapprocher les modèles de vision des jugements humains. Publiée dans Nature, l’étude part d’un “modèle enseignant de substitution” : une version de SigLIP ajustée à partir de jugements humains issus du jeu de données THINGS. Cet enseignant produit des scores de similarité “pseudo-humains” pour des millions d’images synthétiques d’ImageNet. Ces étiquettes servent ensuite à affiner différents modèles, dont des Vision Transformers (ViT) et des systèmes auto-supervisés comme DINOv2. Résultat : sur “Levels”, un nouveau jeu de données couvrant plusieurs niveaux d’abstraction et évalué par 473 personnes, un ViT-B ajusté avec AligNet dépasse l’accord moyen entre humains. Les gains techniques suivent : meilleure généralisation et robustesse, parfois plus du double de précision par rapport aux versions de base ; hausse jusqu’à +9,5 points de pourcentage sur l’ImageNet-A adversarial ; meilleure estimation de l’incertitude, avec des confiances plus proches des temps de réponse humains. Les représentations internes se réorganisent aussi : les objets se regroupent par signification plutôt que par apparence, au point que des lézards se rapprochent d’autres animaux plutôt que de plantes de même couleur. Données et modèles sont en accès libre, avec la réserve que les jugements humains comportent des biais.Enfin, cybersécurité et LLM. Des modèles comme ChatGPT, Claude ou Gemini facilitent l’accès à l’information, mais peuvent aussi aider des acteurs malveillants. Les garde-fous refusent une demande explicite d’injection SQL, mais le “prompt engineering” permet de les contourner en plaçant la requête dans un contexte fictif. Plus préoccupant, un LLM peut accompagner une attaque bout en bout : en reconnaissance, il suggère des outils de scan, explique leur usage discret et interprète les résultats ; en exploitation, il génère des payloads et des scripts adaptés, voire les obfusque ; en évasion, il propose des requêtes qui ne déclenchent pas d’alertes IDS si on lui fournit les règles ; en persistance, il conseille l’usage de tunnels, de canaux de commande et contrôle légers et de scripts adaptés à l’environnement. Cela élève des profils moyens au rang d’attaquants crédibles et accélère les experts. Côté défense, l’IA agrège des signaux faibles et détecte des schémas changeants sans se limiter aux signatures. La dynamique s’impose : revoir les stratégies et faire de l’IA un allié pour contrer l’IA.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    5:30

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.En savoir plus sur Michel Levy ProvençalÉlargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Silicon Carne, un peu de picante dans un monde de Tech ! ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

L'IA aujourd'hui !: Podcasts du groupe

Applications
Réseaux sociaux
v7.23.13 | © 2007-2025 radio.de GmbH
Generated: 11/22/2025 - 9:37:55 PM