Powered by RND
PodcastsTechnologiesL'IA aujourd'hui !
Écoutez L'IA aujourd'hui ! dans l'application
Écoutez L'IA aujourd'hui ! dans l'application
(48 139)(250 169)
Sauvegarde des favoris
Réveil
Minuteur

L'IA aujourd'hui !

Podcast L'IA aujourd'hui !
Michel Levy Provençal
L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artifi...

Épisodes disponibles

5 sur 89
  • L'IA aujourd'hui épisode du 2025-02-15
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : OpenAI et ses nouveaux modèles, les avancées en synthèse d'images, et les enjeux de la centralisation des données. C’est parti !Commençons par OpenAI, où Sam Altman, le PDG, a récemment partagé la feuille de route pour les modèles GPT-4.5 et GPT-5. Le modèle GPT-4.5, surnommé "Orion", sera le dernier à ne pas utiliser la "chaîne de pensée", une méthode qui permet à l'IA de simuler un processus de réflexion plus humain. Après son lancement, OpenAI se concentrera sur l'unification des modèles de la série "o" et GPT, avec l'objectif de créer des systèmes capables d'utiliser tous les outils d'OpenAI. GPT-5, qui intégrera le modèle "o3", offrira un accès illimité à un niveau d'intelligence standard pour les utilisateurs gratuits de ChatGPT, tandis que les abonnés Plus et Pro bénéficieront de niveaux d'intelligence plus élevés. Altman n'a pas précisé de date de sortie, mais cela pourrait se produire dans les semaines ou mois à venir.Passons maintenant à la synthèse d'images. NVIDIA a présenté Edify Image, une suite de modèles de diffusion basés sur les pixels, permettant une synthèse d'images haute résolution avec un contrôle et une précision exceptionnels. Contrairement aux générateurs traditionnels, Edify Image utilise un modèle de diffusion Laplacien, une approche multi-échelle qui minimise les artefacts tout en préservant les détails de haute qualité. Les résultats montrent une capacité à générer des images avec des ratios d'aspect flexibles et des améliorations en termes d'équité et de diversité. Cette avancée pourrait transformer des domaines tels que la création de contenu et la génération de données synthétiques.Enfin, abordons la proposition de Larry Ellison, président d'Oracle, qui appelle à unifier les données nationales, y compris les données génomiques, pour l'entraînement de l'IA. Cette centralisation pourrait améliorer les soins de santé en permettant des diagnostics plus précis, mais elle soulève des préoccupations quant à la surveillance de masse et à la confidentialité des données. En parallèle, l'Union européenne a annoncé un investissement de 200 milliards de dollars dans l'IA pour rivaliser avec les États-Unis et la Chine, bien que cette somme soit inférieure aux 500 milliards de dollars du projet américain Stargate.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:49
  • L'IA aujourd'hui épisode du 2025-02-14
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'essor de l'IA générative, les défis environnementaux des centres de données, et les innovations dans la création vidéo par IA. C’est parti !Commençons par l'impact fulgurant de ChatGPT, lancé le 30 novembre 2022, qui a rapidement atteint 100 millions d'utilisateurs en deux mois. Cette adoption record a marqué une accélération sans précédent dans le domaine de l'IA générative, poussant des entreprises comme Framasoft à suivre de près ces évolutions. En réponse, Framasoft a lancé FramIActu, une revue mensuelle dédiée à l'actualité de l'IA, soulignant l'importance de rester informé face à ces avancées technologiques.Passons maintenant aux préoccupations environnementales liées à l'IA. Infomaniak, une entreprise suisse, a récemment ouvert un centre de données présenté comme le plus écologique de Suisse. Cependant, la création de tels centres soulève des questions sur l'effet rebond, où les gains d'efficacité énergétique peuvent paradoxalement augmenter la consommation globale. Au Royaume-Uni, une "zone de croissance de l'IA" a été créée, mais elle met en lumière les tensions entre compétitivité technologique et durabilité, notamment en matière de ressources en eau.Dans le domaine de l'éducation, certaines écoles aux États-Unis expérimentent l'utilisation de l'IA pour remplacer les enseignants, promettant un apprentissage personnalisé. Cette approche suscite des débats sur la qualité de l'éducation et le rôle des enseignants, tout en mettant en avant les biais et l'opacité des systèmes d'IA.Adobe, de son côté, a intégré Firefly Video Generator dans sa suite Creative Cloud, permettant de transformer du texte et des images en courtes vidéos grâce à l'IA. Cet outil, accessible en version bêta publique, permet de créer des clips de 5 secondes en 1080p à 24 images par seconde. Adobe prévoit également des versions "Idéation" et 4K pour l'avenir, tout en assurant que son modèle vidéo a été entraîné uniquement sur du matériel sous licence.En parallèle, la compétition entre les États-Unis et la Chine s'intensifie avec l'émergence de modèles comme DeepSeek-V3 et DeepSeek-r1, qui défient les leaders établis tels qu'OpenAI et Google. Ces modèles ouverts et économiques signalent une nouvelle ère dans le développement de l'IA, poussant les équipes à optimiser l'efficacité et à exploiter l'open source pour l'innovation.Enfin, une étude de la BBC a révélé que les chatbots d'IA, tels que ChatGPT et Gemini, rencontrent des difficultés en matière d'exactitude lorsqu'ils résument des articles d'actualité. Plus de la moitié des résumés générés présentaient des problèmes notables, soulignant la nécessité pour les entreprises technologiques de résoudre ces inexactitudes pour éviter des dommages potentiels.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:26
  • L'IA aujourd'hui épisode du 2025-02-13
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : éducation à l'IA, protection des œuvres générées par IA, innovation en entreprise, et avancées en vidéo générative. C’est parti !Commençons par l'éducation à l'intelligence artificielle. Le podcast "Salut l'info !" organise un webinaire interactif pour sensibiliser les élèves aux enjeux de l'IA, notamment les deepfakes. Prévu pour le 20 mars 2025, cet événement vise à enseigner aux jeunes comment utiliser l'IA de manière judicieuse pour éviter les fake news. Les élèves pourront participer à un quiz et écouter Anicet Mbida, spécialiste du sujet. Ce webinaire s'inscrit dans le programme "J'apprends l'info !" qui propose des ressources pédagogiques pour développer l'esprit critique des élèves.Passons maintenant à la protection des œuvres générées par IA en Chine. Deux affaires récentes, Le Vent Printanier et Cœur à Cœur, ont reconnu la protection par le droit d'auteur pour des images créées avec des logiciels d'IA. Les tribunaux ont souligné l'importance de l'investissement intellectuel humain dans le processus créatif. Ces décisions contrastent avec la position américaine, qui refuse la protection des œuvres générées par IA, et pourraient influencer les discussions internationales sur la propriété intellectuelle.En entreprise, une transformation est en cours dans l'approche de l'innovation. Tom Godden d'AWS observe un passage d'un modèle de Centre d'Excellence à un "centre d'engagement", favorisant l'expérimentation et le partage des données. Des entreprises créent des "pods d'innovation" pour tester l'IA, et organisent des "journées de découverte des données" pour encourager la collaboration. Cette approche vise à surmonter la "paralysie de la perfection" et à promouvoir une culture de l'expérimentation.Enfin, ByteDance innove avec ses modèles Goku, capables de générer des vidéos réalistes de produits sans acteurs humains. Utilisant une architecture de transformateur avancée, Goku produit des vidéos de haute qualité à partir de descriptions textuelles. Ces modèles pourraient transformer la production de contenu publicitaire, réduisant les coûts de 99 %. ByteDance envisage d'utiliser ces outils sur TikTok, bien que des complications réglementaires soient possibles.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    2:44
  • L'IA aujourd'hui épisode du 2025-02-12
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : l'impact de l'IA sur l'art, la pensée critique, les perspectives de Yann LeCun, la détection des contenus générés par l'IA, et les enjeux politiques et écologiques de l'IA. C’est parti !Commençons par l'inquiétude croissante des photographes face à l'impact de l'intelligence artificielle sur leur art. Avec l'essor du scraping par IA, qui extrait des données protégées par des droits d'auteur pour entraîner des modèles génératifs, des outils comme Glaze et Nightshade ont été développés pour protéger les œuvres. Glaze modifie subtilement les images pour perturber la perception de l'IA, tandis que Nightshade empêche la reconnaissance du contenu. Ces outils, bien que prometteurs, laissent parfois des artefacts visibles, surtout dans les zones d'espace négatif des images.Passons maintenant à une étude menée par Microsoft et l'Université Carnegie Mellon, qui met en lumière une diminution de la pensée critique due à l'utilisation croissante de l'IA générative. En automatisant les tâches routinières, l'IA prive les utilisateurs d'occasions de renforcer leurs capacités cognitives. Les chercheurs ont constaté que plus les travailleurs faisaient confiance à l'IA, moins ils faisaient preuve de pensée critique. Ils suggèrent de développer des outils d'IA qui encouragent l'utilisateur à utiliser sa pensée critique, en fournissant des explications et des critiques guidées.Yann LeCun, responsable de l'IA chez Meta, exprime des réserves sur l'avenir de l'IA générative. Il critique la mentalité de la Silicon Valley et met en garde contre l'idée que l'intelligence artificielle générale est imminente. LeCun se concentre sur l'intelligence humaine-robotique, soulignant l'importance de comprendre l'architecture nécessaire pour développer une IA véritablement intelligente. Il critique l'approche actuelle de l'IA générative, qui repose sur des prédictions sans construire une véritable connaissance du monde.En France, la startup UncovAI développe une technologie pour détecter les contenus générés par l'IA, face à l'avalanche de textes produits par des machines. Cette technologie, qui s'appuie sur la certification des contenus via le C2PA, vise à garantir la transparence et la fiabilité des informations en ligne. UncovAI prévoit également de détecter les contenus audio et vidéo générés par l'IA, contribuant ainsi à un web plus transparent et fiable.Enfin, Framasoft, une organisation engagée dans la promotion du logiciel libre, souligne que la lutte contre l'IA ne doit pas se limiter à une opposition à la technologie elle-même. Le déploiement massif de l'IA est souvent motivé par des intérêts capitalistes, entraînant une intensification de l'extraction de ressources et une augmentation des inégalités. Framasoft appelle à une maîtrise démocratique de l'IA et à une limitation de ses usages pour privilégier les droits humains, sociaux et environnementaux.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:29
  • L'IA aujourd'hui épisode du 2025-02-11
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un modèle de langage compact, l'open source en IA, l'éducation à l'IA en France, les défis de l'IA dans le droit, et bien plus encore. C’est parti !Commençons par Simon Willison, qui a récemment lancé le plugin llm-smollm2. Ce plugin permet d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Le modèle SmolLM2-135M-Instruct, choisi pour sa taille, est intégré dans un package Python, facilitant son installation. Bien que ce modèle soit amusant à utiliser, il n'est pas très performant. Cependant, il ouvre la voie à des modèles plus grands et plus puissants de la famille SmolLM.Passons maintenant à l'open source dans le développement de l'IA. Bien que souvent perçu comme un moyen de démocratiser l'accès à la technologie, l'open source en IA est plus complexe. Les grands modèles, comme Llama 2 de Meta, sont souvent sous des licences restrictives. De plus, les ensembles de données massifs, comme Laion-5B, soulèvent des questions éthiques et légales. L'article souligne la nécessité de transparence et de responsabilité dans le développement de ces technologies.En France, le gouvernement intègre des cours sur l'IA dans les programmes scolaires. Ces cours, obligatoires pour certains niveaux, visent à éduquer sur les biais et les limites de l'IA. Dispensés via la plateforme Pix, ces modules incluent des sections sur le "prompting". La ministre de l'Éducation, Élisabeth Borne, insiste sur l'importance de former les élèves à l'IA générative, promouvant un usage éthique de cette technologie.Dans le domaine du droit, l'IA générative, comme ChatGPT, montre des limites. Des mémoires basés sur des affaires inventées ont conduit à des sanctions pour les avocats. Une nouvelle fonctionnalité de "recherche approfondie" de ChatGPT, bien qu'impressionnante, nécessite une supervision humaine pour garantir l'exactitude des informations fournies.Sam Altman, PDG d'OpenAI, évoque les limites des modèles de langage de grande taille. OpenAI explore des modèles spécialisés optimisés par l'apprentissage par renforcement, appelés "grands modèles de raisonnement". Ces modèles offrent un gain d'efficacité de calcul, mais ne s'améliorent pas dans tous les domaines. Altman réitère l'intention d'OpenAI de revenir à des pratiques open-source.Google teste un "mode IA" pour son moteur de recherche, visant à fournir des réponses plus contextuelles. Cette innovation pourrait transformer le SEO, en privilégiant les réponses générées par l'IA. Sundar Pichai, PDG de Google, annonce des changements profonds d'ici 2025, en réponse à la montée des moteurs de recherche basés sur l'IA.Enfin, une étude de l'Université de New York révèle que seulement 0,001 % d'informations médicales erronées peuvent compromettre un modèle d'IA. Le "data poisoning" peut amener le modèle à produire des résultats dangereux. Les chercheurs ont développé un système de vérification pour détecter le contenu nocif, mais soulignent la nécessité d'essais cliniques pour valider les systèmes d'IA médicale.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    3:35

Plus de podcasts Technologies

À propos de L'IA aujourd'hui !

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez L'IA aujourd'hui !, Choses à Savoir TECH ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités
Applications
Réseaux sociaux
v7.7.0 | © 2007-2025 radio.de GmbH
Generated: 2/15/2025 - 6:41:14 AM