L'IA aujourd'hui épisode du 2025-02-11
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page ! Aujourd’hui : un modèle de langage compact, l'open source en IA, l'éducation à l'IA en France, les défis de l'IA dans le droit, et bien plus encore. C’est parti !Commençons par Simon Willison, qui a récemment lancé le plugin llm-smollm2. Ce plugin permet d'installer un modèle de langage de grande taille via pip, tout en restant sous la barre des 100 Mo. Le modèle SmolLM2-135M-Instruct, choisi pour sa taille, est intégré dans un package Python, facilitant son installation. Bien que ce modèle soit amusant à utiliser, il n'est pas très performant. Cependant, il ouvre la voie à des modèles plus grands et plus puissants de la famille SmolLM.Passons maintenant à l'open source dans le développement de l'IA. Bien que souvent perçu comme un moyen de démocratiser l'accès à la technologie, l'open source en IA est plus complexe. Les grands modèles, comme Llama 2 de Meta, sont souvent sous des licences restrictives. De plus, les ensembles de données massifs, comme Laion-5B, soulèvent des questions éthiques et légales. L'article souligne la nécessité de transparence et de responsabilité dans le développement de ces technologies.En France, le gouvernement intègre des cours sur l'IA dans les programmes scolaires. Ces cours, obligatoires pour certains niveaux, visent à éduquer sur les biais et les limites de l'IA. Dispensés via la plateforme Pix, ces modules incluent des sections sur le "prompting". La ministre de l'Éducation, Élisabeth Borne, insiste sur l'importance de former les élèves à l'IA générative, promouvant un usage éthique de cette technologie.Dans le domaine du droit, l'IA générative, comme ChatGPT, montre des limites. Des mémoires basés sur des affaires inventées ont conduit à des sanctions pour les avocats. Une nouvelle fonctionnalité de "recherche approfondie" de ChatGPT, bien qu'impressionnante, nécessite une supervision humaine pour garantir l'exactitude des informations fournies.Sam Altman, PDG d'OpenAI, évoque les limites des modèles de langage de grande taille. OpenAI explore des modèles spécialisés optimisés par l'apprentissage par renforcement, appelés "grands modèles de raisonnement". Ces modèles offrent un gain d'efficacité de calcul, mais ne s'améliorent pas dans tous les domaines. Altman réitère l'intention d'OpenAI de revenir à des pratiques open-source.Google teste un "mode IA" pour son moteur de recherche, visant à fournir des réponses plus contextuelles. Cette innovation pourrait transformer le SEO, en privilégiant les réponses générées par l'IA. Sundar Pichai, PDG de Google, annonce des changements profonds d'ici 2025, en réponse à la montée des moteurs de recherche basés sur l'IA.Enfin, une étude de l'Université de New York révèle que seulement 0,001 % d'informations médicales erronées peuvent compromettre un modèle d'IA. Le "data poisoning" peut amener le modèle à produire des résultats dangereux. Les chercheurs ont développé un système de vérification pour détecter le contenu nocif, mais soulignent la nécessité d'essais cliniques pour valider les systèmes d'IA médicale.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.