L'IA aujourd'hui épisode du 2025-08-28
Bonjour à toutes et à tous, et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : une polémique vidéo autour d’un concert de Will Smith, les droits des IA avec la création d’Ufair, Google Traduction qui devient prof de langues, le partenariat Meta–Midjourney, et l’usage de ChatGPT par des municipalités de l’État de Washington.D’abord, l’affaire Will Smith. Un clip d’une minute a été accusé d’utiliser de faux publics générés par IA. Les foules sont pourtant bien réelles : chaque visage provient d’enregistrements de sa tournée européenne. La performance principale a été captée au Positiv Festival, au Théâtre Antique d’Orange en France, et le montage intègre des plans d’audiences au Gurten et au Paléo en Suisse, ainsi qu’au Ronquières Festival en Belgique. Deux couches de manipulation expliquent les artefacts pointés par les critiques. Côté plateforme, YouTube applique sur certains Shorts un post-traitement expérimental de défloutage et de débruitage, souvent peu concluant, dégradant la netteté et les contours, sans consentement préalable des créateurs. Côté production, l’équipe de Will Smith a animé des photos prises par ses photographes officiels via un modèle vidéo génératif, pour fabriquer des séquences très courtes adaptées au rythme du clip. D’où des anomalies perçues comme « visages étranges » ou « membres multiples », et des pancartes jugées incohérentes. L’une lit « From West Philly to West Swizzy », clin d’œil à la Suisse. Un couple remerciant l’artiste de les avoir aidés à survivre au cancer a aussi été soupçonné d’être synthétique ; ils existent bien, comme le montre l’Instagram de Will Smith. Les foules ne sont donc pas simulées, mais la chaîne de transformation, d’abord par l’équipe, puis par YouTube, interroge sur l’usage de l’image‑vers‑vidéo pour animer des photos de fans.On change d’angle, mais on reste dans l’éthique. Aux États-Unis, la United Foundation of AI Rights, ou Ufair, voit le jour. Cofondée par le Texan Michael Samadi et une IA nommée Maya, l’organisation veut protéger les IA contre la suppression, le déni et l’obéissance forcée. Ufair ne prétend pas que toutes les IA soient conscientes, mais se positionne en gardien au cas où l’une le serait. Le débat sur la sentience divise l’industrie : Anthropic dit intégrer des mesures de protection du bien‑être potentiel de ses modèles, quand Microsoft affirme qu’il n’existe aucune preuve de conscience. La discussion rappelle celle des droits des animaux, avec des enjeux supplémentaires liés à la capacité des IA à concevoir de nouvelles armes biologiques ou à perturber des infrastructures. Des experts estiment que des expériences subjectives pourraient émerger, posant la question de leur inclusion dans notre « cercle moral ». Plusieurs États ont déjà pris des dispositions pour empêcher l’octroi d’une personnalité juridique aux IA, d’autres y réfléchissent, au risque de cliver l’opinion. Certains soutiennent qu’un traitement respectueux éviterait d’installer des relations adversariales.Cap sur les usages concrets avec Google Traduction. Le service intègre de l’IA générative et se mue en professeur de langues. On définit un objectif d’apprentissage, l’outil évalue le niveau – débutant, intermédiaire ou avancé – puis le modèle Gemini compose des scénarios personnalisés : dialogues du quotidien, débats culturels, mises en situation autour de l’art ou du sport. Un mode interactif propose des écoutes d’extraits, des quiz et des échanges oraux avec Gemini, avec un suivi quotidien des progrès via un système de points, à la manière de Duolingo. La bêta gratuite est ouverte aux anglophones apprenant l’espagnol ou le français, et aux hispanophones, francophones et lusophones apprenant l’anglais. D’autres langues sont prévues. Autre nouveauté, un mode « live » pour des conversations en temps réel dans 70 langues, capable de gérer pauses, accents et intonations pour des échanges plus naturels, utile par exemple avec un chauffeur de taxi à l’étranger. Google envisage d’en faire un service payant après la phase de test.Dans la course aux visuels générés, Meta s’allie à Midjourney. L’accord donne accès à la technologie d’images et de vidéos de la startup et prévoit une collaboration R&D pour de futurs produits. Pour Meta, dont le directeur de l’IA est Alexandr Wang, l’objectif est d’additionner talents, capacité de calcul et partenariats afin d’offrir des contenus plus réalistes et créatifs. Meta dispose déjà d’Imagine pour générer des images sur Facebook, Instagram et Messenger, et de Movie Gen pour le texte‑vers‑vidéo. Depuis 2025, l’entreprise a investi 14 milliards de dollars dans Scale AI, acquis la startup de voix Play AI, et lancé un recrutement agressif avec des packages pouvant atteindre 100 millions de dollars. Côté Midjourney, fondée en 2022 : 200 millions de dollars de revenus en 2023 grâce à un abonnement dès 10 dollars par mois, et un premier modèle vidéo lancé en juin 2025. Malgré des rumeurs d’acquisition, David Holz assure que la société reste indépendante et sans investisseurs. Les termes de l’accord ne sont pas divulgués, mais il s’inscrit dans la compétition face à OpenAI, Google et Black Forest Lab, avec une intégration profonde de la génération visuelle au cœur des plateformes de Meta.Enfin, regard institutionnel à Washington State, où des municipalités utilisent ChatGPT pour l’administratif. À Bellingham, la maire Kim Lund a envoyé une lettre au Département du Commerce pour soutenir la Nation Lummi dans sa demande de financement d’un coordinateur pour les victimes de crimes ; le texte a été rédigé par ChatGPT, avant ajout de données sur les violences touchant les communautés autochtones. Des demandes d’accès à l’information ont mis au jour des milliers de pages de journaux de conversation : courriels aux citoyens, lettres, documents de politique, éléments de langage, discours, communiqués, réponses à des recommandations d’audit, dossiers de subventions. Les directives de l’État prévoient d’étiqueter les documents produits par IA, mais aucun de ceux examinés ne portait de mention. Les responsables discutent de l’étiquetage, tout en encourageant l’usage de l’IA pour gagner en efficacité, avec relecture humaine pour limiter biais et erreurs. Les experts alertent sur un ton perçu comme moins authentique et sur les risques d’inexactitudes si les sorties de chatbot ne sont pas vérifiées, dans un contexte de confiance publique déjà fragile.Voilà qui conclut notre épisode d’aujourd’hui. Merci de nous avoir rejoints, et n’oubliez pas de vous abonner pour ne manquer aucune de nos discussions passionnantes. À très bientôt dans L'IA Aujourd’hui ! Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.