Powered by RND
PodcastsÉducationLe Futurologue Podcast

Le Futurologue Podcast

Le Futurologue
Le Futurologue Podcast
Dernier épisode

Épisodes disponibles

5 sur 105
  • Expert de la conscience : "ChatGPT est peut-être déjà conscient."
    👉 Le livre et le podcast de Victor, ainsi que les sources de l’épisode——💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, Facebook, Instagram, TikTok, LinkedIn, X, Threads, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEVictor Duran-Le Peuch a étudié la philosophie à la Sorbonne et à l’Université de York avant de s’engager dans la lutte contre la souffrance animale. Il est le créateur du podcast Comme un poisson dans l’eau, aujourd’hui le plus grand podcast francophone consacré à cette thématique. Plus récemment, il est également devenu auteur avec la parution de son ouvrage En finir avec les idées fausses sur l’antispécisme.———TIME CODE0:00 Introduction1:11 Les IA sont-elles déjà conscientes ?36:26 Les implications des IA conscientes45:47 Faut-il être vivant pour être conscient ?56:29 Faut-il être incarné pour être conscient ?58:23 Comment savoir si les IA sont conscientes ?1:01:50 Les différences entre la conscience humaine et artificielle1:05:53 Les IA conscientes seraient-elles plus dangereuses ?1:10:53 Les IA sont-elles conscientes d’elles-mêmes ?1:18:38 La prise de conscience de ces dangers1:20:52 Les IA qui traduisent les animaux1:22:29 Le suprémacisme humain1:24:36 Quelles sont les solutions ?1:26:06 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:27:51
  • Expert mondial de l’IA : "Vous n’avez aucune idée de ce qui arrive."
    💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODENicolas Miailhe est le fondateur de The Future Society, groupe de réflexion qu’il a dirigé de 2014 à 2023 et qui s’est imposé comme une référence mondiale en matière de régulation de l’intelligence artificielle. Plus récemment, il a cofondé et dirige PRISM Eval, une startup parisienne spécialisée dans la détection des vulnérabilités des IA de pointe. Reconnu comme l’un des pionniers de l’encadrement de l’IA, il a été nommé au Global Partnership on AI, siège au groupe d’experts en IA de l’OCDE ainsi qu’au groupe de haut niveau de l’UNESCO sur l’éthique de l’IA. Diplômé d’un master en administration publique de Harvard, il enseigne à Sciences Po Paris, donne régulièrement des conférences à travers le monde et conseille gouvernements, organisations internationales, fondations philanthropiques et multinationales.———TIME CODE0:00 Introduction1:35 Vers une pause de l’IA ?7:23 Les plus grands risques de l’IA18:53 La géopolitique de l’IA24:51 La régulation contre l’innovation29:20 Un développement antidémocratique32:20 La Chine face à l’IA42:17 L’Inde face à l’IA51:34 Les Émirats arabes unis face à l’IA57:51 La coopération internationale1:04:33 L’IA face à nos institutions1:09:44 La bulle de l’IA1:14:53 Les solutions1:20:04 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:22:50
  • Ex ingénieure Google : "On est en train de créer des IA vivantes."
    💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODEJennifer Prendki est docteure en physique des particules et a dirigé le département data de Google DeepMind. Depuis vingt ans, elle se situe à l’avant-garde de la recherche et de la technologie. Experte reconnue, elle a conseillé plus de 170 entreprises dans l’élaboration de leurs stratégies technologiques. Elle est également la fondatrice de Quantum of Data, une société de recherche et de conseil qui explore l’intersection entre intelligence artificielle et ordinateurs quantiques, ainsi que les questions liées à l'apparition de la conscience dans les IA.———TIME CODE0:00 Introduction1:05 Vers des IA vivantes ?9:28 Vers des IA conscientes ?34:23 Les relations avec les IA45:13 L’IA et l’ordinateur quantique 1:01:58 Pourquoi avoir quitté Google ?1:18:04 Garder l’IA surhumaine sous contrôle1:27:01 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:28:35
  • Les experts en IA avertissent : "L’IA pourrait détruire le monde !"
    🗣️ La déclaration💬 Discord du Centre pour la Sécurité de l’IA✉️ Contacter vos représentants💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODECharbel-Raphaël Segerie est ingénieur, chercheur et enseignant en intelligence artificielle. Il est expert IA auprès de l’OCDE et dirige le Centre pour la Sécurité de l’IA. Dans cet épisode, il explique pourquoi il a lancé un appel mondial à la mise en place de lignes rouges internationales afin de prévenir les risques inacceptables liés à l'IA. ———TIME CODE0:00 Introduction1:10 La déclaration et ses signataires6:44 Pourquoi avoir écrit cette déclaration ?11:33 Les progrès rapides de l’IA18:37 Les plus gros risques de l’IA25:44 Les comportements inquiétants des IA34:55 Les risques d’extinction de l’IA42:15 Combien de temps nous reste-il ?47:07 Pourquoi 2026 ?48:34 Que sont les lignes rouges ?51:13 Pourquoi des lignes rouges ?54:51 Les lignes rouges vs l’innovation57:42 Les difficultés géopolitiques59:05 Le risque des pays malveillants1:01:41 Le défi de l’opérationnalisation1:07:27 Quelles sont les prochaines étapes ?1:10:33 Quelques anecdotes1:13:38 Vivre en ayant conscience de ces risques1:17:04 Que faire à titre individuel ?1:19:42 Message à l’humanité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:20:24
  • Est-on sur le point de perdre le contrôle de l’IA ? - Débat d’experts
    💸 Soutenez-moi financièrement sur Tipeee, Patreon, PayPal———🌐 Rejoignez-moi sur YouTube, Discord, TikTok, Instagram, Facebook, X, Threads, LinkedIn, Bluesky, Mastodon———AGIR POUR LA SÉCURITÉ DE L’IAS’informerFaire un donDevenir bénévoleRepenser votre carrière———MES RECOMMANDATIONSMes livres préférés sur l’IATous les livres que j’ai lusMon matériel high-tech———DESCRIPTION DE L’ÉPISODE-> Jean-Gabriel Ganascia est ingénieur, philosophe, professeur d’informatique à Sorbonne Université et auteur d’une dizaine d’ouvrages sur l’intelligence artificielle. Dans son livre le plus connu, Le Mythe de la Singularité : Faut-il craindre l’intelligence artificielle ?, il défend l’idée que le scénario d’une IA surpassant l’intelligence humaine et s’auto-améliorant jusqu’à devenir incontrôlable relève davantage du mythe contemporain que d’une perspective scientifique réaliste.-> Flavien Chervet est écrivain, conférencier, prospectiviste et auteur de plusieurs ouvrages sur l’intelligence artificielle. Dans son dernier livre, Hyperarme : Anatomie d’une intranquillité planétaire, il alerte sur la possibilité qu’une superintelligence artificielle, plus puissante que l’ensemble de l’humanité, émerge dans les cinq prochaines années et constitue une menace existentielle. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    --------  
    1:34:59

Plus de podcasts Éducation

À propos de Le Futurologue Podcast

J’analyse les risques de l’IA. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
Site web du podcast

Écoutez Le Futurologue Podcast, Miracle Fajr Podcast ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités
Applications
Réseaux sociaux
v7.23.9 | © 2007-2025 radio.de GmbH
Generated: 10/21/2025 - 1:12:04 AM