Powered by RND
PodcastsTechnologiesPolySécure Podcast volet H'umain

PolySécure Podcast volet H'umain

Nicolas-Loïc Fortin et tous les collaborateurs
PolySécure Podcast volet H'umain
Dernier épisode

Épisodes disponibles

5 sur 52
  • H'umain - Ingénierie sociale et IA - Une menace ou un atout pour la défense ? - Parce que... c'est l'épisode 0x592!
    Parce que… c’est l’épisode 0x592! Shameless plug 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Introduction et présentation Ce podcast présente une collaboration spéciale entre Nicolas et Philippe Chevalier, cofondateur avec sa femme Bonnie de l’agence de cyberenquête Sarx, une agence canadienne de détective privé spécialisée dans les investigations en ligne. Philippe prend soin de distinguer son travail des clichés véhiculés par les films noirs et séries télévisées, où les détectives privés sont souvent dépeints comme des alcooliques dépressifs roulant dans de vieilles voitures. Au contraire, il se présente comme un “détective corporatif” ou “détective d’affaires” qui utilise principalement des méthodes de cyberenquête pour servir les entreprises, banques, avocats, notaires, assureurs et investisseurs ayant des motifs légitimes d’enquête. L’évolution de la cybercriminalité moderne L’agence travaille notamment sur les fraudes impliquant des cryptoactifs, mais leur spécialité reste la cyberenquête. Philippe explique que pour combattre efficacement les cyberattaquants, il faut les comprendre, s’intéresser à leur mentalité et leur culture. C’est pourquoi son équipe maintient une présence sous pseudonymes sur des forums spécialisés depuis plusieurs années, développant une crédibilité qui leur permet d’observer et comprendre ces milieux. Cas d’étude : Le jeune cybercriminel du Monténégro Philippe relate l’histoire fascinante de Darian, un jeune cybercriminel du Monténégro qui illustre parfaitement l’organisation moderne de la cybercriminalité. Ce jeune homme travaille dans ce qui était autrefois des cybercafés, transformés aujourd’hui en véritables bureaux de “hackers à loué” - des agences de cybercriminels mercenaires. Ces établissements affichent ouvertement leurs services avec des panneaux en bois, situés ironiquement à seulement 400 mètres du quartier général de la police locale, démontrant une tolérance inquiétante de ces activités dans certains pays. Darian reçoit quotidiennement des listes de cibles à attaquer, incluant des PME québécoises qu’il ne saurait même pas localiser sur une carte. Sa méthode de travail est structurée : il dispose de 20 à 30 minutes maximum pour tenter une attaque par force brute contre chaque cible. S’il évalue que l’attaque peut réussir dans ce délai, il poursuit ; sinon, il passe à la cible suivante pour maintenir sa productivité. Si l’attaque technique montre des signes de succès, il peut alors déployer des techniques d’ingénierie sociale après un délai de 15 à 20 minutes. L’outil Vénus et les techniques d’intimidation L’outil principal utilisé par Darian est un logiciel de cyberespionnage appelé Vénus, relativement ancien et peu performant, mais désormais quasi-gratuit. Sa force réside dans sa capacité à faire croire à la victime que ses systèmes ont été complètement compromis et que toutes ses données sont en cours de décryptage. Vénus peut capturer des données cryptées et produire des captures d’écran que le pirate présente comme “preuve” de son intrusion réussie, créant un effet d’intimidation psychologique puissant. La stratégie de fraude à l’assurance L’aspect le plus pervers de cette histoire révèle une connaissance approfondie du marché local. Darian possédait des informations sur les contrats de cyberassurance des PME québécoises, notamment les deux principaux fournisseurs. Lorsqu’il a réussi à compromettre une ONG québécoise, il a proposé un marché particulièrement vicieux : sachant que l’organisation avait une assurance couvrant 50 000 dollars en cas de cyberattaque, il a offert de “collaborer” pour démontrer l’attaque en échange de seulement 8 000 dollars, permettant à la victime de récupérer la prime d’assurance. Cette stratégie diabolique transforme la victime en complice d’une fraude aux assurances. Si l’organisation acceptait cette proposition, elle devenait automatiquement coupable de fraude et ne pouvait plus faire machine arrière, car le cybercriminel détenait des preuves matérielles de sa volonté de frauder sa compagnie d’assurance. Cette compromission garantissait le paiement des 8 000 dollars réclamés. Le facteur humain : 99% de la réussite des attaques Philippe insiste sur un point crucial : contrairement à la perception populaire, 99% des cyberattaques réussissent grâce au facteur humain plutôt qu’à la technologie. Leurs tests de pénétration confirment cette réalité : tandis que les attaques par force brute échouent de plus en plus souvent grâce à l’amélioration des défenses techniques, le taux de réussite des attaques par ingénierie sociale continue d’augmenter. Cette situation s’explique par les investissements considérables réalisés dans la sécurité technique au cours des dernières années, rendant les systèmes relativement robustes. Cependant, l’élément humain a été négligé dans cette course à la sécurisation. Philippe utilise une métaphore éclairante : même avec une porte blindée très résistante, si la clé reste cachée sous le paillasson, l’attaquant n’essaiera pas de forcer la serrure mais cherchera simplement la clé. L’évolution des techniques d’approche Les cybercriminels modernes ont abandonné l’approche “brute force” consistant à envoyer massivement des courriels malveillants en espérant qu’une victime mordra à l’hameçon. Ils privilégient désormais une approche plus sophistiquée basée sur l’établissement de confiance progressive. Philippe explique qu’ils envoient d’abord deux ou trois courriels légitimes sans contenu malveillant, engageant une conversation normale avec leur cible. Cette stratégie permet de contourner les systèmes de défense automatisés qui, reconnaissant l’expéditeur comme “familier” lors du quatrième courriel, baissent leur garde et laissent passer la pièce jointe piégée. Cas pratique : L’attaque contre le cabinet d’avocats Philippe illustre cette évolution avec un test de pénétration réalisé pour un cabinet d’avocats. Après avoir analysé minutieusement le profil d’un avocat prestigieux - ses formations, ses professeurs à l’université, ses prises de position idéologiques publiques, ses domaines d’expertise - il a conçu un courriel de trois paragraphes seulement. Ce message ne contenait pas de flatterie grossière, mais utilisait le vocabulaire spécifique et les références intellectuelles de la cible, présentant un cas urgent mais plausible de harcèlement au travail dans une grande entreprise. L’avocat, pourtant informé qu’un test de pénétration aurait lieu cette semaine-là, a ouvert la pièce jointe piégée sans même remarquer l’alerte de sécurité demandant d’autoriser les macros. Interrogé après coup, il n’avait aucun souvenir de ce message d’alerte, tellement le contenu du courriel l’intriguait et correspondait à ses préoccupations professionnelles. L’exploitation des réseaux sociaux professionnels LinkedIn représente un terrain de jeu particulièrement fertile pour les cybercriminels. Cette plateforme combine les aspects d’un réseau social traditionnel avec des informations professionnelles détaillées, permettant aux attaquants de collecter facilement les opinions idéologiques, les positions économiques et politiques des cibles. Ces informations permettent de créer une fausse complicité, une connivence artificielle qui facilite l’approche. Les petits groupes de cybercriminels gèrent désormais entre 800 et 1000 faux profils simultanément. Pour rendre ces profils crédibles, ils utilisent une technique particulièrement efficace : si un faux profil prétend être ingénieur chez Hydro-Québec, ils sollicitent des connexions avec de vrais employés de l’entreprise travaillant dans d’autres départements. Par esprit d’entreprise ou simple politesse professionnelle, ces employés acceptent souvent ces demandes de connexion, donnant une crédibilité immédiate au faux profil. L’intelligence artificielle au service du crime L’utilisation de l’intelligence artificielle permet désormais de créer des commentaires sophistiqués et personnalisés sur les publications des cibles. Philippe observe avec inquiétude que LinkedIn devient parfois un théâtre où des IA dialoguent entre elles : publications générées par IA, commentaires automatisés, réponses robotisées, créant un écosystème artificiel difficile à distinguer de interactions humaines authentiques. Une fois le contact établi, les criminels envoient des messages privés soigneusement conçus qui félicitent leurs cibles pour la pertinence de leurs publications. Ces messages flattent l’ego des victimes, particulièrement lorsqu’ils semblent provenir de profils séduisants et impressionnants - des diplômés brillants ayant travaillé en Allemagne dans la recherche, par exemple. Le piège de la messagerie privée La messagerie LinkedIn présente une vulnérabilité particulière car les utilisateurs ont l’illusion d’être dans un environnement sécurisé. En réalité, cette messagerie ne dispose d’aucune protection contre les pièces jointes malveillantes ou les liens piégés vers de fausses vidéoconférences Zoom ou Teams. Les utilisateurs, croyant être “entre eux”, baissent leur garde de façon dramatique. L’acronyme MICE : les leviers de manipulation Philippe introduit l’acronyme MICE (Monnaie, Idéologie, Compromission, Ego) pour expliquer les différents leviers utilisés par les cybercriminels. La compromission représente un aspect particulièrement préoccupant, notamment le chantage de nature sexuelle visant les professeurs d’université et chercheurs. Lorsque ces derniers cliquent sur un lien vers une supposée vidéoconférence professionnelle, ils se retrouvent dans des situations compromettantes qui deviennent des outils de chantage particulièrement destructeurs dans le milieu académique. La valeur marchande des données personnelles Les données personnelles volées constituent une véritable monnaie parallèle dans l’économie criminelle. Un paquet de 300 données de citoyens canadiens ne vaut pratiquement rien individuellement, mais 3000 données peuvent atteindre 50 dollars. Plus important encore, ces données servent de “jetons de prestige” permettant d’accéder à des groupes de cybercriminels de niveau supérieur. Détenir 300 000 données personnelles européennes devient une preuve de compétence et de valeur dans cette hiérarchie criminelle. La manipulation psychologique des jeunes criminels Philippe révèle un aspect troublant de ces organisations : elles manipulent leurs propres employés en leur injectant l’idée que leurs cibles ne sont pas des victimes mais des “clients”. Cette propagande interne vise à réduire les barrières morales en convainquant ces jeunes qu’ils sont des champions intelligents qui s’occupent de clients plutôt que de commettre des délits. Cette déshumanisation des victimes facilite la perpétration des crimes. L’espoir de rédemption Malgré ce tableau sombre, Philippe termine sur une note d’espoir en expliquant que cette mentalité criminelle reste réversible. Il raconte l’histoire de son meilleur cyberenquêteur, un ancien “white hat” qui a basculé du bon côté de la force au lycée lorsqu’une amie s’est fait harceler en ligne. En utilisant ses compétences techniques pour aider cette victime, tracer son harceleur et monter un dossier pour la police, ce jeune a découvert l’utilisation positive de ses talents. Conclusion : l’importance du contexte social Cette histoire illustre parfaitement comment l’orientation éthique de ces jeunes talents dépend largement du contexte social et des incitations qu’ils rencontrent. La société peut choisir de diaboliser le terme “hacker” et pousser ces esprits curieux vers la criminalité, ou au contraire reconnaître leur curiosité comme une qualité précieuse et les orienter vers des applications positives comme la cybersécurité éthique. Philippe conclut en soulignant que la lutte contre la cybercriminalité ne se gagne pas seulement par la technologie, mais par la compréhension des facteurs humains et sociaux qui poussent certains individus vers le crime numérique. L’éducation, la sensibilisation et l’offre d’alternatives positives restent nos meilleures armes contre ces menaces en constante évolution. Notes ASIMM Collaborateurs Nicolas-Loïc Fortin Philippe Chevalier Crédits Montage par Intrasecure inc Locaux réels par Cybereco
    --------  
    40:12
  • SéQCure/H'main - Vous avez dit IA? Et si nous parlions plutôt d'IH? - Récit d'une ex-CPO - Parce que... c'est l'épisode 0x583!
    Parce que… c’est l’épisode 0x583! Shameless plug 10 au 18 mai 2025 - NorthSec 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Dans cet épisode, Nicolas et Vanessa Deschênes discutent de l’importance de la dimension humaine dans le domaine de la cybersécurité, en revenant sur la conférence donnée par Vanessa. L’humain : le maillon le plus complexe, pas le plus faible Vanessa commence par remettre en question la vision répandue de l’humain comme “le maillon le plus faible” en cybersécurité. Elle préfère parler de l’humain comme “le maillon le plus complexe”, soulignant que cette complexité se retrouve dans son mode de fonctionnement, sa pensée et ses perceptions. Dans les domaines techniques, cette dimension humaine est souvent négligée, alors qu’elle est fondamentale pour éviter les conflits de perception. De la confrontation à la collaboration Les deux intervenants partagent leurs expériences personnelles similaires : au début de leur carrière, ils adoptaient une posture de confrontation, cherchant à démontrer leur expertise technique et à “gagner” face à leurs interlocuteurs. Vanessa raconte une anecdote concernant des débats sur la définition du “renseignement personnel”, où elle considérait que les autres étaient “incompétents”. Elle a réalisé plus tard que le problème venait du fait que chacun parlait un langage différent, utilisant l’analogie du chiffre 6 ou 9 selon l’angle de vue. Cette prise de conscience a transformé son approche, l’amenant à poser plus de questions pour comprendre l’autre, plutôt que de dépenser de l’énergie à le convaincre. Nicolas confirme avoir vécu le même parcours, passant d’une position rigide et technique à une approche plus collaborative, comprenant que l’objectif n’est pas de “gagner” mais de “construire ensemble”. Les “power skills” plutôt que les “soft skills” Les intervenants discutent de la terminologie : ce qu’on appelle “soft skills” (compétences douces) est désormais plutôt qualifié de “power skills” (compétences de puissance) par les experts. Ces compétences humaines ne sont pas “molles” mais complexes et difficiles à maîtriser, parfois plus que les compétences techniques. Elles permettent d’améliorer considérablement l’efficacité professionnelle en facilitant les interactions. L’importance du storytelling et des émotions Un aspect important abordé est le storytelling comme outil de communication efficace. Plutôt que d’assener des faits et des chiffres froids, raconter une histoire qui touche émotionnellement l’interlocuteur permet une meilleure mémorisation et adhésion. Les études montrent que l’émotion est ce qui ancre l’information dans la mémoire. Nicolas souligne comment son style de communication a évolué d’un mode très factuel à une approche plus narrative, où les chiffres viennent en appui d’une histoire plutôt que l’inverse. Cette approche permet d’adapter son vocabulaire au contexte de l’interlocuteur et de créer des ponts entre différents domaines d’expertise. La peur comme levier d’influence, mais à manier avec précaution Vanessa explique que la peur peut être un levier d’influence puissant, car l’humain est plus sensible à l’idée de perdre quelque chose qu’à celle de gagner. Cependant, elle met en garde contre un usage excessif qui pourrait paralyser la prise de décision en générant trop de stress. Il faut trouver un juste milieu pour être efficace sans être contre-productif. La curiosité comme point de départ En conclusion, Vanessa recommande de partir de la curiosité, qualité répandue chez les professionnels de la cybersécurité. Utiliser cette curiosité pour comprendre le point de vue de l’autre permet de réduire l’écart entre les personnes et de maintenir une posture d’ouverture plutôt que de défense. Cette approche favorise la collaboration et l’enrichissement mutuel plutôt que la confrontation. Cette conversation illustre l’évolution de professionnels techniques vers une approche plus humaine et collaborative, démontrant que la maîtrise des compétences relationnelles peut être aussi cruciale que l’expertise technique dans les domaines de la cybersécurité et de la conformité. Notes Vanessa Deschênes Collaborateurs Nicolas-Loïc Fortin Vanessa Deschênes Crédits Montage par Intrasecure inc Locaux virtuels par Riverside.fm
    --------  
    26:12
  • H'umain - Santé - Préparer l’avenir des soins - Parce que... c'est l'épisode 0x580!
    Parce que… c’est l’épisode 0x580! Shameless plug 24 avril 2025 - Cyberchill #4 10 au 18 mai 2025 - NorthSec 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Ce podcast a réuni plusieurs experts pour discuter de l’intelligence artificielle (IA) dans le domaine de la santé lors de la troisième journée de l’événement Humako. Les participants étaient Gregory Alexander (doctorant en études de cinéma), Marie Arminio (doctorante en psychologie), Audrey Vermeulen (doctorante en philosophie), Tamari Gamkrelidz (psychologue du travail et docteure en ergonomie), et Hélène (médecin chercheur et ergonome). L’IA entre fantasme et réalité La discussion s’ouvre sur le constat d’une certaine idéalisation de l’IA dans la science-fiction, où elle est souvent présentée comme pouvant remplacer l’humain. Tamari Gamkrelidz souligne que ce discours, très présent dans les débats autour de l’IA vers 2019, est rapidement déconstruit par les professionnels de terrain qui considèrent l’IA comme “un outil parmi d’autres”. Marie évoque une étude montrant qu’à partir de 2020, le discours a évolué vers une approche où l’IA s’adapte à l’humain plutôt que l’inverse. Audrey Vermeulen suggère que nous sommes en train de dépasser le fantasme pour confronter l’IA à la réalité du travail. Gregory Alexander rappelle que les films de science-fiction alimentent souvent nos peurs face aux nouvelles technologies, alors que dans la pratique, l’IA reste un outil qui peut nous aider si elle est bien utilisée. L’histoire se répète Tamari rappelle que les fantasmes d’automatisation et de remplacement ont toujours existé face aux innovations technologiques. Elle évoque l’exemple des systèmes experts des années 1980 qui promettaient déjà de résoudre tous les problèmes, avant de connaître un “hiver de l’IA” quand les promesses n’ont pas été tenues. Un participant fait remarquer avec humour que le système expert le plus répandu aujourd’hui est Excel, qui n’a pas remplacé les humains mais a plutôt “pollué les organisations avec des chiffres”. Impact sur la pratique médicale Hélène évoque comment la simulation médicale, encouragée par la Haute Autorité de Santé depuis 2012, a évolué grâce aux nouvelles technologies. Elle souligne la dualité de ces outils : ils peuvent améliorer les performances des professionnels mais risquent aussi de devenir une limite s’ils ne sont pas utilisés à bon escient. La discussion aborde un système de détection de fractures, décrit comme un “filet de sécurité” pour les médecins fatigués ou stressés, mais qui comporte aussi un risque de “fausse assurance”. Les participants comparent cette situation aux pilotes automatiques dans l’aviation, où l’humain doit reprendre la main en cas d’urgence, soulevant la question de la capacité à intervenir quand on n’est plus “dans la boucle”. Transformation du travail en équipe Un aspect crucial abordé est l’impact de l’IA sur le travail collectif en santé. Hélène mentionne l’exemple d’un casque de réalité augmentée qui, bien que technologiquement avancé, perturbe la relation directe avec le patient et la communication non verbale entre membres de l’équipe soignante. Tamari évoque le cas des manipulateurs radio dont le métier est menacé de fragmentation : si un système prend en charge la partie technique de leur travail, il ne leur reste que la partie “soin”, qui pourrait être confiée à des aides-soignants moins qualifiés. Les participants évoquent également la disparition du rôle des secrétaires médicales dans la relecture des comptes-rendus, remplacées par des systèmes de reconnaissance vocale. Cette évolution affecte non seulement la qualité des documents (les secrétaires pouvaient détecter certaines erreurs) mais aussi l’accompagnement humain des patients, les secrétaires ayant une connaissance de leur situation qui favorisait une relation plus humaine. Éducation et maintenance des compétences Face à la dépendance croissante aux technologies, les participants s’inquiètent de la perte de compétences fondamentales. Hélène prend l’exemple des calculs de doses médicamenteuses : si les soignants perdent cette capacité au profit d’un outil automatisé, comment pourront-ils détecter une erreur du système? Elle rappelle également l’importance de maintenir des compétences “à l’ancienne” pour assurer la résilience en cas de défaillance technique (panne d’électricité, piratage informatique). Gregory mentionne que paradoxalement, les milliardaires de la tech envoient leurs enfants dans des écoles limitant l’usage des technologies. Tamari soulève la question cruciale : comment garantir le développement et le maintien de capacités critiques face à ces outils? Elle évoque le cas des internes en radiologie qui, peu accompagnés par leurs seniors, pourraient devenir dépendants de l’IA sans développer leurs propres compétences diagnostiques. Notes Humaco Collaborateurs Nicolas-Loïc Fortin Audrey Vermeulen Gregory Alexander Marie Arminio Tamari Gamkrelidz Hélène Crédits Montage par Intrasecure inc Locaux réels par Aix-Marseille Université
    --------  
    1:15:53
  • H'umain - Conception numérique et collaborations humain-machine - Parce que... c'est l'épisode 0x576!
    Parce que… c’est l’épisode 0x576! Shameless plug 10 au 18 mai 2025 - NorthSec 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description Le podcast présente une table ronde animée par le présentateur avec quatre intervenants lors de la deuxième journée Humaco: Ingrid Dumont, Audrey Vermeulen, Grégory Alexander et Jérôme de Cooman. Cette rencontre transdisciplinaire a permis de partager réflexions et expériences autour de l’intelligence artificielle, de l’éthique, de la législation et de la science-fiction. Présentations des intervenants Audrey Vermeulen a présenté sur l’éthique by design de l’intelligence artificielle, explorant comment l’intelligence collective et l’imagination morale peuvent servir la conception éthique des systèmes d’IA. Grégory Alexander a exposé le concept de “Science Fiction Prototyping”, analysant comment les films de science-fiction peuvent être utilisés comme outils d’anticipation des évolutions technologiques et de leurs impacts sociétaux. Jérôme de Cooman a abordé les concepts de responsabilité et de redevabilité algorithmique, tentant de déterminer qui est responsable de quoi et qui doit rendre des comptes à qui dans l’écosystème de l’IA. Thèmes principaux abordés L’humain comme maillon fort face à l’IA Un consensus s’est dégagé autour de l’idée que l’humain n’est pas le maillon faible mais bien le maillon fort du système. Les participants ont souligné l’importance de l’esprit critique et de l’intelligence collective pour maîtriser l’IA. Audrey Vermeulen a insisté sur l’importance de cette intelligence collective pour faire émerger et orienter l’IA, tout en maintenant un contrôle éthique. L’humain reste fondamentalement celui qui “fait émerger l’intelligence artificielle” et qui doit conserver la maîtrise. Éthique by design et responsabilité Le concept d’“éthique by design” a été largement discuté. Audrey Vermeulen a expliqué que cette approche peut intervenir à plusieurs niveaux: Dans l’intention de départ et la raison d’être d’un service d’IA Dans la nature intrinsèque de ce que va produire l’artefact Dans le processus même de conception et de fabrication Dans le choix et le traitement des données utilisées Jérôme de Cooman a noté que les choix réglementaires reflètent des choix éthiques, citant les travaux du groupe d’experts de haut niveau indépendants nommés par la Commission européenne. Bien que le législateur européen ait préféré une logique de sécurité du produit plutôt qu’une éthique dès la conception, il existe une “congruence ontologique” entre les développements éthiques et la réglementation adoptée. Science-fiction comme outil d’anticipation Grégory Alexander a démontré comment la science-fiction a souvent anticipé les enjeux technologiques actuels. Il a évoqué des œuvres comme Robby le Robot et Ex Machina pour illustrer comment ces fictions explorent l’éthique et la place de l’humain face aux avancées technologiques. Les participants ont souligné que la science-fiction permet de: Partager en masse des réflexions éthiques complexes Désacraliser certains sujets pour permettre le débat sociétal Tester et explorer les dilemmes éthiques (comme le fameux “trolley problem” appliqué aux voitures autonomes) Développer l’imagination morale, essentielle pour affronter les défis éthiques Responsabilité et cadre réglementaire Jérôme de Cooman a expliqué le cadre réglementaire européen sur l’IA, notamment le règlement européen récemment adopté. Il a souligné que contrairement à d’autres technologies, l’IA impose une responsabilité partagée entre tous les acteurs de la chaîne de valeur. Les intervenants ont discuté des défis de la responsabilité dans des cas concrets comme celui des voitures autonomes, soulevant des questions comme: Qui est responsable en cas d’accident? Comment déterminer si c’est une défaillance du système, du capteur, ou une situation imprévue? Quel rôle jouent les assurances dans ce nouveau paradigme? Données, vie privée et différences culturelles Les participants ont évoqué les différentes approches culturelles concernant les données personnelles: L’Europe avec une forte protection des données personnelles L’Amérique avec une approche plus commerciale des données L’Asie, notamment la Chine, avec une transparence totale envers l’État La criticité des données a été abordée sous deux angles: Les données sensibles par nature (données personnelles ou stratégiques) Les données qui deviennent sensibles par croisement ou par leur utilisation Le temps, la réflexion et l’éducation Face à l’accélération technologique, les intervenants ont plaidé pour: Prendre le temps de la réflexion, particulièrement dans la recherche Valoriser les travaux anciens qui ont souvent bénéficié d’une réflexion approfondie Éduquer les jeunes aux enjeux de l’IA de manière non alarmiste mais responsable Développer l’esprit critique et l’imagination morale, notamment par la fiction Notes Humaco Collaborateurs Nicolas-Loïc Fortin Ingrid Dumont Jérôme de Cooman Gregory Alexander Audrey Vermeulen Crédits Montage par Intrasecure inc Locaux réels par Aix-Marseille Université
    --------  
    1:04:36
  • H'umain - Cyberespace - connaître et anticiper les futurs possibles - Parce que... c'est l'épisode 0x574!
    Parce que… c’est l’épisode 0x574! Préambule Nous avons rencontré un souci technique vers le milieu de l’épisode, où l’enregistreur numérique a cessé de fonctionner. Heureusement, les caméras ont capturé le son. Shameless plug 8 et 9 avril 2025 - Cybereco 10 au 18 mai 2025 - NorthSec 03 au 05 juin 2025 - Infosecurity Europe 27 et 29 juin 2025 - LeHACK 12 au 17 octobre 2025 - Objective by the sea v8 10 au 12 novembre 2025 - IAQ - Le Rendez-vous IA Québec 17 au 20 novembre 2025 - European Cyber Week 25 et 26 février 2026 - SéQCure 2026 Description L’émergence du projet Humaco Le projet Humaco a été créé au sein d’une structure fédérative de recherche regroupant plusieurs laboratoires de disciplines différentes. L’objectif principal est d’établir un espace d’échange interdisciplinaire plaçant l’humain au centre des réflexions sur le numérique. La question centrale posée est “comment l’humain évolue-t-il avec la société numérique” et non pas “dans la société numérique”, soulignant la volonté d’étudier l’évolution conjointe de l’humain et des technologies. Les intervenantes et leurs domaines d’expertise Cynthia Lopez-Gagousse : Doctorante en psychologie cognitive et ergonomique, s’intéressant à la pensée future et à l’immersion dans les récits de science-fiction pour imaginer l’avenir. Christine Dugoin-Clément : Docteur en sciences de gestion, chercheure spécialisée en opérations informationnelles, modification comportementale et nouvelles technologies avec une approche géopolitique centrée sur l’Europe de l’Est. Ingrid Dumont : Spécialiste en sécurité numérique et intelligence artificielle. Isabelle Besançon : Coordinatrice du projet Humaco. La fiction comme outil d’anticipation Les intervenantes discutent de l’importance de la fiction, notamment la science-fiction, dans notre capacité à imaginer l’avenir. Elles évoquent le terme “cyberespace”, né d’une œuvre de fiction en 1984, et comment des œuvres comme “La Matrice” ou “1984” ont préfiguré certaines réalités actuelles. La fiction permet d’explorer des futurs possibles et de réfléchir aux implications potentielles des technologies émergentes. Cynthia explique que la fiction aide à concevoir le temps futur, un temps qui n’existe pas encore et qui est extensible. Elle permet d’envisager des alternatives, des cheminements et des bifurcations temporelles, facilitant ainsi notre projection dans l’avenir. La construction de l’avenir et l’analyse des risques Christine souligne l’importance de regarder les éléments passés pour établir des probabilités de comportements d’acteurs futurs. Dans le domaine militaire ou doctrinal, on pense sur 30 ou 40 ans, en prenant en compte la probabilité de survenance des risques, y compris les risques inattendus. Elle évoque également la possibilité de “prophéties autoréalisatrices” : des textes considérés comme documents-cadres peuvent participer à dessiner des lignes de tension, rendant certaines bifurcations temporelles moins imprévisibles. Le droit face aux évolutions technologiques Les intervenantes discutent du rapport entre le droit et l’innovation technologique. Le droit intervient généralement a posteriori, en réponse à des risques déjà identifiés, pour réguler la société et les interactions entre acteurs. Il doit faire face non seulement à une évolution sociétale mais à une véritable transformation sociétale. La fiction peut aider à libérer la parole, à imaginer des scénarios et à interroger l’acceptabilité de certaines pratiques ou technologies, permettant ainsi de mieux préparer le cadre juridique. L’intelligence artificielle : réalités et mythes Une partie importante du podcast est consacrée à l’intelligence artificielle (IA) et à ses limites. Les intervenantes insistent sur le fait que l’IA actuelle n’a pas d’intention ni de conscience. Elle fonctionne sur des principes algorithmiques mathématiques et des systèmes de renforcement, reproduisant ce qui est fréquentiellement le plus récurrent dans ses données d’entraînement. Christine met en garde contre l’“anthropomorphisation” des IA : ce ne sont pas des entités pensantes mais des systèmes mathématiques. Elle évoque le phénomène des “hallucinations” des IA (comme inventer des œufs de brebis) mais aussi la sérendipité, soit la capacité à produire des associations inattendues. La relation humain-technologie Les intervenantes plaident pour une complémentarité entre l’humain et la technologie plutôt qu’une opposition. Ingrid souligne qu’il ne faut pas rejeter la technologie mais chercher une “coopération équilibrée” entre l’humain et les systèmes techniques. Elles évoquent le problème des biais algorithmiques et comment les modèles d’IA reflètent les biais présents dans leurs données d’entraînement. Elles discutent également de l’importance de la transparence et de l’explicabilité des systèmes d’IA. Formation et interdisciplinarité Un point crucial soulevé est le besoin de formation interdisciplinaire. Ingrid suggère que les sciences humaines et sociales devraient mieux utiliser les technologies, tandis que les sciences de l’ingénieur devraient mieux comprendre le fonctionnement de la société et de l’humain. Cette fusion des compétences permettrait une meilleure conception des technologies et une meilleure expression des besoins des utilisateurs. Notes Humaco Collaborateurs Nicolas-Loïc Fortin Ingrid Dumont Isabelle Besançcon Christine Dugoin-Clément Cynthia Lopez-Gagousse Crédits Montage par Intrasecure inc Locaux réels par Aix-Marseille Université
    --------  
    1:03:15

Plus de podcasts Technologies

À propos de PolySécure Podcast volet H'umain

Podcast francophone sur la cybersécurité. Pour professionels et curieux.
Site web du podcast

Écoutez PolySécure Podcast volet H'umain, Sortie de veille ou d'autres podcasts du monde entier - avec l'app de radio.fr

Obtenez l’app radio.fr
 gratuite

  • Ajout de radios et podcasts en favoris
  • Diffusion via Wi-Fi ou Bluetooth
  • Carplay & Android Auto compatibles
  • Et encore plus de fonctionnalités

PolySécure Podcast volet H'umain: Podcasts du groupe

  • Podcast PolySécure Podcast
    PolySécure Podcast
    Technologies
Applications
Réseaux sociaux
v7.23.9 | © 2007-2025 radio.de GmbH
Generated: 10/15/2025 - 4:49:27 PM