📅 Episode du 26/02/2026 :
Dans cet épisode, je reviens après quelques semaines d'absence pour partager plusieurs actualités importantes. Je vous parle du scandale de distillation de modèles par des startups chinoises révélé par Anthropic, une pratique illégale qui soulève des questions sur la course à l'IA. Je vous recommande aussi chaudement le livre Maniac de Benjamin Labatut, une fascinante plongée dans l'histoire de John von Neumann et de DeepMind qui offre un recul précieux sur l'IA actuelle. Enfin, je vous annonce que j'ai commencé l'écriture de mon deuxième livre, un traité sur le vibe coding co-écrit avec l'IA, et je vous parle de la nouvelle fonctionnalité de sécurité Claude Code Security d'Anthropic pour auditer vos applications.
📚 Ressources :
- Conférence à Rouen : https://www.youtube.com/watch?v=Pbu-uvxlVks
- Livre Maniac : https://www.babelio.com/livres/Labatut-Maniac/1676870
- Documentaire DeepMind : https://www.youtube.com/watch?v=d95J8yzvjbQ
💬 Venez commenter sur https://no-code-france.slack.com/archives/C01AHCKB7AB
🔗 Retrouvez toutes les informations sur le podcast sur https://audio.hosakka.studio/podcast/
📬 Abonnez-vous à la newsletter : https://newsletter.hosakka.studio/
00:00 Introduction et excuses pour l'absence
01:30 Annonce du replay de la conférence de Rouen
02:00 Début de l'écriture du livre sur le vibe coding
04:00 Scandale de distillation des modèles par les startups chinoises
09:30 Réflexions sur l'open source vs open weight
12:00 Recommandation du livre Maniac de Benjamin Labatut
17:00 John von Neumann et les machines auto-réplicatrices
19:00 DeepMind, Demis Hassabis et le documentaire
22:00 Claude Code Security, la nouvelle fonctionnalité d'audit
25:00 Limites des audits de sécurité automatiques
27:00 Conclusion et annonce des prochains épisodes