Contacts
Info
Toute l'actualité du Bigdata et surtout de sa communauté francophone dans un podcast.
Episodes & Posts
Episodes
Posts
4 NOV 2025 · Dans cet épisode du BigData Hebdo, Vincent Heuschling et Paul Peton explorent les dernières annonces d'OpenAI, d’Anthropic et de Google concernant les agents AI et leur monétisation. Au programme les SDK, les workflows, etc...
**A retenir dans cet épisode**
- Les dernières annonces d'OpenAI, Anthropic, et Google.
- Les agents ont de l’argent, il commencent à être monétisés.
- OpenAI vise à concurrencer Google et l'App Store d'Apple.
- Les SDK sont essentiels pour le développement d'agents AI.
- La capacité de prise de décision des agents est cruciale pour leur efficacité.
- La tarification des gros modèles AI est démesurée.
- Les navigateurs AI soulèvent des questions éthiques.
- La connectivité des agents est un enjeu majeur.
**Le BigdataHebdo** Le BigdataHebdo est le podcast Francophone de la Data et de l'IA.
Retrouvez plus de 200 épisodes https://bigdatahebdo.com
Rejoignez la communauté sur le Slack https://join.slack.com/t/bigdatahebdo/shared_invite/zt-a931fdhj-8ICbl9dbsZZbTcze61rr~Q
28 OCT 2025 · Dans cet épisode on explore les défis et les évolutions du RAG (Retrieval-Augmented Generation) dans le contexte de l'IA. L'équipe du Bigdata Hebdo discute des promesses des éditeurs, des difficultés rencontrées par les utilisateurs, et des mécanismes d'IA nécessaires pour traiter efficacement les documents.
On parle des enjeux liés à l'OCR, au chunking, et à l'importance des modèles d'embeddings.
00:00 Introduction
03:06 La promesse des éditeurs
08:05 Comprendre le RAG et son fonctionnement
11:06 Difficultés liées à l'OCR et à l'extraction de données
19:05 Recommandations pour l'optimisation des documents
28:46 Mistral Document AI et ses fonctionnalités
33:49 Chunking et gestion des documents
40:55 Fine-tuning des modèles d'embeddings
43:00 Formats de documents et leur pérennité
47:23 Conclusion et perspectives
Notes et ressources
https://bigdatahebdo.com/podcast/episode-224-donnees-non-structurees-et-modern-ocr
16 OCT 2025 · Dans cet épisode du Big Data Hebdo, Vincent Heuschling et Nicolas Wlodarczyk discutent des caractéristiques et des avantages de la base de données NoSQL Aerospike. Nicolas partage son parcours dans le domaine de l'IT et explique comment Aerospike se distingue par sa rapidité et sa scalabilité, et sa capacité à optimiser les infrastructures.
Chapitres
00:00:00 Introduction
00:01:42 Présentation d'Aerospike
00:21:03 Use-Cases
00:27:25 Réduction de l'Infrastructure et Efficacité
00:30:22 Intégration et Interopérabilité avec d'autres Systèmes
00:41:53 Modèles de Consommation et Licensing
00:49:12 Transactions et cohérence
00:58:43 Ressources
Notes et ressources
https://bigdatahebdo.com/podcast/episode-223-aerospike
10 OCT 2025 · Dans cet épisode du Big Data Hebdo, Vincent Heuschling, Paul Peton, et Jérôme Mainaud discutent des événements marquants de l'été 2025 dans le domaine de l'IA et du Big Data, notamment le drama autour de Luc Julia, du lancement raté de GPT5, de l'importance des modèles open source, et les initiatives européennes en matière de souveraineté technologique.
6 AUG 2025 · Avec Christophe Blefari (aka Blef) on discute des défis actuels des équipes data et de la réponse apportée par NAO.
Comment le “Data vide coding” peut accélérer la productivité des projets data ?
On évoque aussi le passage par YC qui a eu un impact significatif sur le produit et la société.
On termine cet épisode avec le regard averti de Christophe sur le marché de la Data, et l’impact des LLM.
Plus sur :
https://bigdatahebdo.com/podcast/episode-221-data-vibe-coding-avec-nao
25 JUL 2025 · Dans cet épisode du Big Data Hebdo, Vincent Heuschling et Quentin Ambard reviennent sur le Data and AI Summit 2025 de Databricks.
En autres on parle de :
- L'acquisition de Néon pour avoir une BDD au dessus du Lakehouse
- Lakeflow Designer pour avoir une approche low-code
- L'intégration de l'IA
- Databricks One pour rendre l'interface plus accessible
- Les améliorations du moteur SQL de Databricks
- Agent Bricks qui simplifie le développement d'agents AI.
- La data-gouvernance avec Unity Catalog.
- Le Vector Search au dessus du lakehouse
- Les inevitables troll envers Snowflake 🤣🤣🤣
11 JUL 2025 · Dans cet épisode du Big Data Hebdo, on regarde l'évolution des formats de fichiers Table, en se concentrant sur Parquet, Delta Lake, Iceberg et Duck Lake. On évoque la gestion des metadata et les catalogues pour la gouvernance des données.
2 JUL 2025 · Dans cet épisode thématique, on explore les agents IA, dernière itération de l'IA Générative.
Qu'est ce qui distingue un agent d’un chatbot ou d’un simple prompt ?
On parle aussi de la relation entre agents, outils (tools) et modèles LLM.
Quels sont les frameworks les plus matures pour construire des agents?
28 MAY 2025 · Cet épisode spécial du Big Data Hebdo, enregistré à Devoxx Paris, on donne la parole aux auditeurs !
On parle de Windsurf pour l’assistance au code, de test autonome avec Antithesis (qui a réussi à casser ETCD), et d’automatisation de la veille technologique, et pour finir d’automatisation pour les bases de données avec Ariga Atlas.
11 APR 2025 · Dans cet épisode, on revient sur l’évolution de la data-ingénierie à travers deux outils : DBT et SQLMesh. Comment ces outils ont émergé avec la montée en puissance du SQL dans les architectures modernes ? Comment ils répondent aux enjeux de modélisation, d’industrialisation et de gouvernance de la donnée ? L’épisode est aussi l’occasion d’aborder l’évolution des métiers de la data, notamment l’émergence du rôle d’analytic engineer, à la croisée des chemins entre data engineering et data analytics.
- La révolution du SQL modulaire
→ Retour sur l’historique du SQL dans l’analytique moderne, l’explosion du SQL dans les moteurs cloud et les limites des requêtes monolithiques.
- DBT
→ Origine de DBT, philosophie “analyst-friendly”, séparation entre DBT Core et DBT Cloud, gestion du versioning, testing, documentation, templating avec Jinja.
- Le rôle d’Analytic Engineer
→ Mutation des équipes BI vers plus d’autonomie technique, convergence entre modélisation métier et industrialisation.
- Pourquoi SQLMesh ?
→ Introduction à SQLMesh comme alternative à DBT, positionnement technique, différences d’usage, réflexion sur les cas d’adoption.
Retrouvez les épiosodes et show notes sur https://bigdatahebdo.com
-----------------
Cette publication est sponsorisée par Datatask (https://datatask.io/) et CerenIT (https://www.cerenit.fr/) .
CerenIT (https://www.cerenit.fr/) vous accompagne pour concevoir, industrialiser ou automatiser vos plateformes mais aussi pour faire parler vos données temporelles. Ecrivez nous à contact@cerenit.fr (https://cerenit.fr) et retrouvez-nous aussi au Time Series France (https://www.timeseries.fr/) .
Datatask (https://datatask.io/) vous accompagne dans tous vos projets Cloud et Data, pour Imaginer, Expérimenter et Executer vos services ! Consultez le blog de Datatask (https://datatask.io/blog/) pour en savoir plus.
Le générique a été composé et réalisé par Maxence Lecointe
Toute l'actualité du Bigdata et surtout de sa communauté francophone dans un podcast.
Information
| Author | Vincent Heuschling |
| Organization | Vincent Heuschling |
| Categories | Technology , Business , Management |
| Website | www.spreaker.com |
| vhe@affini-tech.com |
Copyright 2026 - Spreaker Inc. an iHeartMedia Company