🎙 ZML, un projet révolutionnaire pour démocratiser l’inférence des modèles d’IA, sort de l’ombre et capte même l’attention de Yann LeCun !
“ZML : une pile d'inférence IA haute performance capable de paralléliser et d'exécuter des systèmes d'apprentissage profond sur de nombreux types de matériel. Elle sort de l’ombre, est impressionnante et open source**.**” – Yann LeCun
Découvrez la vision d’un entrepreneur passionné et son parcours de la French Tech à l’avant-garde de l’IA mondiale. Quelle chance d’avoir une startup avec ce niveau et cette ambition à Paris !
💡 Points marquants de l’épisode :
🔹 L’inférence à haute performance : Steeve explique comment ZML offre une couche d’abstraction permettant aux entreprises de maximiser leurs performances tout en réduisant les coûts, indépendamment du matériel utilisé.
🔹 La course aux puces : A100, H100, et B (Blackwell) de Nvidia, TPUs, NPUs… l’innovation au service des modèles de raisonnement
🔹 Économie de l’IA : Une analyse fascinante des marges de la chaîne de valeur, de la production des puces au déploiement des modèles, avec une réflexion sur le monopole de NVIDIA et l'importance de la compétition.
🔹 Vers une IA raisonnée : Avec des exemples comme les modèles de raisonnement et leur impact sur l’avenir de l’IA, Steeve partage sa vision sur les prochains sauts technologiques et défis énergétiques.
🌟 Citation marquante :
"Le training, c'est comme les cours : on apprend plein de choses. L'inférence, c'est l'interro : on doit répondre rapidement et efficacement en utilisant ce qu'on a appris."
📚 Film préféré de science-fiction :
Contact (Carl Sagan) – Une inspiration pour penser aux défis universels et à la nature humaine face à l'inconnu.
💬 Pensez à laisser 5 ⭐⭐⭐⭐⭐ au podcast pour me soutenir !
Timestamps des moments clés
00:37 – ZML et l’inférence IA.
03:45 – Tweet de Yann LeCun
25:45 – Training vs inférence
40:05 – Démo de ZML
57:31 – Modèles de raisonnement et coûts
Partagez ce post