Comptant moins d'une quinzaine de personnes actuellement, FlexAI renforce ses équipes aujourd'hui principalement sur Paris. (crédit : FlexAI)
Créée en juillet 2023, la start-up parisienne FlexAI co-fondée par Brijesh Tripathi et Mohamed Kilani vient de lever 28,5 M€. Elle propose d'optimiser l'accès aux ressources de calcul des workloard IA à travers les différentes plateformes de développement du marché (Intel Gaudi, AMD ROCm et Nvidia Cuda).
L'écosystème IA en France se porte bien comme le rappelle une étude 2023 menée par France Digitale et Sopra Steria. Lorsque ce rapport a été lancé, la jeune pousse francilienne FlexAI co-fondée par Brijesh Tripathi (président) et Mohamed Kilani (directeur général) n'existait pas encore. Elle vient de sortir du mode furtif et réalise une levée de fonds de 28,5 M€. Ce financement d'amorçage a été obtenu dans un tour de table mené par Alpha Intelligence Capital (AIC), Elaia Partners et Heartcore Capital, avec la participation de Frst Capital, Motier Ventures, Partech et Karim Beguir le CEO d'InstaDeep. Installée à Paris, la jeune pousse dispose aussi de bureaux à San Francisco et à Bangalore depuis moins d'un mois. Comptant actuellement moins une petite quinzaine d'employés, FlexAI a ouvert actuellement 7 postes dont 6 à Paris pour des domaines variés : responsable de bureau, développeur et chef de produits de services cloud, ingénieur senior en modélisation d'architecture, responsable de l'architecture matérielle et ingénieur compilateur IA.
A l'origine de la création de FlexAI on retrouve Brijesh Tripathi, son co-fondateur et président, ancien ingénieur concepteur principal chez Nvidia, ingénieur architecte chez Apple et Tesla. Il a également été vice-président d'AXG (Accelerated Computing Systems and Graphics), ex branche d'Intel spécialisée dans la conception de GPU réorganisée en décembre dernier (l'activité grand public a basculé dans le giron de la business unit Client Compute group du fondeur et de l'autre pour datacenters et IA dans DCAI). "Nous voulons amener l'infrastructure de calcul de l'IA au même niveau de simplicité que le cloud", a fait savoir le président de la jeune pousse. "Nous voulons arriver à un point où l'exécution de charges de travail d'IA n'exige pas que vous deveniez des experts en datacenter". De son côté le directeur général de la start-up et aussi co-fondateur, Mohamed Kilani, a été directeur technique de la start-up française Lifen et a occupé plusieurs postes techniques chez Nvidia et Zynga.
Eliminer les difficultés d'exécution des workloads IA
Le financement va être utilisé par la jeune société pour renforcer ses équipes et finaliser son offre FlexAI Cloud dont le lancement commercial est prévu dans les prochains mois. Celle-ci apporte des capacités de calcul à la demande en traitements d'intelligence artificielle optimisés pour différents environnements matériels afin d'aider les entreprises à créer des systèmes IA basés sur Python et Pytorch. L'éditeur indique avoir intégré une couche d'abstraction et d'orchestration dans sa pile de calcul d'IA, permettant aux développeurs de s'appuyer sur un ensemble varié de plateformes de développement (Intel Gaudi, AMD ROCm et Nvidia Cuda) pour entraîner leurs modèles plus rapidement, de manière plus fiable et à un plus faible coût que les clusters GPU traditionnels. FlexAI est partenaire de fournisseurs d'horizon varié : Nvidia, AMD, Intel, Nscale mais également Google Cloud, AWS, ou encore Scaleway, ainsi que Mistral AI, InstaDeep, Tenstorrent et Hugging Face.
"Les clients n'ont pas à s'inquiéter de la complexité des multiples architectures, nous nous occupons de la mise en réseau, de la stabilité et de la fiabilité", a expliqué Brijesh Tripathi. "Nous éliminons les difficultés liées à l'exécution des workloads de manière transparente sur diverses architectures matérielles. Cela permet aux développeurs de produits et de services d'IA d'exploiter un plus large éventail de puissance de calcul disponible sans avoir à modifier leur code. Leurs workloads s'exécuteront simplement sur le matériel choisi. En optimisant l'utilisation de toutes les ressources informatiques disponibles, et pas seulement des GPU, nous pouvons maximiser l'efficacité et minimiser les défaillances. Cela permet de prédire avec plus de précision les délais d'exécution des charges de travail et de réduire considérablement le gaspillage d'énergie dû aux processus défaillants".
Suivez-nous