Fondateur et CEO de la jeune pousse Valohai, Eelo Laaksonen est venu s'installer à San Francisco pour commercialiser sa plateforme. (Crédit S.L.)
Fondée par une équipe d'ingénieurs finlandais, Valohai est une plateforme ML as a service sur laquelle les développeurs peuvent exécuter, itérer et collaborer sur des modèles d'apprentissage profond, de l'expérimentation à l'inférence.
L'intelligence artificielle est aujourd'hui au coeur de nombreux projets dans les entreprises qui cherchent à accroître leur efficacité commerciale en tirant parti de l'apprentissage profond. Les fournisseurs comme AWS, Google, Microsoft, VMware ou encore PyTorch ont bien compris l'enjeu et commencent à proposer des solutions ML clefs en main pour concevoir, développer et mettre en production plus rapidement les projets. Fondée en octobre 2016 à Turku en Finlande, la start-up Valohai (requin luminescent en finnois), qui a depuis ouvert un bureau à San Francisco afin d'accélérer son développement, propose un outil d'apprentissage machine en PaaS. Cette solution évolutive permet aux entreprises d'exécuter en parallèle de multiples variantes d'un projet ML, tout en laissant les développeurs repousser les limites de leur modèle avec un minimum de temps mort.
Fondateur et CEO de la jeune pousse, Eelo Laaksonen nous a expliqué le mois dernier à San Francisco que le machine learning ne fonctionne pas sans modèle et que celui-ci a besoin d'être entraîné à partir d'un grand volume de donnée. Citant l'exemple d'une banque exploitant un outil ML pour aider la conformité à suivre l'évolution des règlements, le dirigeant remonte qu'il leur est juridiquement nécessaire d'indiquer quel modèle a permis d'arriver à une prise de décision. « Si un modèle est en production, il est difficile de revenir en arrière pour regarder quels éléments ont amené à une décision ». Contrairement à de nombreux autres environnements d'apprentissage machine, la solution Valohai peut suivre les changements, construire des algorithmes reproductibles et s'assurer que les changements dans la composition des équipes ne gênent pas le processus d'expérimentation.
Travaillant avec des containers sur AWS, Azure ou Google Cloud, Valohai fournit un pipeline d'apprentissage machine rationalisé qui garantit l'intégration des étapes, quels que soient l'auteur, le langage ou le cadre utilisé. Cette solution intègre l'ensemble des ressources nécessaires pour le développement et le test de modèles d'apprentissage profond. Le suivi des ressources utilisées (matériel, logiciels et coûts annexes) est également de la partie.
Suivez-nous