A quel point devons-nous optimiser nos modèles d’IA ?

A presentation at DevFest Perros-Guirec in in Perros-Guirec, France by Eléa PETTON

Dans le domaine du Machine Learning, le concept d’optimisation est au coeur de la création des modèles. Il existe de multiples façons d’optimiser un modèle d’IA en se basant sur divers aspects : précision, performance, explicabilité, latence, consommation énergétique, …

Durant ce talk nous allons tout d’abord voir pourquoi il est primordial d’optimiser un modèle et quels sont les différentes optimisations possibles. Comment ? Au travers d’un cas d’usage métier pour voir à quel point notre modèle de Machine Learning peut être optimisé.

Dans un premier temps, nous nous intéresserons à la métrique “phare” : la précision du modèle. En tant que Data Scientist, l’entraînement est notre première étape pour optimiser un modèle de Machine Learning.

Au delà de qualité et de la précision du modèle, il est primordial que ce dernier soit utilisable et déployable en production. Nous devons donc porter attention au temps d’exécution en évaluant à la fois la latence et l’intérêt métier. Pour cela, quoi de mieux que de créer un benchmark en se basant sur un jeu de données de test ?

Nous serons également attentifs à la complexité du modèle et à son explicabilité en nous intéressant au cas d’usage métier.

Ce talk montrera également l’impact écologique des modèles. Nous verrons comment évaluer leur émission de CO2 ou encore leur consommation énergétique.

Mais au final, devons nous tenir comptes de toutes ces métriques ?