A presentation at Touraine Tech in in Tours, France by Eléa PETTON
Avez-vous déjà entendu parler du terme “AI on edge” ? Il s’agit du déploiement d’applications d’IA sur des appareils situés dans le monde physique. Les avantages ? Moins de latence, plus de sécurité, d’efficacité et surtout de la proximité ! Aujourd’hui, il devient donc de plus en plus important de pouvoir déployer des modèles d’IA capables d’inférer en temps réel.
La vision par ordinateur est particulièrement concernée de par sa progression rapide et son utilisation dans de nombreux domaines : automobile, médical, commerce, … Elle regroupe de nombreuses techniques comme la classification d’images, la segmentation d’images ou encore la détection d’objets.
Cette dernière permet d’identifier et de localiser les différents objets sur une image ou sur une vidéo. Un célèbre algorithme de détection d’objets, connu pour son fonctionnement rapide, se nomme YOLOv7.
Dans ce talk, nous verrons comment déployer un modèle YOLOv7 pour la détection d’objets sur une carte Raspberry Pi 4.
Pour cela, nous nous intéresserons à l’entraînement et au test d’un modèle YOLOv7 au sein d’un Notebook Jupyter. Nous convertirons ensuite notre modèle pour pouvoir le déployer et faire de l’inférence sur Raspberry Pi 4. La finalité ? Un outil de détection d’objets en temps réel à portée de main.
Alors, on embarque ?