Difficile d’échapper à cet événement mondial qui est omniprésent sur les médias.
Sa retransmission est accessible sur tous les supports digitaux : vos écrans TVs, vos smartphones, tablettes et même dans vos journaux préférés.
Le New York Times notamment a décidé d’utiliser l’IA appliquée pour analyser une action d’un but lors du premier match des Etats Unis contre le Pays de Galles. On peut se déplacer autour des joueurs comme si nous étions nous même sur le terrain !
Cette prouesse technique est réalisée à partir de photos des joueurs prises pendant le match mais repose surtout sur la plateforme ICON (Implicit Clothes Humans Obtained From Normals).
Derrière ce nom barbare se cache un ensemble d’algorithmes, de recherches issues de scientifiques qui ont travaillé sur les différentes positions du corps, l’animation des membres et la posture en dupliquant la représentation humaine mais en y intégrant leurs vêtements (les shorts pour nos joueurs !).
L’objectif de cette plateforme est de créer des avatars habillés qui pourront ainsi être utilisés/animés dans n’importe quelle scène en temps réel ou non. Cela suppose la gestion des mouvements sur le tissu, la déformation des poches etc..
Dès lors, on imagine sans peine la difficulté de pouvoir « scanner » une population aussi dense avec des habits disparates.
Plusieurs solutions sont disponibles pour reconstruire le corps humain avec des vêtements et ce, de manière très réaliste.
SCANimate par exemple prend toutes les postures 3D d’un humain et les reproduit sous forme d’Avatars. Mais cela nécessite de scanner tous les types de morphologies avec des habits différents. L’investissement dans un scanner 3D est alors très important.
Les algorithmes PIFuHD améliore cette représentation en utilisant la puissance des réseaux neuronaux pour réaliser une vision 3D à partir d’une seule image. Mais ils n’arrivent pas à gérer les différentes variations du corps (ce qui est problématique pour nos joueurs)
ICON va générer une image RGB et une représentation spatiale du corps, définir les faces (devant, derrière) et appliquer des algorithmes prédictifs pour simuler les déplacements . Cette représentation permet de minimiser la différence de représentation d’un corps avec ses vêtements. N’importe quelle posture peut ainsi être générée artificiellement avec les mouvements de l’habit en temps « réel ».
On peut alors imaginer d’intégrer notre avatar vêtu ainsi « fabriqué » dans une scène vidéo et le visualiser sous tous les angles.
Peut être un moyen d’améliorer la VAR ?
Le lien du projet est ici : https://github.com/YuliangXiu/ICON
# #intelligenceartificielle #SedonaFrance