Retour sur 2021 – L’Intelligence Artificielle vue par Neovision
Retour sur 2021 – L’Intelligence Artificielle vue par Neovision
Le début d’année est une période phare pour la prise de résolutions, faire le bilan et se projeter vers l’avenir.
Pour anticiper les futures évolutions de l’IA en 2022, il faut déjà savoir ce qui a bougé et évolué en 2021. En ce sens, Neovision vous propose de faire le point sur l’année écoulée et les actualités, tendances et évolutions qui ont marqué son équipe.
Vous l’aurez compris, nous donnons aujourd’hui la parole à nos collègues. De la R&D à la production en passant par le commerce, nous croisons les regards pour vous offrir la photographie la plus représentative et inclusive possible.
Tendances et actualités diverses
Tout au long de l’année, les actualités portant sur l’IA fleurissent à un rythme quotidien. Impossible donc de vous dresser un récapitulatif exhaustif. Toutefois, certaines personnes ont relevé des annonces particulièrement importantes.
Commençons avec Taiamiti, Docteur en IA et grand aficionado de la Computer Vision. Une annonce de Tesla a retenu son attention : “ Tesla abandonne la fusion multicapteur pour se concentrer sur de la vision pure. Cela veut dire qu’il y a tellement de progrès sur la Computer Vision, grâce, notamment, à des volumes de données fous, qu’on peut tout simplifier et tout baser sur un simple capteur optique. Plus besoin de miser sur une multiplicité de capteurs et la redondance”.
Sur le même sujet mais à contre-courant, Iulia – elle aussi docteur en IA – a gardé en tête un article présenté à CVPR (voir notre article sur le sujet). Ce papier s’intéresse à la conduite autonome donc mais aussi au LIDAR et non pas aux caméras classiques. L’avancée présentée touche au “mapping en temps réel, ce qui permet de reconstituer une scène pour la comprendre, détecter les objets, prédire les comportements, la vitesse de déplacement de ces derniers”. L’aspect marquant de ce papier réside dans la complexité inhérente au mapping, et à la précision présentée par le système, de l’ordre du centimètre. Bluffant !
Mais du coup, caméra ou LIDAR pour le véhicule autonome ?
De son côté, Lucas – CEO de Neovision – a été marqué par les annonces et démonstrations du nouveau moteur graphique d’Epic Games : l’Unreal Engine 5. Ce moteur repousse les limites de la simulation. Selon Lucas, cela permettra à “la simulation 3D et à l’IA de se rapprocher fortement et ce à court terme”. En effet, les deux domaines sont imbriqués : “la simulation produit des données représentatives pour l’IA et l’IA permet de produire des simulations réalistes”. Même son de cloche du côté d’Erwan, ingénieur R&D, qui a vu “l’IA être utilisée pour rendre des univers numériques photoréalistes”. Une démonstration a été faite sur le blockbuster vidéoludique Grand Theft Auto V.
Enfin, Wendy – ingénieure R&D et cheffe de projet – nous a confié avoir été étonnée par les énormes progrès du Few-Shot Learning. Une méthode d’apprentissage permettant d’entraîner un réseau de neurones avec quelques exemples seulement (de 1 à 5 données). “Avec le Few-Shot, on a besoin de moins en moins de données, et donc moins de stockage également, le tout sans perdre en performances ! Je me demande à quel point ces approches pourraient encore réduire l’impact environnemental de l’IA. Actuellement, il y a beaucoup de promesses mais je n’ai pas encore eu l’occasion de vraiment travailler dessus personnellement”.
Les Transformers : du texte à l’image
Si l’attention de Neovision se porte sur un très large éventail de sujets touchant de près ou de loin à l’IA, l’un d’eux revient tout particulièrement et notamment lors de nos séances de veille scientifique : les Transformers et leurs applications.
Wendy abonde en ce sens, affirmant que “le développement des Transformers est très intéressant”. Tout comme Victor, lui aussi ingénieur R&D : “Les Transformers, c’est un vrai sujet à Neovision, que l’on suit de près. Après j’attends un peu de voir ce que cela va donner au niveau applicatif, bien que théoriquement, c’est plein de promesses !”
Il faut dire qu’à la base, les Transformers n’étaient pas utilisés en Vision, uniquement en NLP. Mais ces derniers semblent tout à fait pertinents pour réaliser des tâches de vision. Et nous vous en avons parlé régulièrement cette année au travers de nos articles de veille vulgarisée.
Arthur, docteur en IA, est bluffé par les Transformers, notamment ceux qui permettent de “combiner les modalités textes et visuelles”. “Ils permettent de dépasser l’état de l’art en vision, alors que ce sont des modèles entraînés sur du texte, ou alors très légèrement ré-entraînés”. En effet, “les Transformers transfèrent très bien du texte vers la vision et notamment en few-shot et zero-shot learning”.
Pour être plus précis et pour reprendre quelques avancées technologiques précises, l’une d’elles ressort tout particulièrement : CLIP. “Le modèle CLIP fait le lien entre NLP et Vision par Ordinateur. C’est un modèle entraîné pour faire le lien entre le texte et l’image, de manière globale et sans avoir une tâche précise” nous explique Etienne. Une des utilisations de CLIP, StyleCLIP, “permet de contrôler un GAN via du texte pour générer et modifier des images. Il s’agit d’un véritable game changer pour la génération de données” estime Lucas, abondant en ce sens.
Outre CLIP, un autre modèle est plébiscité par les experts Neovision : DALL-E d’Open AI, un modèle de génération d’image conditionné par du texte qui s’est avéré très performant et a rapidement fait des petits. Une technologie retenue par Arthur mais aussi par Erwan qui s’est “amusé à créer des images à partir d’un texte simple. En gros, on donne une idée et l’IA la réalise” !
Avènement de la 3D
Autre sujet très en vogue à Neovision, la 3D. Des projets sur lesquels nous travaillons aux avancées technologiques marquantes, la 3D représente une vraie tendance en IA.
D’une part, parce que les capteurs permettent de produire de plus en plus de données 3D, les puissances de calculs ont augmenté et sont capables de gérer ce type de données mais aussi grâce à des avancées scientifiques très prometteuses. Un constat que partage Lucas, voyant l’IA, la VR et la 3D se rapprocher. Une chose peut expliquer cela : “les derniers smartphones ont notamment des capacités en perception 3D mais aussi des capacités de traitement grâce aux accélérateurs”.
Erwan confirme ces informations lorsqu’il se confie sur son quotidien à Neovision : “je travaille majoritairement sur des volumes 3D et notamment dans le domaine médical. Il faut dire qu’il y a de plus en plus de données 3D, et de la capacité de calcul qui permettent de bien gérer la 3D. Il y a aussi de plus en plus de recherches et d’avancées faites dessus donc il existe de plus en plus de modèles pré-entraînés et d’architecture intéressantes”. Taiamiti, lui aussi, travaille de plus en plus sur des données 3D qui se présentent sous différentes formes : “il y a plusieurs approches en fonction des données : nuages de points, mesh / stéréo multi-vue ou encore l’estimation de profondeur à partir d’une seule image RGB…”.
Au niveau scientifique, la 3D est aussi un vrai sujet, largement abordé lors des présentations de veille scientifique. Le domaine du rendu neuronal, et plus précisément le sous-domaine des NeRF a eu le vent en poupe cette année. Les NeRFs permettent “d’entraîner une représentation 3D d’une scène à partir d’images 2D, et d’utiliser par la suite cette représentation pour générer de nouveaux points de vue” comme nous l’explique Etienne tout en ouvrant “mais il existe plein d’autres applications du concept de fonction implicite.”. Il faut dire que la fonction implicite, il nous en a parlé cette année. Enfin Taiamiti, hypé par le sujet, ne peut cacher son entrain lorsqu’il évoque PIFu HD, une autre application du concept de fonction implicite. “Il y a d’énormes progrès sur la modélisation 3D d’humains, avec un projet fondateur, le Projet Splinter, comme dans Les Tortues Ninja. En fait, PIFu HD prédit le modèle 3D à partir d’une seule et unique image”. C’est fou ce que l’on peut faire avec une photo de nos jours.
IA et création
Après vous avoir présenté ces avancées et tendances, un lien logique semble se dessiner entre l’art, ou plus largement la création, et l’Intelligence Artificielle. Une relation qui n’apparaît pas comme logique tant les métiers créatifs semblaient être, il y a encore un ou deux ans, les fonctions les moins impactées par l’IA.
Mais aux vues de ce que nous ont raconté nos collègues, une IA pourrait bien se cacher derrière le prochain Matisse.
Par exemple, Erwan a découvert, lors de partage de veille scientifique, une technologie développée par NVIDIA, il s’agit de “Nvidia Canvas ou autodraw, une IA assistant la création d’œuvre d’art. L’IA assiste vraiment à la création des œuvres. L’IA permet à tout le monde de créer des œuvres très réalistes. L’IA vient assister la créativité, chose qui semblait très loin avant”. Un sujet intarissable qui dérive rapidement vers du prospectif : “Ce serait cool de pouvoir interpréter les signaux du cerveau pour comprendre les rêves et les mettre à disposition sous forme de vidéo !” Plus sérieusement Erwan voit en cela l’avènement de “l’aspect génératif de l’IA, via les GAN en figure de proue.”
Arnaud, lui aussi, fait le lien avec les modèles génératifs contrôlés sémantiquement comme StyleCLIP. Ils pensent que la création artistique constitue “une bonne application puisque la technologie n’est pas encore mature et doit encore être peaufinée pour trouver des applications plus “sérieuses”.”
Enfin, Lucas a même découvert un artiste alliant deux tendances technologiques : l’IA et les NFT. “J’ai découvert qu’un artiste utilise la génération de données pour faire des œuvres originales vendues en NFT !” Il s’appelle @RivershaveWings sur Twitter pour les plus curieux.
Evolution des métiers de l’IA
Outre ces tendances et nouveautés d’ordre technologiques, d’autres évolutions ont marqué nos collègues. Vous n’êtes pas sans savoir qu’à Neovision, nous travaillons au quotidien sur la conception et le développement en intelligence artificielle. Du coup, nous sommes bien placés pour comprendre comment évoluent les métiers de l’IA.
Si l’IA promet de révolutionner de nombreux métiers, ceux directement liés à elle n’y échapperont probablement pas. En effet, plus nos ingénieurs engrangent d’expérience, plus ils se rendent compte des tâches qui pourraient être automatisées et donc confiées à une IA. Erwan se questionne à ce sujet. “Je me demande comment va évoluer mon boulot, sans que cela ne me fasse peur, au contraire. Selon moi, le pipeline général d’un projet IA pourrait être en partie automatisé comme le pré-traitement des données, le choix de l’architecture… Aujourd’hui, tout cela se concrétise par la création de la plateforme d’autoML”. La promesse de ces plateformes ? Permettre à tout data scientist et même à certains néophytes de mener un projet IA en vue de créer un modèle et une application. Une promesse alléchante. Une analyse que partage Arnaud : “il y a de plus en plus d’entreprises qui proposent de faire du Deep Learning avec du low code, ce qu’on voyait déjà avec le Machine Learning. Comme Nvidia qui a une plateforme pour traiter tout un tas de problèmes liés à la vision (Toolkit TAO)”. Avant de venir pondérer ses propos. “Mais de mon prisme, cela me permet surtout de voir quels sont les sujets et technologies vraiment matures. Si on parle d’état-de-l’art, il y a un “lag” entre ces plateformes et l’état de l’art. Je dirais que ces plateformes ont un retard de 2 ans environ. Et donc, sur les projets complexes, les plateformes sont à la traîne”.
Du côté d’Arthur (à ne pas confondre avec Arthur), sortant du monde académique et du laboratoire TIMC-IMAG (laboratoire à la frontière de l’informatique et du médical), nous sommes plutôt face à une bonne surprise. “En sortant de ma thèse, je me suis rendu compte que de plus en plus de travaux de recherche en Deep Learning étaient accompagnés du code et des données : cela permet de reproduire les expérimentations. Les travaux les plus aboutis sont intégrés de plus en plus rapidement dans des librairies standards de Deep Learning. Sans être sûr que ce soit une réelle nouveauté, cela facilite l’industrialisation de certaines technos et accélère le développement de l’IA”.
Il est vrai que le marché de l’IA monte en maturité et, à Neovision, nous nous retrouvons de plus en plus face à des projets allant jusqu’à l’industrialisation des technologies. Ce que viennent confirmer Wendy et Victor, qui ont principalement travaillé sur du développement logiciel cette année. “Pour la première fois, j’ai intégré un modèle de prédiction dans une application de bureau windows destinée à tourner sur une variété de PCs. La techno tourne directement dessus et pas seulement en back-end. Tout tourne sur le PC du client, sans aucune dépendance externe autre que le matériel. En soi, cela n’a rien de fou et on l’a déjà fait mais cette application s’adresse aux utilisateurs finaux, des profils non-techniques. Clairement, on a amélioré le packaging de nos technos pour qu’elles soient utilisables par le plus grand nombre de personnes possible”. De la même manière, Wendy “a plutôt travaillé sur le déploiement et l’intégration de l’IA sur cette année 2021”.
Ethique
Nous arrivons à la dernière partie de notre article récapitulatif de l’année 2021. Si vous nous connaissez bien, vous savez déjà que nous ne pouvions clôturer cet article sans aborder la question de l’éthique.
Il faut dire que 2021 représentera, à l’avenir, une année charnière concernant l’éthique de l’IA en Europe puisque l’Union Européenne a lancé une manœuvre visant “la mise en place d’un projet de loi pour réguler l’IA (voir AI Act). Cette loi vise à interdire certains cas d’usages (manipulation subliminale, exploitation d’enfants ou d’handicaps psychologiques, identification biométrique à distance, notation sociale généralisée) et également une liste d’IA à risque élevé. Cela pourrait compléter le RGPD et ce serait très bien au niveau éthique. Par contre, c’est également un risque par rapport aux autres blocs mondiaux de l’IA. Mais j’espère que les acteurs internationaux s’aligneront sur cette législation, comme ce fut, en partie, le cas pour le RGPD” nous détaille Lucas.
Pour Erwan, le sujet est tout aussi complexe puisque, s’il voit “l’Europe comme un modèle”, les questions éthiques peuvent aussi “la mettre à la traîne par rapport aux USA et à la Chine sur le développement de l’IA”. De plus, il émet certains doutes quant à l’efficacité des différentes prises de positions et de certaines lois. “L’éthique et la réglementation ne permettent pas de vraiment freiner les mauvais projets au niveau mondial mais nous freine par contre, en France et en Europe, sur des sujets beaucoup moins controversés notamment au niveau de la santé… J’ai l’impression que les discussions autour de l’éthique trainent trop, vu les progrès faits sur des sujets plus que polémiques. J’ai été choqué d’apprendre l’existence de robots armés ayant la capacité de prendre des décisions autonomes. Cela me fait peur, d’autant plus que la population pourrait être emballée par cette idée. Je suis vraiment étonné que cela existe déjà. Le plus dérangeant pour moi, c’est que la machine puisse prendre une décision en toute autonomie, sans le moindre contrôle humain, c’est un pas en avant très dangereux”.
Voilà donc un bon résumé de l’année 2021 vue par Neovision. Comme vous pouvez le voir, les sujets ne manquent pas et cette année passée fut riche en découvertes et nouveautés, de toutes sortes. Rien de vraiment surprenant tant le domaine de l’intelligence artificielle bouillonne et évolue constamment.
De la sphère technique au marché, le sujet reste particulièrement attrayant et cela nous laisse penser qu’il ne cessera pas de bouger en 2022 que ce soit au niveau des avancées scientifiques et technologiques mais aussi au niveau de l’étude des impacts socio-économiques engendrés par le développement de l’IA.