La start-up parisienne NukkAI mixte les technologies pour développer une Intelligence Artificielle hybride facilement explicable, où l’homme et la machine collaborent en permanence, et qui est de plus frugale en puissance informatique et donc en énergie.
NukkAI est née en 2018, de la rencontre de deux passionnés de bridge, Véronique Ventos, chercheuse en Intelligence Artificielle ayant fait toute sa carrière à Paris/Saclay, et Jean-Baptiste Fantun, polytechnicien qui, après des passages dans l’industrie, les cabinets ministériels et l’enseignement, est devenu consultant.
« Pour nous, le bridge est un jeu collaboratif et adversairial, très proche des problématiques que l’on rencontre dans la vie réelle. Il est à informations incomplètes, on ne connaît pas les cartes des adversaires, mais il faut pourtant prendre des décisions. Il y a aussi un élément d’explicabilité, puisque toute information qu’on transmet au partenaire doit être expliquée aux adversaires. Nous nous sommes donc lancés dans le développement d’un robot de bridge, ce que personne n’avait réussi à faire, bâti autour d’une IA, qui est à la fois explicable, qui met l’humain dans la boucle, et qui est frugale en énergie. Avec l’idée de la rendre utilisable pour des problématiques industrielles. »
En effet, on reproche souvent à l’IA son côté boîte noire prenant des décisions opaques, sans explication. Cela est dû notamment à l’approche Data Driven, à l’utilisation massive des réseaux de neurones et du Deep Learning depuis une dizaine d’années. « Ces méthodes sont très performantes lorsqu’il n’y a pas d’informations incomplètes, la reconnaissance d’images par exemple, mais ce n’est plus le cas dès qu’il y a une sémantique avec des informations abstraites au-dessus des objets que l’on veut traiter. C’est pourquoi il faut coupler ces méthodes numériques, basées sur les réseaux de neurones, avec d’autres, telle l’IA symbolique de plus haut niveau, en fonction de leurs apports respectifs potentiels face à la problématique posée. Une sorte d’IA hybride qui n’en sera que plus performante », explique Véronique Ventos.
De fait, mieux vaut oublier le grand fantasme où l’on donne à la machine toutes les données et où elle va être capable d’en extraire l’expertise qu’un humain aura mis des années à développer. C’est extrêmement coûteux et finalement, il y a beaucoup de domaines où c’est inefficace.
L’humain doit garder le contrôle
« Pourquoi ne pas entrer dans la machine les connaissances de l’expert sous-forme de règles quand elles existent ? C’est du snobisme de vouloir les retrouver à travers les données. Nous sommes pragmatiques, pour gagner du temps, on ne part pas de la page blanche. Grâce aux méthodes et outils que nous avons développés en utilisant de l’AI symbolique, on va capter la connaissance experte initiale, puis l’introduire sous forme de règles dans nos algorithmes. Ceux-ci vont produire de nouvelles règles complétant et affinant les règles initiales et les proposer à l’expert pour validation. C’est une boucle Humain-Machine-Humain, dans laquelle l’humain garde toujours le contrôle, ce qui est d’autant plus facile que l’IA symbolique apporte des recommandations avec des explications claires et concises dans le langage de l’utilisateur », explique quant à lui Jean-Baptiste Fantun. C’est très proche du cycle d’apprentissage humain, où l’adulte apprend à l’enfant, qui pose des questions à l’adulte.
« De fait, on part des règles du domaine, pas celles liées au problème, qu’on exprime avec l’expert grâce à des méthodes de Web sémantique. On décrit ainsi un vocabulaire qui va enrichir les Data et fournir par la suite des explications avec le vocabulaire de l’expert. Ensuite, on modélise et on fait tourner les algorithmes, sous le contrôle de l’expert qui valide, dans son langage, chaque nouvelle règle qui lui est proposée. Les règles validées seront utilisées lors des passes suivantes, tandis que les règles invalidées permettront à la machine de comprendre ce qu’elle a mal modélisée. C’est donc un mode semi-automatique où il y a une fertilisation croisée de l’homme et de la machine. Au final, c’est toujours l’humain qui prendra la décision, non parce qu’on lui aura dit ‘‘on a 98 % de chances de succès’’, mais parce qu’on va lui expliquer exactement, avec son vocabulaire, les raisons de la décision qu’on lui recommande », développe Véronique Ventos.
Une IA plus verte
Les algorithmes Data Driven consomment énormément d’énergie. A titre d’exemple, le robot de bridge développé par NukkAi, qui utilise des méthodes de Monte-Carlo optimisées avec des réseaux de neurones, consomme 200 000 fois moins en termes de CPU/GPU que le robot AlphaGo basé sur le Data Driven, développé par DeepMind pour résoudre le jeu de Go.
« Les méthodes numériques traditionnelles utilisent des formats tabulaires, c’est à dire qu’elles transforment tout le savoir de l’expert dans de petites cases, les Features, alors que nos méthodes permettent de représenter ces données avec de la logique du premier ordre, quelque chose qui est très expressif et qui décrit les problèmes à un niveau d’abstraction beaucoup plus haut. Ainsi, pour exprimer les règles du jeu d’échec sous la forme tabulaire, il faudrait 100 000 pages. Avec notre méthode, utilisant l’IA symbolique, ces règles sont décrites en une page ! », constate Véronique Ventos.
Des applications industrielles
Le premier secteur qui a utilisé les outils de NukkAI est la défense où la décision humaine reste incontournable. D’autant plus que les systèmes de combat modernes font appel à la collaboration de multiples plates-formes bardées de capteurs générant une multitude de données qu’il faut présenter sous forme très synthétique en temps réel au combattant, afin qu’il prenne les bonnes décisions. « C’est pourquoi nous avons développé depuis 2019 un partenariat étroit avec Thales, qui est très preneur d’applications d’IA hybride. Nous travaillons aussi avec Airbus et d’autres acteurs de l’aéronautique sur de la maintenance prédictive et de l’optimisation de chaïnes de montage. Ce qui nous a permis de développer des modules génériques propres à certaines applications, qui nous évitent de repartir de zéro à chaque fois. Il suffit juste d’entrer les expertises propres à la nouvelle application qui nous est demandée », dévoile Jean-Baptiste Fantun.
L’application de tels outils est aussi envisageable dans le domaine de l’ingénierie des produits. « Là aussi il va falloir recueillir l’expertise des concepteurs et récupérer les informations décrivant les produits déjà fabriqués, pour créer une base de connaissance ayant un certain niveau d’abstraction sur laquelle on pourra faire des requêtes intelligentes. On va ensuite encoder également de manière abstraite les nouveaux besoins et les comparer aux produits existants, pour proposer à l’humain des recommandations de haut niveau sur des bases de départ qu’il validera ou non. On va ainsi simplifier le travail amont du concepteur. », conclu Véronique Ventos.