Pourquoi l’avenir de l’intelligence artificielle en hybride ?

Publié: 2023-10-13

Au cours des dernières semaines, la multitude de nouveaux produits et capacités d’IA générative – de ChatGPT à Bard et de nombreuses variantes d’autres construits autour de grands modèles de langage (LLM) – a créé un cycle de battage médiatique excessif. Cependant, nombreux sont ceux qui affirment que ces modèles généralisés ne conviennent pas à une utilisation en entreprise. La plupart des moteurs d’IA montrent des signes de difficultés lorsqu’on leur assigne des tâches spécifiques à un créneau ou à un domaine. L’IA hybride pourrait-elle être la réponse ?

Qu'entendons-nous par intelligence artificielle hybride (IA hybride)

L'IA hybride est l'expansion ou l'amélioration des modèles d'IA en utilisant l'apprentissage automatique, l'apprentissage profond et les réseaux neuronaux ainsi que l'expertise humaine pour développer des modèles d'IA spécifiques à un cas d'utilisation avec la plus grande précision ou potentiel de prédiction.

L’essor de l’IA hybride répond à de nombreuses préoccupations importantes et légitimes. Plus que des modèles d’IA construits sur de grands ensembles de données sont nécessaires dans de nombreux scénarios ou domaines pour un bénéfice maximal ou une création de valeur réelle. Par exemple, considérons que ChatGPT soit invité à rédiger un rapport économique long et détaillé.

L'adoption ou l'amélioration du modèle avec des connaissances spécifiques au domaine peut être le moyen le plus efficace d'atteindre une probabilité de prévision élevée. Pour y parvenir, l'IA hybride combine les meilleurs aspects des réseaux de neurones (modèles et formateurs de connexions) et de l'IA symbolique (dériveurs de faits et de données).

IA symbolique : un élément clé de l’IA hybride

Les LLM d'aujourd'hui présentent plusieurs défauts, notamment des performances insuffisantes dans les tâches mathématiques, une propension à inventer des données et une incapacité à expliquer comment le modèle produit des résultats. Tous ces problèmes sont typiques des réseaux neuronaux « connexionnistes », qui dépendent de notions sur le fonctionnement du cerveau humain.

Ces problématiques sont typiques des réseaux de neurones « connexionnistes », qui dépendent de notions de fonctionnement du cerveau humain.

L’IA classique est également appelée IA symbolique. Il tente d’exprimer clairement les connaissances humaines sous une forme déclarative, comme des règles et des faits interprétés à partir d’entrées « symboliques ». C'est une branche de l'IA qui tente de relier les faits et les événements à l'aide de règles logiques.

Du milieu des années 1950 à la fin des années 1980, l’étude de l’IA symbolique a connu une activité considérable.

Dans les années 1960 et 1970, les progrès technologiques ont incité les chercheurs à étudier la relation entre les machines et la nature. Ils croyaient que les techniques symboliques aboutiraient à terme à une machine intelligente, ce qui était considéré comme l'objectif à long terme de leur discipline.

Dans ce contexte, John Haugeland a inventé la « bonne vieille intelligence artificielle » ou « GOFAI » dans son livre de 1985, Artificial Intelligence: The Very Idea.

La méthode GOFAI est la mieux adaptée aux problèmes inertes et est loin d’être adaptée aux problèmes dynamiques en temps réel. Il privilégie une définition restreinte de l’intellect comme un raisonnement abstrait, alors que les réseaux de neurones artificiels donnent la priorité à la reconnaissance de formes. Par conséquent, cette dernière méthode « connexionniste » ou non symbolique a récemment pris de l’importance.

Comment fonctionne l’IA non symbolique ?

La genèse de l’intelligence artificielle non symbolique est la tentative de simuler le cerveau humain et son réseau complexe de connexions neuronales.

Pour découvrir des solutions aux problèmes, les systèmes d’IA non symboliques s’abstiennent de manipuler une représentation symbolique. Au lieu de cela, ils effectuent des calculs basés sur des principes dont il a été prouvé empiriquement qu’ils résolvent des problèmes sans d’abord comprendre précisément comment parvenir à une solution.

Les réseaux de neurones et l’apprentissage profond sont deux exemples d’IA non symbolique. L'IA non symbolique est également connue sous le nom d'« IA connexionniste ». Plusieurs applications d'intelligence artificielle actuelles sont basées sur cette méthodologie, notamment le moteur de transition automatisé de Google (qui recherche des modèles) et le programme de reconnaissance faciale de Facebook.

Entrez dans l’IA hybride

Dans le contexte de l’intelligence artificielle hybride, l’IA symbolique sert de « fournisseur » à l’IA non symbolique, qui gère la tâche réelle. L'IA symbolique offre des données de formation pertinentes de ce point de vue à l'IA non symbolique. À leur tour, les informations transmises par l’IA symbolique sont alimentées par des êtres humains – c’est-à-dire des vétérans de l’industrie, des experts en la matière, des travailleurs qualifiés et des personnes possédant des connaissances tribales non codées.

Les recherches sur le Web sont une utilisation populaire de l’IA hybride. Si un utilisateur saisit « 1 GBP en USD », le moteur de recherche détecte un défi de conversion de devise (IA symbolique). Il utilise un widget pour effectuer la conversion avant d'utiliser l'apprentissage automatique pour récupérer, positionner et exposer les résultats Web (IA non symbolique). Il s’agit d’un exemple fondamental, mais il illustre comment l’IA hybride fonctionnerait si elle était appliquée à des problèmes plus complexes.

Selon David Cox, directeur du Watson AI Lab du MIT-IBM, l’apprentissage profond et les réseaux de neurones prospèrent dans le « désordre du monde », contrairement à l’IA symbolique. Cependant, comme mentionné précédemment, les réseaux de neurones et l’apprentissage profond ont leurs limites. En outre, ils sont sensibles aux instances hostiles, qualifiées de données contradictoires, qui peuvent influencer le comportement d’un modèle d’IA de manière imprévisible et potentiellement dommageable.

Cependant, lorsqu’ils sont combinés, l’IA symbolique et les réseaux de neurones peuvent constituer une base solide pour le développement de l’IA en entreprise.

Pourquoi utiliser l'IA hybride dans les environnements d'entreprise ?

Les problèmes commerciaux avec des données insuffisantes pour entraîner un réseau neuronal étendu ou lorsque l'apprentissage automatique standard ne peut pas gérer tous les cas extrêmes sont les candidats parfaits pour la mise en œuvre de l'IA hybride. Lorsqu'une solution de réseau neuronal peut entraîner une discrimination, un manque de divulgation complète ou des problèmes liés au surajustement, l'IA hybride peut être utile (c'est-à-dire s'entraîner sur une quantité de données telle que l'IA a du mal dans des scénarios du monde réel).

Un bon exemple est une initiative d’IA de Fast Data Science, une société de conseil en IA. L’objectif est d’évaluer les dangers potentiels d’un essai clinique.

L'utilisateur envoie à la plateforme un document PDF détaillant le plan de réalisation d'un essai clinique. Un modèle d'apprentissage automatique peut identifier les caractéristiques essentielles de l'essai telles que le lieu, la durée, le numéro du sujet et les variables statistiques. Les résultats du modèle d'apprentissage automatique seront incorporés dans un modèle de risque créé manuellement. Ce modèle symbolique convertit ces paramètres en une valeur de risque, qui apparaît alors sous la forme d'un feu de signalisation signalant un risque élevé, moyen ou faible pour l'utilisateur.

L’intelligence humaine est essentielle pour spécifier une règle raisonnable et logique permettant de convertir les données protocolaires en valeur de risque.

Une deuxième illustration est le moteur de recherche de Google. Il s'agit d'un système d'IA sophistiqué et complet composé d'outils d'apprentissage profond révolutionnaires tels que des transformateurs et de mécanismes de manipulation de symboles tels que le graphe de connaissances.

Quels sont les défis ?

Aucune technique ou combinaison de techniques ne résout tous les problèmes aussi bien ; il est donc nécessaire de comprendre leurs capacités et leurs limites. L’IA hybride n’est pas une solution miracle, et l’IA symbolique et non symbolique continuera d’être une technologie puissante à part entière. Le fait que la compréhension des experts et le contexte de la vie quotidienne soient rarement lisibles par une machine constitue un autre obstacle. Le codage de l’expertise humaine dans les ensembles de données de formation à l’IA présente un autre problème.

La plupart des organisations ne parviennent pas à reconnaître pleinement les obstacles cognitifs, informatiques, liés à la production de carbone et financiers qui découlent du placement du fouillis complexe de nos mondes vécus dans un contexte que l’IA peut comprendre. Par conséquent, le calendrier de mise en œuvre significative de l’IA pourrait prendre beaucoup plus de temps que prévu.

La voie à suivre

Les initiatives en matière d’IA sont notoirement problématiques ; seul 1 pilote et prototype sur 10 aboutit à des résultats significatifs en production.

Les entreprises progressistes sont déjà conscientes des limites des modèles d’IA monomodes. Ils sont parfaitement conscients de la nécessité d’une technologie polyvalente, capable d’approfondir les données stockées, moins coûteuse et beaucoup plus facile à utiliser.

L’IA hybride apporte des solutions à certains de ces problèmes, mais pas à tous. Puisqu’il intègre l’IA symbolique et le ML, il peut utiliser efficacement les avantages de chaque approche tout en restant explicable, ce qui est vital pour des secteurs comme la finance et la santé.

Le ML peut se concentrer sur des éléments spécifiques d'un problème pour lesquels l'explicabilité n'a pas d'importance, tandis que l'IA symbolique parviendra à des décisions en utilisant un chemin transparent et facilement compréhensible. L’approche hybride de l’IA ne fera que devenir de plus en plus répandue au fil des années.