ACATIS - Pionnier de l'IA dans la gestion d'actifs
Dans le secteur de l'investissement, ACATIS compte en outre parmi les précurseurs en matière de recours à l'intelligence artificielle (IA). ACATIS mène depuis 2014 des recherches dans ce domaine en vue d’une utilisation dans la gestion de portefeuille. La première application pratique de l'intelligence artificielle chez ACATIS a eu lieu dès 2016.
ACATIS et la recherche
Depuis plusieurs années, ACATIS procède à des recherches dans le domaine de l’intelligence artificielle afin de l’utiliser pour la gestion de portefeuille. Nous avons commencé par des programmes d’analyse de textes, capables par exemple de rechercher des mots-clés spécifiques dans un rapport annuel.
Aujourd’hui, ACATIS travaille principalement avec des modèles d’apprentissage profond, une approche issue du domaine de l’apprentissage automatique. Ce type d’intelligence artificielle est comparable à un analyste expérimenté. Les analystes chevronnés sont des experts en reconnaissance de modèles : les analystes les plus aguerris ont probablement vu plus de 10 000 rapports annuels au cours de leur vie. Pour autant, un être humain ne peut traiter et se souvenir que d’un nombre limité d’indicateurs et de rapports dans le cadre de l’analyse et de l’évaluation d’une entreprise. L’intelligence artificielle, en revanche, connaît tous les rapports d’activité et n’est limitée au départ que par sa capacité de calcul. Le potentiel de l’IA s’accroît progressivement, alors que l’homme « stagne » à un certain niveau. De plus, l’IA est plus rapide, reconnaît plus de choses et va plus au fond des choses. Une IA ne ressent aucune émotion et ne se fatigue pas. Et chose particulièrement importante dans l’apprentissage automatique : le monde n’est pas linéaire, mais on y trouve des relations multidimensionnelles, c’est-à-dire non linéaires, qui tiennent également compte du passé. Inspirés du cerveau humain, certains modèles tiennent également compte de la capacité de mémorisation. On peut ainsi rechercher des modèles qui étaient par exemple particulièrement alarmants à la veille de la crise financière. Le cerveau humain, pour qui le présent est nettement plus présent que le passé, peut ainsi être déjoué. En revenant au passé, la machine peut détecter des signaux d’alerte que l’homme ne voit pas.
Les débuts de l’intelligence artificielle
L’intelligence artificielle (IA), Artificial Intelligence en anglais, en tant que domaine scientifique, est née en 1956 dans le cadre de la Conférence Dartmouth Summer Research Project à Hanover, New Hampshire, États-Unis. Des pionniers de la science de l’informatique comme Marvin Minsky s’y étaient réunis pour déterminer s’il était possible de créer des ordinateurs pensants. Leur demande de subvention stipulait : « [...] Il s’agit d’essayer de découvrir comment les machines peuvent être amenées à utiliser le langage, à faire des abstractions et à développer des concepts, à résoudre des problèmes du type de ceux qui sont actuellement réservés à l’homme, et à continuer de s’améliorer par elles-mêmes. […] ».* Les systèmes actuels d’IA apprennent effectivement leurs propres règles de manière autonome, mais ne peuvent accomplir qu’une tâche spécifique définie, aussi bien ou mieux qu’un être humain.
Apprentissage automatique
L’apprentissage automatique (machine learning) est un sous-domaine de l’IA dans le cadre duquel les machines apprennent à partir de données sans être explicitement programmées par une règle de causalité du type « si… alors… ». À cet égard, le mot clé est « apprendre ». Les modèles d’apprentissage automatique s’adaptent et améliorent leur performance en observant de manière répétitive les données et les réponses attendues ; tout comme le ferait un être humain. La machine se crée son propre corpus de règles pour accomplir une tâche prédéfinie. Une fois l’apprentissage terminé, la machine peut appliquer le savoir acquis à des données inconnues et nous fournir sa propre réponse. Pendant la phase d’apprentissage, il est important que les données ne soient pas stupidement apprises par cœur, sinon les nouvelles réponses de la machine ne seront pas utilisables avec des données inconnues.
Apprentissage profond
L’apprentissage profond (deep learning) est une méthode spéciale d’apprentissage automatique qui a fortement gagné en popularité depuis 2010. L’un des concepts les plus utilisés ces dernières années est celui des réseaux de neurones profonds (DNN), qui doivent leur nom à leurs multiples couches échelonnées en profondeur. Les corrélations et les modèles appris au niveau de ces couches deviennent de plus en plus complexes à mesure que la profondeur augmente. Dans les premières couches d’une reconnaissance d’image, les corrélations simples peuvent être des coins et des bords, tandis que dans les couches profondes, les corrélations précédemment apprises sont assemblées et des objets sont alors reconnus dans leur entièreté. Les modèles d’apprentissage profond sont d’ores et déjà capables de classer et de générer des images, de reconnaître et de traduire la parole, de diagnostiquer des maladies, de conduire une voiture ou de jouer à des jeux de société aussi bien ou mieux qu’un être humain. L’IA a déjà fait son entrée dans notre vie quotidienne.
*Source: https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html
Le succès de l’intelligence artificielle
Pourquoi l’intelligence artificielle ? Pourquoi maintenant ?
Pourquoi les bases de l’intelligence artificielle, déjà étudiées dans les années 90, n’ont-elles pas pu se transformer en succès notables dès cette époque, mais seulement dans les années 2010 ? Au cours des trois dernières décennies, les progrès techniques réalisés dans trois domaines ont conduit au succès de l’utilisation de l’intelligence artificielle :
1. Le matériel
La puissance de calcul des ordinateurs a augmenté de manière exponentielle, de sorte qu’on peut aujourd’hui entraîner de petits modèles d’intelligence artificielle sur un ordinateur portable équipé d’un processeur (CPU) courant. Cela aurait été impossible il y a 25 ans. Cependant, des entreprises telles que NVIDIA ou AMD ont poussé la recherche en IA à une échelle bien plus vaste en développant des processeurs graphiques (GPU) pour l’industrie des jeux vidéo. Un petit nombre de GPU remplaçant des grappes entières de CPU. À titre de comparaison, l’Universal Automatic Computer (UNIVAC) de 1951 effectuait 2 000 calculs par seconde et nécessitait un espace de 36 m2. Aujourd’hui, le DGX A100 de NVIDIA effectue 5 billiards de calculs par seconde et est en outre un peu plus maniable en termes de taille. Depuis longtemps, l’être humain ne peut plus rivaliser avec cette performance ; il lui faudrait effectuer un calcul chaque seconde pendant 160 millions d’années. Les champions du monde d’échecs ou les pilotes suent à grosses gouttes lorsqu’ils sont mis en compétition avec des machines.
Nous observons la même évolution que pour la puissance de calcul en ce qui concerne les capacités de stockage. En 1956, un disque dur avait une capacité de 5 mégaoctets et les dimensions d’un réfrigérateur. Aujourd’hui, une bonne photo prise avec un téléphone portable compte déjà un nombre de mégaoctets supérieur. Et une carte SD d’une capacité de stockage d’un téraoctet a la dimension du bout d’un doigt. La progression correspond à un facteur de 200 000.
2. Les données
La disponibilité des données (mot-clé Big Data) n’a cessé de progresser, notamment grâce à Internet. ImageNet, par exemple, est une base de données de 14 millions d’images qui est principalement utilisée par la recherche pour la reconnaissance d’images et pour un concours annuel faisant appel à l’apprentissage profond. ACATIS élabore depuis plus de 20 ans une base de données d’entreprises qui contient des données financières remontant jusqu’à l’année 1986. 50 000 entreprises représentant plus de 1 000 facteurs différents y sont traitées. Le traitement des données s’est simplifié. Auparavant, les données des entreprises étaient saisies manuellement dans l’ordinateur pour être ensuite analysées à l’aide de régressions. Aujourd’hui, nous alimentons nos modèles d’intelligence artificielle avec des données fournies de manière automatisée et à grande échelle par des fournisseurs de données.
3. Les logiciels
Ce n’est qu’avec une puissance de calcul et des données suffisantes que les modèles d’intelligence artificielle ont pu être entraînés non seulement en théorie, mais aussi dans la pratique. Ces dernières années, les algorithmes ont également été améliorés, ce qui a donc entraîné une amélioration des applications. En outre, une démocratisation des logiciels s’est produite. Alors qu’auparavant chacun programmait complètement son code de manière autonome, il existe aujourd’hui dans le langage de programmation Python des bibliothèques en accès libre telles que CUDA, PyTorch, TensorFlow ou Keras, ce qui a simplifié la recherche en intelligence artificielle. L’intérêt économique pour les résultats est allé de pair avec la croissance des succès. En 2013, par exemple, la startup d’intelligence artificielle DeepMind a été achetée par Google pour 500 millions de dollars. Aujourd’hui, ce ne sont plus seulement quelques centaines de scientifiques qui travaillent sur l’intelligence artificielle, mais des dizaines de milliers. Les principaux pays de recherche sont les États-Unis, le Canada et la Chine.

Source: www.statista.com; * Prévisions
Le modèle d’intelligence artificielle
Structure du modèle
Un modèle d’intelligence artificielle se compose de trois éléments et s’inspire du cerveau humain. Une couche d’entrée reçoit des données, plusieurs couches intermédiaires les traitent et la couche de sortie présente le résultat. Les différentes couches sont composées d’unités de calcul (les neurones) reliées entre elles par des connexions (les axones). Elles transmettent les informations et sont pondérées en fonction de ces informations. Le processus est complexe, très coûteux, et l’homme joue toujours le rôle décisif dans la définition de l’architecture du système. L’homme détermine les variables, les paramètres d’apprentissage, les sous-modèles, les fonctions cibles et les fonctions d’erreur et effectue les prétraitements ainsi que les transformations de données. La recherche d’erreurs lui incombe également. On ne peut pas se contenter d’introduire les données dans un modèle auto-apprenant, de s’asseoir tranquillement et d’attendre un beau résultat ; ça ne fonctionne pas ainsi.
Comment fonctionne l’apprentissage ?
Supposons qu’un modèle doive apprendre à faire la différence entre des chiens et des chats sur des images. Il faut d’abord avoir des exemples d’apprentissage ou d’entraînement. Un exemple d’apprentissage est une entrée de modèle. Il comprend une image avec un chien ou un chat et la réponse que le programmeur souhaite voir donnée par le modèle. Dans le cas présent, l’identification d’un chien ou d’un chat. Le modèle apprend à partir de ces exemples d’apprentissage corrects, grâce à des modifications progressives et répétées des pondérations au sein du modèle en fonction des erreurs que le modèle commet avec ces exemples d’apprentissage : un chien sera indûment identifié comme chat et vice-versa. Lors du processus d’apprentissage, il faut toutefois éviter que le modèle n’apprenne les images par cœur (overfitting), sinon il ne pourra pas être appliqué à de nouvelles images encore inconnues. Si vous souhaitez tester le fonctionnement d’une intelligence artificielle, vous pouvez le faire de manière ludique sur le site https://playground.tensorflow.org .
Comparaison entre l’informatique quantique et l’intelligence artificielle : un malentendu
Quelle est la différence avec une approche d’investissement quantitative ?
Un fonds d’investissement quantitatif met généralement en œuvre des règles simples, établies a posteriori par l’homme (par exemple par une analyse linéaire des données), appliquées de manière statique et généralement optimisées en fonction du moment. Les investissements factoriels partent même souvent d’un ratio dominant (série d’images du bas). En revanche, un modèle d’intelligence artificielle trouve de manière autonome des corrélations non linéaires et s’adapte de manière adaptative et auto-apprenante aux conditions du marché concerné, sans pour autant oublier le passé. Dans ce cas, l’homme ne dicte pas les règles. Les non-linéarités sont essentielles à la création de modèles. Les indicateurs les plus divers sont reliés entre eux dans quasiment n’importe quelles combinaisons. Les neurones des réseaux neuronaux se spécialisent par exemple dans la reconnaissance de certains détails qui sont ensuite intégrés dans une évaluation globale. Ainsi, un neurone peut établir une certaine corrélation entre un chiffre d’affaires et un bénéfice, tandis qu’un autre neurone réagira à un niveau particulièrement élevé de croissance, de marge et de part de marché. Ce n’est qu’au moment de l’interaction de tous les neurones que naît le modèle global.