états et toutes les circonstances (peut-on représenter le «
feeling
» ?), des
problèmes de capacité mémoire et de puissance de calcul se poseront.
La démocratisation des ordinateurs et le rôle fondamental joué par Internet
en matière de multiplicité des sources et de volume des données ont permis le
retour en force des réseaux de neurones. Mais un autre élément très important,
lié à la puissance de calcul a fait son apparition à peu près au même moment.
Jusqu’en 2001 on utilisait essentiellement les CPU (Central Processing Units)
pour faire tourner les algorithmes sur les ordinateurs.
Les CPU ont
typiquement 1, 2, et jusqu’à 12 cœurs qui peuvent faire toutes sortes de
calculs très rapidement. Dès les années 1970, on a pensé à utiliser des
coprocesseurs pour y déporter les tâches d’affichage, relativement simples
mais gourmandes en ressources car à effectuer en parallèle, pour ne pas
surcharger le CPU. Les GPU (Graphics Processing Units) sont alors apparus
pour gérer des écrans
avec de plus en plus de pixels, de plus en plus de
couleurs, de plus en plus de fonctionnalités, comme la 3D, devenant des
processeurs massivement parallèles avec des milliers de cœurs fortement
spécialisés. En 2001, les scientifiques ont commencé à vouloir utiliser les
GPU pour des calculs matriciels pas toujours liés à l’affichage, mais il n’y
avait pas de moyens simples d’accéder aux ressources des GPU. Il a fallu
attendre 2006
que Nvidia, le leader des fabricants de GPU, mettent à
disposition des programmeurs la librairie CUDA pour accéder à ces fonctions.
La communauté des réseaux de neurones, gourmande en calcul matriciel
fortement parallèle, n’a eu besoin que de peu de temps pour s’apercevoir
qu’utiliser une telle architecture permettait des gains de performances
énormes pour des réseaux de plus en plus complexes, ouvrant les portes de la
discipline à une nouvelle forme d’apprentissage, l’apprentissage profond, le
«
Deep Learning
» (DL). L’adaptation du matériel aux spécificités des
algorithmes de ML («
Machine Learning
») et DL et à leurs infrastructures ne
faisait que commencer, et en 2016 Google a sorti un nouveau type de
processeurs, les TPU (Tensor Processing Units), spécialisés dans son outil
d’apprentissage automatique, TensorFlow. Depuis 2007, donc, les capacités et
méthodes de calcul disponibles ayant considérablement augmentées, l’IA
revient en force et avec elle, son lot de promesses malheureusement
irréalistes. Les oiseaux de mauvais augure qui nous prédisent
un monde
délirant où les robots prendraient le pouvoir et nous domineraient, ou ceux qui
nous font miroiter un monde dans lequel l’intelligence artificielle résoudrait
tous nos problèmes, nous racontent tous n’importe quoi et risquent de porter
la responsabilité de ce troisième hiver de l’IA qui nous guette aujourd’hui. À
cause d’eux, soit par peur, soit par dépit, nous risquons de voir les recherches
et avancées en
Machine Learning
et
Deep Learning
être stoppées en plein
élan, alors que nous n’en sommes qu’aux balbutiements de ces domaines.
Tout ça à cause d’un malentendu autour du nom même donné à la
discipline, qui n’a, comme on l’a vu, rien à voir avec de l’intelligence. Je
soutiens que l’intelligence artificielle n’existe pas. Si nous devons garder cet
acronyme, l’IA ne doit plus signifier « intelligence artificielle », mais
« intelligence augmentée ». C’est ce terme que j’emploierai dorénavant dans
ce livre, en vous expliquant pourquoi. Mais prenons quelques instants pour
faire un peu d’histoire…
Do'stlaringiz bilan baham: