L'intelligence artificielle n'existe pas



Download 0,71 Mb.
Pdf ko'rish
bet35/58
Sana31.01.2022
Hajmi0,71 Mb.
#420771
1   ...   31   32   33   34   35   36   37   38   ...   58
Bog'liq
L’intelligence artificielle n’existe pas ( PDFDrive )

L’explicabilité
Pour contrer les arguments de tous ceux qui nous racontent que les
méchants robots vont prendre le pouvoir sur nous, il faut comprendre
comment fonctionnent l’IA et la programmation de tous ces robots. Il faut
pouvoir prouver que nous, humains, gardons la main sur cette programmation,
et que nous pouvons à tout moment expliquer ce qui se passe. L’IA est une
discipline complexe avec de multiples ramifications. Si aujourd’hui, on parle
essentiellement de Machine Learning, en particulier de sa branche de Deep
Learning, tout a commencé avec des systèmes experts et des moteurs de


règles. En gros, on disait « s’il se passe ça, il faut faire ça », « s’il fait chaud,
allume la clim ». C’était logique, trivial à expliquer. Il n’y a pas
d’inexplicabilité dans ces systèmes parce que tout est fondé sur des
algorithmes, qui sont juste une suite d’instructions logiques pour faire
comprendre un objectif à une machine. Si traduire cela en « langage
machine » était au départ un peu rébarbatif, les langages de programmation
ont très vite permis de représenter ces commandes en quelque chose de plus
proche du langage naturel.
Le langage de la machine est binaire, des 0 et des 1 qui permettent d’activer
des micro-fonctions de façon séquentielle. Comme on l’a vu, de Jacquard à
Babbage, jusqu’aux débuts de l’informatique moderne dans les années 1940,
on utilisait des cartes perforées pour faire passer les instructions, c’est-à-dire
programmer les machines. Cela permettait de s’adresser directement aux
cœurs du processeur, mais quand ceux-ci ont commencé à se complexifier,
cette représentation purement binaire n’était plus pratique, et on a trouvé le
moyen de faire passer plus d’informations en même temps à la machine en lui
envoyant des vecteurs d’instructions binaires regroupées par huit, les octets.
L’utilisation de la base 16, l’hexadécimal, a été décidée pour représenter au
mieux ces octets, et on pouvait maintenant passer beaucoup plus
d’informations à la machine. Même si ça continuait à être très rébarbatif pour
les programmeurs, ce « langage machine », appelé « assembleur » permettait
de contrôler complètement l’électronique des ordinateurs. Ce n’est que dans
les années 1960 que des langages plus abstraits sont apparus et ils continuent
à se développer aujourd’hui. Au début, on écrivait les programmes dans un de
ces langages, que ça soit du C, du Fortran ou du Basic, et on faisait alors
passer ces lignes d’instructions dans un compilateur pour les transformer en
instructions binaires, et c’est le résultat obtenu qu’on faisait exécuter dans les
machines. Aujourd’hui, les machines étant plus puissantes, on va utiliser une
petite partie de leurs capacités de calcul pour la consacrer à l’interprétation de
ces langages de haut niveau, comme le Java, en instructions élémentaires.
Quelle que soit la méthode utilisée, on comprend bien qu’il est difficile de
décrire toutes les finesses d’un jeu d’instructions élémentaires dans un
langage de haut niveau, c’est pour cela qu’on voit toujours apparaître de
nouveaux langages qui allient plus de lisibilité et plus d’instructions. Mais
c’est aussi pour cela que les gens comme moi aiment bien utiliser
l’assembleur pour s’adresser au plus profond de la machine, pour pouvoir
parfois lui faire faire des choses qui sont impossibles à expliquer en langage
de haut niveau. Mais il faut reconnaître que ces langages ont permis la


démocratisation de la programmation et les langages interprétés, une
gratification immédiate qui n’était pas possible dans le passé. Le but d’un bon
programmeur aujourd’hui est de trouver pour son application le meilleur
langage, le meilleur algorithme possible et les instructions qui seront les plus
efficaces pour mener à bien son projet. De façon combinatoire, il y a des
millions de façons de faire, et trouver le chemin idéal est très stimulant.
L’optimisation des ressources est un enjeu, mais quelle que soit la route
empruntée, l’explicabilité de ce type de programmation est toujours complète.
Avec le Machine Learning, en particulier quand on utilise le big data, on
introduit des notions statistiques sur des quantités massives de données. Si les
systèmes basés uniquement sur les statistiques sont relativement faciles à
expliquer mathématiquement, les systèmes à base de réseaux de neurones
méritent quant à eux un peu plus d’explications. Pour simplifier à l’extrême,
en ce qui concerne la reconnaissance des formes par exemple, on peut se les
représenter comme un réseau malléable de points, à plusieurs dimensions.
Lors de la phase d’apprentissage, les points prennent des valeurs de
paramètres représentatifs des objets qu’on cherche à reconnaître et épousent
une forme moyenne pour chaque classe d’objets. Lorsqu’on présente un objet
au réseau entraîné, un calcul de distance est effectué pour chaque paramètre
de l’objet avec ceux des différentes classes, la plus courte distance donnant la
plus forte probabilité d’appartenance de l’objet à l’une des classes. Aussi
compliqué que cela puisse paraître, tout cela relève de calculs géométriques
relativement simples que l’on peut mettre sous forme d’équations
mathématiques totalement explicables.
Pour le Deep Learning, qui utilise des réseaux de neurones, c’est le nombre
de couches de neurones, le nombre de neurones par couches et les équations
qui régissent les relations entre les couches et qui en augmentent la
complexité. Les paramètres de certaines couches devenant des attributs qui
semblent totalement étrangers aux objets qu’on cherche à reconnaître, et les
chemins menant aux résultats devenant pratiquement impossibles à suivre, il
est difficile de croire qu’on puisse expliquer ce qui se passe. Les prophètes de
l’inexplicabilité se servent de cette opacité pour faire peur aux gens et les
infantiliser. Mais je prendrai ici à témoin Yann LeCun, aujourd’hui
responsable de l’IA chez Facebook, considéré comme l’un des pères du Deep
Learning, qui dit lui-même qu’il n’y a pas d’inexplicabilité, et que si on se
donne du mal, on peut expliquer toutes les étapes et le raisonnement menant à
un résultat.


Pour expliquer qu’il faut parfois se donner du mal, l’histoire du
mathématicien français Gaston Julia est éclairante. Il est l’inventeur des
fractales, qui sont des équations mathématiques récursives ayant pour
propriété particulière de décrire des formes géométriques qui, à n’importe
quel degré de calcul à laquelle vous les regardez, vous permettent de retrouver
l’image précédente. Si vous prenez l’image d’une courbe de Julia et que vous
la regardez de loin, vous voyez une espèce de courbe qui ressemble à une
fougère. Si vous isolez ensuite une partie de l’image et que vous la regardez à
la loupe, vous verrez la même fougère que celle que vous aviez vu sans la
loupe. Et si vous continuez comme ça, vous verrez encore et toujours une
fougère. Gaston Julia a découvert cette équation, et surtout sa propriété
récursive en 1914, sans ordinateur. Comment a-t-il eu l’idée de calculer ça,
mais surtout comment l’a-t-il visualisé ? Cela reste une énigme qui dépasse
l’entendement pour nous, êtres humains normaux ! Parce qu’à chaque niveau
de récursion, il faut faire des milliers de calculs pour voir une image. Sa
découverte, de par la quantité astronomique de calculs à effectuer, n’était
guère explicable pour l’essentiel. C’est plus de quarante ans plus tard, en
1955, que Benoît Mandelbrot fut crédité de l’invention des fractales. Il avait
été élève de Julia à l’École polytechnique à Paris, mais surtout il a eu accès à
un ordinateur lorsqu’il a rejoint IBM, ce qui lui a permis de visualiser très
facilement la récursivité des « ensembles de Julia » devenus, après une légère
modification, « ensembles de Mandelbrot », et de les expliquer à un plus
grand nombre. Comme Gaston Julia à l’époque, certains peuvent aujourd’hui
expliquer ces algorithmes de Deep Learning en prenant le temps nécessaire.
Ça demande beaucoup d’efforts, mais peut-être qu’un jour, nous trouverons
des techniques de représentation qui permettront de rendre l’explication
évidente. L’explicabilité est importante parce qu’elle apporte la confiance. Si
on est capable d’expliquer pourquoi et comment on fait les choses, ça enlève
le côté magique. On comprend que c’est fondé sur un raisonnement, des faits
et un chemin logique. Il n’y a donc plus rien d’irrationnel, annihilant les peurs
qui y sont associées.

Download 0,71 Mb.

Do'stlaringiz bilan baham:
1   ...   31   32   33   34   35   36   37   38   ...   58




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish