L'intelligence artificielle n'existe pas



Download 0,71 Mb.
Pdf ko'rish
bet26/58
Sana31.01.2022
Hajmi0,71 Mb.
#420771
1   ...   22   23   24   25   26   27   28   29   ...   58
Bog'liq
L’intelligence artificielle n’existe pas ( PDFDrive )


PARTIE
L
E
 M
ALENTENDU
La Conférence de Dartmouth
Tout est parti d’un immense malentendu. La genèse de l’intelligence
artificielle se situe en 1956, lors de la fameuse conférence de Dartmouth au
cours de laquelle des scientifiques, qui étudiaient la théorie des automates
introduite par Alan Turing une vingtaine d’années auparavant, se sont mis à
penser qu’il pouvaient recréer dans des machines les mécanismes du cerveau
humain. Les objectifs de la conférence étaient extrêmement ambitieux et
avaient été formulés en ces termes avant qu’elle commence :
« Nous proposons qu’une étude de deux mois sur l’intelligence artificielle soit
menée pendant l’été 1956 au Dartmouth College à Hanovre, New Hampshire.
L’étude, qui s’intéressera à chaque aspect de l’apprentissage ou à toute autre
caractéristique de l’intelligence, décrira avec précision toutes les étapes
qu’une machine pourra alors simuler. On tentera de trouver un moyen pour
que les machines utilisent le langage, forment des abstractions, des concepts
et résolvent des problèmes qui sont maintenant réservés aux humains. Nous
pensons que des avancées significatives peuvent être réalisées sur un ou
plusieurs de ces problèmes si un groupe de scientifiques soigneusement
sélectionnés y travaillent ensemble pendant tout l’été. »
Cette toute première apparition du terme « intelligence artificielle » mise au
crédit de John McCarthy, l’un des organisateurs de la conférence et signataire
de ce programme, a alors été acceptée par tous. Mais les résultats du groupe
de travail ont été bien loin des ambitions affichées, car s’ils ont permis de
faire quelques progrès dans ce qui deviendra plus tard les systèmes experts, ils
n’ont en rien déterminé les étapes pour simuler l’intelligence. L’emploi du
terme « intelligence » pour cette discipline est de fait une vaste fumisterie, car
il est basé sur des vœux pieux qui sont bien loin de la réalité. Les efforts pour
essayer de copier le fonctionnement du cerveau humain ne faisaient pourtant
que commencer. En 1957, Frank Rosenblatt
12
a inventé un algorithme
d’apprentissage appelé le perceptron, qui prétendait simuler au plus près les
fonctions d’un neurone. Cette invention a d’ailleurs déclenché toute une


excitation autour des réseaux de neurones (
Neural Networks
), qui sont
aujourd’hui encore l’une des bases de l’apprentissage des machines, le
« 
Machine Learning 
» (ML). Le but initial du perceptron était de classifier
des images. Mais il peut être généralisé à toutes sortes de signaux perçus
(vision, toucher, odorat, etc.) en fonction des caractéristiques qui les
décrivent. Il suffit d’assigner des poids aux diverses valeurs fournies par des
capteurs et de définir une fonction liant tous ces paramètres pour classer les
résultats. Comme il s’agit d’apprentissage supervisé, on fait apprendre au
système quelques exemples connus qui définissent la fonction. Une fois le
système entraîné, le signal présenté à son entrée est interprété par la fonction
qui donne, en sortie, la probabilité d’appartenance à une des classes définies.
Pour simplifier à l’extrême, si on définit un paramètre « nombre de pattes »
assumant qu’on ait dans le système un détecteur de pattes, et un autre « a des
écailles » et qu’on ait un détecteur d’écailles. Pendant la phase
d’apprentissage, on donne alors en entrée des instances de chiens et de
serpents, définissant les classes recherchées en sortie, et la fonction
convergera alors vers ce qu’on appellera un modèle. Lorsqu’on présente
ensuite un chien au système, il est probable qu’il le classifie correctement
parmi les chiens, même chose pour les reptiles. Mais si on lui présente un
crocodile, les probabilités seront plus proches du 50/50. Ce cas précis étant
trivial, il aurait pu être traité par un système à base de règles, aussi appelé
système expert, car l’arbre de décision est simple. Mais les réseaux de
neurones introduisent les statistiques qui permettent de mieux gérer les
ambiguïtés, faisant sortir la machine du monde vrai/faux, 0/1 dans laquelle on
la cantonnait jusque-là. En revanche, ça ne la rend toujours pas intelligente,
car tout ce que les fonctions font est de ressortir ce qu’on leur a appris, dans le
domaine spécifique de cet apprentissage. Avec le perceptron, on parlait en
dizaine de neurones, alors qu’en ce qui concerne le cerveau, on parle de
100 milliards de neurones. Donc, dès le départ, la donne était biaisée. Le
perceptron et les réseaux de neurones n’ont rien à voir avec notre cerveau.
C’est une vue de l’esprit, une belle abstraction, mais nous ne savons même
pas comment fonctionne notre cerveau aujourd’hui. Cette simplification a fait
croire à pas mal de monde qu’il y avait une sorte d’équivalence entre cette
technologie et l’intelligence. Les gens se sont excités dans tous les sens en
espérant le grand soir. Le problème, c’est que tout ça reposait sur des
croyances, et que le soufflé est retombé d’un coup.
Périodiquement, les gens qui travaillent sur l’intelligence artificielle, mais
surtout ceux qui en attendent des résultats, se découragent parce qu’ils peinent


à y voir des avancées significatives. Et c’est à ce moment-là qu’une
mystérieuse hibernation se produit : dans sa courte histoire, l’intelligence
artificielle a déjà connu deux hivers, phénomènes plus connus sous le nom de
« AI Winter ». Le premier s’est produit au tout début des années 1970, après
plus de dix ans d’échecs de l’IA à essayer de résoudre des problèmes liés au
langage, à la traduction automatique et à la difficulté de représenter des
problèmes complexes avec les réseaux de neurones simplistes de l’époque. Le
second épisode a eu lieu à la fin des années 1980. L’IA est en effet revenue à
la mode à cette époque grâce à l’essor des ordinateurs personnels. On s’est dit
alors qu’on allait disposer d’une plus grande puissance de calcul, et du coup,
on s’est de nouveau mis à croire à un ordinateur intelligent grâce à des
réseaux de neurones plus complexes. Plus de paramètres, plus de couches
dans les réseaux, tout ça permettait d’affiner les résultats. C’est aussi avec
l’avènement de l’ordinateur omniprésent qu’on a vu apparaître une initiative
importante au Japon, la « 

Download 0,71 Mb.

Do'stlaringiz bilan baham:
1   ...   22   23   24   25   26   27   28   29   ...   58




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish