webleads-tracker

Le journal de l'éco -

Édition Puy de dôme

Conseil, Audit, Expertise

Marc Halévy : pour démythifier l’intelligence artificielle

Marc Halévy : pour démythifier l’intelligence artificielle

L’algorithmie positive et utile …

Ce que l’on appelle si abusivement « Intelligence Artificielle » (les fleurs artificielles ne sont pas des fleurs, donc …) résulte de la rencontre entre des ordinateurs mécaniques, parfaitement stupides, mais doués d’une énorme puissance mémorielle et computationnelle, avec une méthode de résolution de problèmes très ancienne – mais très lourde – qui est la méthode algorithmique.


Ordinateurs …

Quelque soit l’adjectif plus ou moins journalistique qu’on y accole, comme « neuronal » ou « quantique » (alors que ces mots sont largement inappropriés), un ordinateur est une machine analytique, déterministe et mécanique (pardon pour le pléonasme, mais on n’insiste jamais assez !) composé de réseaux connectés d’éléments possédant deux (ou plusieurs) états stables.

Dès lors que quelque chose possède une nombre fini d’états stables toujours pareils, et qu’il est possible, moyennant une impulsion précise d’énergie, de le faire basculer d’un état connu vers un état certain, ce quelque chose peut servir de base technique à un type particulier d’ordinateur.

Ensuite, il suffit de donner, conventionnellement, une valeur (numérique, souvent, comme 0 ou 1 pour les éléments binaires) à chacun de ces états stables, et l’ordinateur devient, potentiellement, un calculateur. Lorsqu’un élément binaire passe de l’état 0 à l’état 1, on dit, par convention toujours, que l’on a réalisé une opération booléenne : 0+1=1 (l’état 0, excité par 1 impulsion, donne l’état 1) ou son inverse : 1+1=0 (l’état 1, excité par 1 impulsion, donne l’état 0).

La technologie informatique tend à relever deux défis :

Augmenter la puissance mémorielle c’est-à-dire la capacité de mémorisation dans le volume le plus petit possible (aux dires récents de Gordon Moore, fondateur d’Intel et père des trois lois portant son nom, il n’y a plus beaucoup de progrès techniques à attendre de ce côté-là) ;
Augmenter la puissance computationnelle, c’est-à-dire la capacité de calcul en jouant sur trois paramètres : la vitesse de circulation des impulsions énergétiques entre les éléments (c’est la piste des nanoélectroniques), la vitesse de basculement d’un état de l’élément dans un autre (c’est la piste dite « quantique »), et le nombre d’états stables utilisables pour chaque élément (c’est la piste dite parfois « neuronale »).

Algorithmes …

Le grec nous dit que l’algorithme (algos et arithmos) est un « calcul pénible ». Un algorithme est un programme processuel ; il modélise un processus. Il exprime une recette qu’on pourra dupliquer et réitérer autant de fois que nécessaire. Un boulanger ne réinvente pas le pain chaque matin ; il en maîtrise l’algorithme par dosage, pétrissage, levage, enfournage à la température idoine pendant la durée adéquate, etc …

Un algorithme, initialement, est une recette. Rien de plus. Une séquence d’opérations élémentaires, soumises à des paramètres précis, ordonnés selon un ordre précis. Comme la recette du pain, un algorithme peut être amélioré, varié, imité, complété, corrigé … et devenir extrêmement sophistiqué comme pour les pains spéciaux ou d’autres produits très élaborés de boulange.

Dès Euclide, la notion d’algorithme symbolique était connue (mais pas sous ce nom) pour la résolution de problèmes mathématiques comme la recherche du plus petit commun dénominateur, la preuve par neuf, la construction d’un triangle rectangle ou équilatéral, d’un hexagone ou d’un pentagone, etc …

Depuis Descartes, les méthodes  objectales (on s’y intéresse plus aux objets qu’aux processus), ont pris le dessus, sous la forme des méthodes analytiques cartésiennes ou, beaucoup plus récemment, des méthodes holistiques systémiques. Depuis que l’on s’intéresse aux effets de complexité où les méthodes objectales sont inopérantes (un système complexe n’est jamais un assemblage d’objets élémentaires, mais est toujours le fruit d’un processus de déploiement et d’accomplissement par émergence), les méthodes algorithmiques sont revenues sur le devant de la scène il y a quelques vingt ans. Elles servent à simuler (et non pas à représenter ou à modéliser) des processus complexes comme, par exemple, la façon dont les fourmis cherchent et trouvent le chemin le plus court entre la fourmilière et le dépôt de nourriture.

La vénalité américaine s’est, bien sûr, assez vite emparé d’elles pour simuler les processus d’achat et, ainsi, doper les ventes des gros sites commerciaux ; plus généralement, les méthodes algorithmiques ont été appliquées pour simuler, statistiquement, les comportements grégaires et rudimentaires des humains (mais on perçoit, déjà là, un réel danger de manipulation des masses peu enclines à l’esprit critique et à l’autonomie comportementale).

Une fois que l’on a bien compris le principe général de la méthode algorithmique, il est facile d’en imaginer des usages plus sophistiqués comme d’appliquer un algorithme de niveau N aux statistiques de résultats obtenus par un algorithme de niveau N-1. On appelle cela les systèmes auto-apprenants (ou deep-learning en anglais).

Au sujet des algorithmes, deux points doivent être bien compris

Primo : ce sont des méthodes de simulation et rien d’autre : l’ordinateur ne « sait » pas ce qu’il fait et n’a aucune « conscience » de rien. Au poker, le système algorithmique ne « bluffe » pas ; il simule un bluff parce qu’il a été programmé pour simuler ce comportement et que sa base statistique lui fait calculer quand activer son programme « bluff ». Un ordinateur fait juste ce que son programme lui dit de faire et se contente d’additionner des 0 et des 1, le plus stupidement du monde. Même si, par hasard, au travers de paramètres aléatoires, un ordinateur venait à « cracher » un résultat génial, il ne pourrait jamais s’en rendre compte ; la notion de « génie » n’est pas algorithmisable et requiert un regard humain.

Secundo : la seule intelligence qui résulte du croisement des algorithmes humains et de la puissance computationnelle des ordinateurs, n’a absolument rien d’artificiel et est tout entière contenue dans les seuls algorithmes conçus par des hommes. Un ordinateur restera, à jamais, une mécanique absolument stupide.

Conclusion …

Les puissances des ordinateurs rendent désormais possibles l’usage de la méthode algorithmique pour la simulation comportementale de processus complexes. C’est une révolution très positive tant pour la recherche scientifique que pour les applications économiques. Mais, de grâce, cessons d’appeler cela de « l’intelligence artificielle ».

En revanche, ne laissons plus à la Californie le monopole quasi mondial des développements de l’algorithmie. Il est impérieux et prioritaire de créer et de faire vivre un Institut Européen d’Algorithmie, comme la Chine est en train de le développer de son côté.

Retrouvez les chronique de Marc Halévy

Les-chroniques-de-marc-halevy



Une rubrique de libre opinion du Journal de l’éco

A lire également

Si vous avez aimé cet article,
partagez le !