Le domaine de l’IA est devenu en quelques mois une véritable conversation de bistrot où le verbiage et le blabla sont autant de mise dans les productions IA que quand on en parle.
L’IA est mise à toutes les sauces et on peut même parier que le « slope content » finira par tout submerger et même dégoûter les gens qui peut-être reviendront à des échanges HUMAINS (voir à ce sujet le doc d’Arte: l’IA va-t-elle tuer Internet) .
Linkedin est devenu un alibaba du blabla. Les grosses sociétés se ruent vers l’IA avec des armées de consultants dont certains à peine sortis de l’école affichent sur leurs CVs 10 ans d’expérience IA :-))) . Des cabinets de conseils ou formateurs IA dont le RCS est encore chaud entrent dans des multinationales comme dans un moulin (Finies les obligations de CA minimum, d’années d’existence, de passage par les achats, etc..) et le joueur de flûte de Hamelin semble être devenu le modèle de prestataire idéal pour des acheteurs encore si sérieux et exigeants il y a quelques mois. Les dépenses de consultants explosent sans que rien de concret ne soit mis en place. Patrons, DSI et « métiers » s’affrontent pour le plus grand bonheur des marchands de sable.
Même les banques sont dans le tourbillon du rien en achetant des milliers de licences Copilot sans savoir qu’en faire et en remplaçant leurs « chatbots » qui marchaient plus ou moins par des trucs IA qui tournent en rond comme des derviches tourneurs (cf chez Boursobank l’exemple de Bourso IA à la place d’Eliott).
Une des plus grandes arnaques est de renommer IA des systèmes anciens ou de leur ajouter une simple couche tout en prétendant avoir créé quelque chose de nouveau.
Si les principes théoriques de l’IA existent depuis des dizaines d’années, il faut pourtant bien distinguer ce qui a été fait et continue d’être fait par des ALGORITHMES, des HEURISTIQUES et la différence avec l’INTELLIGENCE ARTIFICIELLE.
Les algorithmes
Qu’est-ce qu’un algorithme ?
Google est votre ami:
Un algorithme est une suite finie d’opérations élémentaires, à appliquer dans un ordre déterminé, à des données. Sa réalisation permet de résoudre un problème donné. Exemples : suivre une recette de cuisine, suivre un plan, faire une division euclidienne à la main sont des exemples d’algorithme.
Des millions d’opérations et de « miracles », en informatique classique, sont le fait d’algorithmes.
Les heuristiques
Vous comprendrez facilement que quand l’usage de l’informatique explosa et donc ce qu’il fournissait aussi (bel exemple de mouvement prédisant des économies de travail et même la fin de certains et qui en fait, en créa + …), il fallut trouver des moyens, des méthodes pour aller plus vite ou gérer + de données que ne pouvaient le faire les algorithmes.
Là surgit le concept d’heuristique.
Google est encore votre ami: Une heuristique est une règle générale ou une stratégie qui peut guider votre recherche d’une solution ou d’une réponse. Contrairement à un algorithme, une heuristique ne garantit pas un résultat correct ou optimal, mais elle peut vous aider à en trouver un suffisamment bon ou satisfaisant dans un délai raisonnable. Par exemple, si vous souhaitez trouver l’itinéraire le plus court entre deux endroits, vous pouvez utiliser une heuristique qui choisit toujours la route la plus proche de votre destination. Une heuristique peut être basée sur l’intuition, l’expérience ou le bon sens.
Et donc énormément de programmes, de tâches, de merveilles réalisées par les ordinateurs le furent et le sont par des algorithmes et des heuristiques. Les OS, les ordinateurs d’échecs des années 80 (qui battaient déjà 90% des joueurs, cf Mephisto, etc..), les ERP, les OCR, etc.. étaient basés sur des algorithmes et heuristiques.
De « simples programmes », basés sur des algorithmes et heuristiques pour des choses incroyables
Si on prend l’exemple de Mephisto, (https://fr.wikipedia.org/wiki/Mephisto_(jeu_d%27%C3%A9checs) , et spécialement le modèle Brikett, sorti en 80-81, il affichait un niveau de 1600 à 1800 Elo selon les versions et la cadence alors que:
- les processeurs étaient extrêmement limités (8 bits) ;
- la mémoire était minuscule ;
- il n’y avait ni GPU ni apprentissage moderne ;
- tout devait être optimisé à la main avec des moteurs écrits presque entièrement à la main par les programmeurs.
Les ordinateurs d’échecs Mephisto étaient surtout basés sur :
- des algorithmes de recherche ;
- des heuristiques d’évaluation ;
- et une optimisation extrêmement poussée du code.
Ce n’était pas de l’IA moderne apprenante.
2ème exemple avec les OCR. Les OCR n’étaient pas de l’IA et ne sont pas de l’IA sauf quand ils fonctionnent en couple.
Cherchons encore dans Google: La reconnaissance optique de caractères (OCR) est une technologie qui convertit le texte imprimé en données lisibles par machine. Elle numérise les documents et reconnaît les caractères, les transformant en texte numérique modifiable, consultable et exploitable. Cette technologie peut être appliquée aux factures, aux cartes d’identité, aux relevés bancaires, etc. L’OCR repose sur des algorithmes prédéfinis qui reconnaissent les lettres, les chiffres et les symboles en les comparant à une base de données interne. Pour extraire les données, elle suit des règles d’analyse syntaxique issues de modèles prédéfinis ou personnalisées par l’utilisateur. C’est ainsi qu’elle convertit le texte imprimé en données numériques.
Bien sûr, l’IA est maintenant accouplée aux OCR pour fournir des produits qui vont par exemple attribuer ce que reconnait l’OCR a une facturation, un devis, un contrat, etc..
Et l’IA dans tout ça ?
Pour résumer les années 80 et même 90, on avait:
| Élément | Importance |
|---|---|
| Algorithmes classiques | Très forte |
| Heuristiques | Très forte |
| IA moderne apprenante | Quasi absente |
| Apprentissage automatique | Très limité |
| Réseaux neuronaux | Expérimental et marginal |
Que s’est il passé ?
En fait pendant longtemps, l’idée dominante était que pour rendre une machine intelligente, il faut lui écrire les règles de l’intelligence.
C’était l’approche des années 60 à 90 avec des systèmes experts, des règles heuristiques, une logique symbolique.
Le problème, c’est que cette approche marche mal dès que le monde devient complexe. Par exemple, un humain reconnaît un chat instantanément mais écrire toutes les règles exactes pour reconnaître un chat est quasiment impossible :
- formes ;
- angles ;
- lumières ;
- couleurs ;
- postures ;
- arrière-plans.
Les heuristiques explosent rapidement en complexité.
L’idée a été de se dire qu’il fallait que la machine apprenne les règles elle-même à partir des données.
Par exemple, au lieu de décrire un chat pour le reconnaître, on montre des millions d’images de chats à la machine et on la corrige et les algorithmes ajustent automatiquement les paramètres du modèle.
En d’autres mots, au lieu d’apprendre à une enfant une langue en apprenant le vocabulaire, la grammaire, etc.. on montre des milliers de situations et l’enfant identifie ensuite les mots et phrases à dire selon le contexte et la situation qu’il assimile à ce qu’il a déjà vu.
Ces idées existent depuis la nuit des temps (Après tout on applique aux machines ce qu’on fait dans l’apprentissage humain) mais nous n’avions pas la puissance de calcul (Cf Nvidia), les données, les protocoles/processus mathématiques pour faire ingérer tout ça à des bêtes machines et bien sûr l’argent pour monter tout le truc (Rappel: pour l’instant, toute l’industrie IA perd de l’argent …).
Quand ces éléments sont arrivés, l’IA a pu percer.
En 2012, un réseau neuronal appelé AlexNet explose les performances en reconnaissance d’images. L’industrie comprend alors que les réseaux neuronaux profonds fonctionnent réellement et qu’ils peuvent dépasser les approches heuristiques classiques.
Ensuite tout s’est accéléré dans les domaines de la vision, voix ou de la traduction, génération de texte, etc.. et donc IA générative.
En 2017, est arrivée l’architecture Transformer qui est la base de ChatGPT, Claude, Gemini.
Pour briller dans les cocktails, le papier fondateur s’appelait « Attention Is All You Need » et pour comprendre de quoi il s’agit: https://fr.wikipedia.org/wiki/Transformeur
C’est ce mécanisme qui permet aux modèles modernes de comprendre le contexte, relier des mots éloignés, générer du texte cohérent, raisonner partiellement sur de longues séquences.
Le passage des « algorithmes + heuristiques » à l’ « IA moderne » vient surtout du fait qu’on a arrêté d’utiliser DIRECTEMENT les algorithmes et les heuristiques pour régler les problèmes comme dans l’informatique classique.
Avec l’IA « moderne », une partie importante des algorithmes sert plutôt à :
- apprendre les règles ;
- ajuster les règles ;
- optimiser les règles ;
- créer un modèle capable ensuite de résoudre des problèmes.
Les algorithmes servent à créer et améliorer des systèmes capables d’apprendre eux-mêmes à partir d’énormes quantités de données et de calcul.
Oui mais
Il n’en reste pas moins que pour quantité de besoins des sociétés et particuliers, l’IA à vrai dire n’est pas nécessaire et qu’algorithmes ou heuristiques suffisent.
La vague actuelle d’IA est donc souvent du pipeau, une simple couche « marketing », du « branding » pour faire croire à la modernité et justifier des prix exorbitants de services et prestations alors qu’en réalité, fonctionnent ou peuvent fonctionner sans problème les mêmes roues et moteurs qu’avant.
Encore pire ou comique, selon le point de vue, l’IA peut être beaucoup moins efficace qu’un bon vieil algorithme ou une heuristique qui résolvait parfaitement le problème, voir même que des humains (exemple typiques avec les SAV où les minutes à l’IA coûtent + cher qu’en centre d’appel classique).
C’est comme quand les tablettes et livres électroniques sont arrivés.. En fait un bon livre en papier reste largement plus pratique et facile à lire, à prêter ou revendre…




Laisser un commentaire