Intelligence artificielle contre intelligence superficielle

La Tunisie ne peut pas se passer de l’intelligence artificielle (IA) malgré l’opposition farouche de son actuel président Kaïs Saïed. Le président fige sa rhétorique sur les limites éthiques de cette nouvelle technologie, faisant appel aux théories complotistes, comme toujours pour bloquer le changement, maintenir le statu quo. Ce faisant, il occulte (ou ignore) l’extraordinaire potentiel que peut générer cette nouvelle intelligence pour l’économie, l’innovation, les politiques publiques et les entreprises. De facto, il oppose l’intelligence superficielle à l’intelligence artificielle. Contre l’histoire et contre le bon sens.

Par Moktar Lamari *

Face à son veto présidentiel anti-IA, les médias tunisiens caressent dans le sens du poile et ne veulent pas créer des lèses majestés, et subir les foudres présidentielles. C’est grave, parce que c’est néfaste pour l’économie.

Les experts de l’IA en Tunisie, du moins ceux qui sont médiatisés, surfent hypocritement sur les généralités pour ne pas déplaire. Et surtout pour ne pas révéler les graves retards accumulés par la Tunisie en matière d’infrastructures collectives incontournables pour dompter l’IA et la mettre au service de la Tunisie : serveurs sécurisés, logiciels de pointe, réseaux à grande vitesse, centres de calcul, données massives, réseaux de partage en ligne, digitalisation, etc.

Je ne mettrai pas en doute les compétences individuelles tunisiennes en matière d’informatique, programmation et codage avancés. Plusieurs Tunisiens excellent et sont payés 200 000$ par an, chez Google, IBM, Meta, aux États-Unis et au Canada.

Les fondamentaux de l’IA

Le retard de la Tunisie dans les domaines informatiques et du logiciel sont d’ordre collectif et ayant trait aux carences des infrastructures informatiques, Pour comprendre les défis, revenons aux fondamentaux de l’IA.

L’intelligence artificielle est avant tout la capacité et la puissance des machines à effectuer des tâches intelligentes généralement effectuées par les humains.

Cela implique l’utilisation d’ordinateurs puissants, des bases de données massives, pour reproduire ou entreprendre de telles actions, souvent à une vitesse et une précision supérieures à celles obtenues précédemment.

L’IA combine généralement l’informatique avec les données massives pour résoudre des problèmes ou faire des prédictions.

Ses processus impliquent des algorithmes, qui sont une série de règles écrites dans du code informatique. Et qui sont désormais capables d’anticiper les causalités et les liens entre les phénomènes pour leur donner du sens et leur permettre de faciliter la décision. Des décisions cruciales : traitement médical en santé, la détection des décrocheurs en éducation, l’utilisation du meilleur engrais pour les plantes, etc.

L’IA stimule la productivité

Historiquement, l’IA a été utilisée pour effectuer des tâches mathématiques complexes, ou pour jouer à des jeux de stratégie tels que les échecs, battant souvent des concurrents humains.

En général, plus l’application est spécifique, plus une IA peut être efficace. Mais il y a des limites, y compris un biais dans les résultats, un coût élevé de la puissance de calcul et un manque de transparence sur les raisons pour lesquelles un système prend une décision particulière. Et le lien avec la productivité opère avec l’apprentissage automatique.

L’apprentissage automatique (ML) est une application de l’IA par laquelle les programmes informatiques peuvent automatiquement apprendre de nouvelles informations et s’y adapter sans être spécifiquement programmés pour le faire.

Les algorithmes peuvent détecter les modèles dans les données passées sur lesquelles un ordinateur est formé et faire des prédictions ou des recommandations sans instructions explicites de la part des humains.

Les programmes de blanchiment d’argent s’améliorent au fil du temps grâce à la formation, à l’apprentissage des expériences ou des erreurs passées, ainsi qu’à la détection de modèles dans les nouvelles données.

Le deep learning, un catalyseur du savoir

Le Deep Learning (DL) ou apprentissage profond est un sous-ensemble de ML qui résout des problèmes complexes, tels que la reconnaissance vocale ou la classification des images. Il encourage l’IA à apprendre grâce à des volumes élevés de données non structurées sur divers supports, y compris le texte, les images et les vidéos. Les modèles DL fonctionnent sur des logiciels appelés réseaux neuronaux, modélisés sur le cerveau humain.

La principale différence entre ML et DL est que ML nécessite la participation humaine pour comprendre les données et en tirer des leçons. DL peut ingérer des données non structurées sous une forme brute et distinguer la différence entre les différentes catégories de données.

Que sont les réseaux neuronaux ?

L’apprentissage profond utilise des réseaux neuronaux, qui sont des systèmes de traitement des données inspirés de la façon dont les neurones interagissent dans le cerveau humain. L’information entre dans le système, les neurones communiquent pour la comprendre et le système crée un résultat.

Par exemple, une IA pourrait reconnaître une figue de barbarie en identifiant plusieurs figues dans ses données. Il sera alors en mesure de repérer tous les nouveaux figuiers et cactus qu’il rencontrera. S’il tombe sur une pomme pour la première fois, il pourrait penser à tort qu’il s’agit d’un poirier. Mais plus il voit de pommes, mieux il sera capable de discerner une différence.

Les humains peuvent aider le jugement d’une IA en marquant la sortie comme correcte ou incorrecte – par exemple, en étiquetant les images de toute entrée de nouveaux légumes dans l’IA.

C’est le processus humain qui s’inscrit dans l’évolution des compétences. Et les humains n’ont attendu de tailler la dernière pierre pour sortir de l’âge de la pierre et entrer dans l’âge du bronze. Pourtant les opposants aux bronzes étaient nombreux, à leur époque.

Pour un pays infecté par le terrorisme comme la Tunisie, l’IA artificielle peut aider à identifier, dès le lycée, les jeunes qui peuvent ultimement devenir terroristes, et qui peuvent se faire exploser… pour ruiner l’économie de leur pays. Il suffit d’avoir les informations et la data massive requise dans les dossiers des élèves, couplées avec des données régionales, économiques, etc.

Comment fonctionne l’IA générative ?

L’IA générative prend de grandes quantités de données brutes – par exemple, l’ensemble des œuvres de Ibn Khaldoun – et on apprend sur les idées et propositions explicatives qu’elle contient, afin de générer la réponse correcte la plus probable lorsqu’on lui pose une question. Exemple: quels sont les déterminants de la déchéance des nations?

Autre exemple, si vous lui demandiez d’écrire une analyse économique au sujet de la Tunisie actuelle, l’IA utiliserait son apprentissage pour générer la séquence de mots clefs la plus probable, avec des chiffres, des explications plausibles et véridiques, comme on les trouve dans les bases de données.

L’IA vous dira donc l’ampleur des déficits, de la dette, de l’inflation… selon les sources et les années. Et là, vous pouvez ne pas attendre qu’un fonctionnaire fasse cette analyse pour vous, si vous étiez gestionnaire, parlementaire, ministre ou président. Vous pouvez même réduire le nombre de fonctionnaires et recherchistes dans les ministères.

Bataille des robots : GPT-4 et compétiteurs

Des modèles génératifs sont utilisés sur des données numériques depuis un certain nombre d’années. Mais, à mesure que l’apprentissage profond et le traitement du langage naturel sont devenus plus avancés, l’IA générative a été appliquée aux images, aux textes pdf, à l’audio, etc.

Le terme est devenu largement connu après que la société OpenAI soutenue par Microsoft a publié son chatbot ChatGPT en novembre, qui peut produire des paragraphes de texte semblables à des humains. GPT-4, le modèle d’IA derrière la technologie, a été formé sur des millions de sources de texte, y compris des sites web, des journaux et des livres.

L’IA générative marque un tournant dans le traitement du langage naturel – la capacité des ordinateurs à traiter et à générer du texte et d’autres supports basés sur le langage, y compris le code logiciel, les images et les structures scientifiques.

La langue arabe est hors jeu dans ce processus, l’anglais domine.

Les premiers exemples incluent GPT-4, le PaLM de Google, qui est utilisé dans son chatbot Bard, ainsi que l’IA de génération d’images, telle que DALL-E 2 et Midjourney.

Cet accent mis sur l’IA générative provoque un glissement vers des systèmes d’IA formés sur de grands ensembles de données non étiquetés, qui peuvent être affinés à des fins différentes, plutôt que vers des systèmes d’IA qui exécutent des tâches spécifiques dans un seul domaine.

La réduction de la nécessité d’étiqueter les données rend l’IA plus accessible, car les consommateurs ou les entreprises peuvent la déployer dans des circonstances différentes.

Que sont les grands modèles linguistiques ?

L’IA générative a tendance à s’appuyer sur de grands modèles linguistiques (LLM), un type de système d’IA qui fonctionne avec les langages et utilise des réseaux neuronaux. Les LLM sont le moyen actuel et de pointe de mettre en place des réseaux neuronaux à partir de la recherche.

Ils sont appelés «grands» modèles linguistiques car ils contiennent de grandes quantités de données. Les LLM d’aujourd’hui peuvent avoir des millions ou des milliards d’ensembles de données de plus que ceux formés il y a quelques années à peine, principalement en raison de l’augmentation de la capacité de calcul.

GPT-4, PaLM et le LLaMa de Meta sont tous des exemples de LLM. L’ajout de modèles linguistiques au moteur de recherche de Google, par exemple, a été ce que la société a appelé «le plus grand bond en avant des cinq dernières années, et l’un des plus grands pas en avant de l’histoire de la recherche».

Bien que le potentiel pour les LLM soit énorme, les ressources nécessaires à la conception, à la formation et au déploiement des modèles le sont aussi. Tous nécessitent de grandes quantités de données, d’énergie pour alimenter les ordinateurs et des talents en ingénierie.

Qu’est-ce que l’AGI ?

AGI signifie Intelligence générale artificielle – une IA capable du même niveau d’intelligence que les humains, ou d’un niveau encore plus élevé.

Jusqu’à présent, l’IA a été en mesure de surperformer les humains dans les tests standardisés, mais trébuche toujours avec les connaissances communes, ayant ce qu’on appelle des «hallucinations» où elle déclare les mensonges comme des faits. Des exemples de ces hallucinations incluent la création de fausses citations de livres ou la réponse «éléphant», lorsqu’on leur demande quel mammifère pond les plus gros œufs.

Cependant, Geoffrey Hinton, connu sous le nom de «parrain de l’IA», a déclaré que AGI pourrait être ici dans aussi peu que cinq ans. Lui et d’autres ont mis en garde contre les risques qu’un tel niveau d’IA pourrait poser à la société et à l’humanité. Ian Hogarth, un investisseur technologique et président du groupe de travail sur l’IA nouvellement créé par le gouvernement britannique, a récemment écrit un essai dans le Financial Times mettant en garde contre la course à l’AGI, ou comme il l’appelle «l’IA de type Dieu».

* Economiste universitaire.

Blog de l’auteur. Economics for Tunisia, E4T.

Donnez votre avis

Votre adresse email ne sera pas publique.

error: Contenu protégé !!