ai future

L’intelligence artificielle… vaste sujet !

En tant que fondateur de startup dans la #frenchtech et du #nocode orienté #workflow, j’ai toujours la tête dans le guidon pour transformer ma modeste structure en quelque chose… d’extraordinaire ?

Le produit Pickafom est au top des applications Cloud dans le domaine du #nocode – il est même au niveau de certains produits qui pèsent pourtant des milliards en bourse – et il est probablement le meilleur (bye bye « modestie ») dans la catégorie du #workflow décisionnel permettant d’optimiser les process de l’entreprise.

Mais étant localisé au milieu de l’Océan Indien sur une île paradisiaque – La Réunion – où l’éco-système de levée de fonds et de capital risque est quasi-inexistant, il faut engager 10 fois plus d’énergie pour avancer. On ne peut pas tout avoir : le soleil, les cocotiers, et les investisseurs à proximité !

Pour faire court, je suis occupé tous les jours jusque tard dans la nuit, et je n’ai pas de temps superflu pour poster ma vie et mes opinions sur les réseaux sociaux.

Jusqu’à aujourd’hui.

Je me décide à prendre la plume numérique pour évoquer un sujet qui, je le crois, est mal traité – et maltraité – par les médias de masse : l’Intelligence Artificielle.

L’intelligence artificielle mérite qu’on fasse (beaucoup) plus de bruit

Je vais tenter de traiter le sujet en deux parties :

1 – Je donnerai d’abord des exemples pour illustrer à quel point le domaine de l’IA va s’emparer du monde, à bas bruit.

2 – Je parlerai ensuite des problèmes de sécurité, d’éthique et de philosophie que cela soulève.

Vaste programme… donc je me forcerai à être aussi concis et factuel que possible, même si la matière sur le sujet me paraît infinie.

intelligence artificielle - perroquet approximatif - pickaform

Partie I – Pourquoi le grand public ne comprend pas du tout ce qui est en train de se passer

a – Le petit perroquet GPT 3.5 prend son envol

Car oui, presque tout le monde en a parlé, mais les débats que j’ai pu entendre étaient (presque) tous d’un niveau journalistique atterrant, sans aucun travail de recherche fourni, aucune vision, et peu d’information, voire, de la désinformation.

Entre les journalistes stupides – je pèse mes mots – qui se sont amusés à discréditer l’IA en montrant que ChatGPT avait eu de mauvais résultats au Bac de mathématiques 2023, et notre ministre du numérique ayant qualifié ChatGPT de « Perroquet approximatif », je suis inquiet.

D’abord, je m’étonne que la personne la plus haut placée en France pour juger de la stratégie d’un pays de 70 millions d’habitants ait si peu de vision et de compréhension du sujet.

La remarque de notre ministre est d’un niveau de niaiserie sidérant, navrant, inquiétant, triste… ou révoltant, aussi, car on aimerait tous voir au sommet de l’Etat français les personnes les plus qualifiées dans leur domaine.

Je ne suis pas spécialement pro USA – surtout quand ils écrasent le marché IT dans lequel j’essaie difficilement de me démarquer avec pickaform -, mais on peut leur reconnaître la clairvoyance de prendre l’IA bien plus au sérieux que chez nous : cette semaine, le Sénat américain a auditionné pendant près de 3 heures Sam Altman, le PDG de OpenAI, pour évaluer les mesures à prendre vis-à-vis de l’IA. Pour ceux qui ont le temps, je vous encourage vivement à écouter l’entièreté de l’audition, qui était d’une très grande qualité, aussi bien du côté des questions posées que des réponses apportées.

L’audition est disponible ici :

Aujourd’hui, nous assistons à la plus grande révolution de l’humanité, dans un silence médiatique assourdissant.

Le monde vient de se diviser instantanément en deux catégories :

  • les technophiles et les curieux, qui ont compris ce qui se passe, et qui suivent l’actualité semaine par semaine avec les neurones en flamme
  • les autres, qui n’ont comme information que la triste soupe qu’on leur donne à la TV et à la radio, où l’on fait intervenir des gens… qui parfois ne devraient pas intervenir du tout.

Le réveil va être difficile !

Pour commencer, posons le contexte.

ChatGPT, notre cher « perroquet approximatif« , a battu tous les records imaginables :

  • Netflix a mis 3 ans et demi à atteindre son premier million d’utilisateurs.
  • Airbnb, 2 ans et demi.
  • Twitter, 2 ans.
  • Facebook, 10 mois.
  • ChatGPT, 5 jours.

Le site lancé par OpenAI a reçu 150 millions de visites dans le mois de sa sortie en novembre 2022.

En avril 2023, soit seulement 5 mois plus tard, il reçoit 1,8 milliards de visites par mois.

Quand ChatGPT est sorti, Google a lancé une alerte en interne (« Code red »), car pour la première fois depuis des années, son business model était menacé.

Joli palmarès pour un simple « perroquet approximatif », cher monsieur le Ministre du Numérique.

Et j’arrêterai ici pour les statistiques car on pourrait continuer longtemps.

Mais surtout, le sujet est loin de s’arrêter ici.

artificial consciousness - pickaform

b – GPT 3.5, GPT-4…

Au départ, on joue avec ChatGPT.

C’est amusant, car il est encore un peu maladroit, ce qui nous permet de rire de ses maladresses.

Oui, bien sûr, il a des biais cognitifs, donc les internautes s’amusent à lui faire dire des choses un peu racistes, ou lui faire lister des sites interdits alors qu’il est théoriquement bridé par OpenAI. Les associations s’insurgent déjà… et OpenAI fait tout pour « wokiser » son IA, en vain…

Bref, on joue, on rigole bien, et puis on passe à autre chose, car les jouets, c’est amusant 5 minutes.

En mars 2023, GPT-4 sort.

L’IA passe déjà de 175 milliards de paramètres à environ 1000 milliards.

GPT-4 est multi-modal, c’est-à-dire qu’il ne comprend plus seulement du texte, mais il peut analyser des images, des sons, et on l’expérimente déjà sur des films.

Pendant que certains continuent de jouer, les plus malins ont déjà compris l’intérêt de l’IA et ont lancé des business pour exploiter ce nouvel Eldorado.

Mais surtout, les scientifiques du laboratoire de recherche de Microsoft (actionnaire principal de OpenAI) commencent à tester les capacités du nouvel algorithme et sortent un papier de 155 pages titré :

« Etincelles d’intelligence généraliste : premières expériences avec GPT-4″

Pour les personnes intéressées, l’étude complète est disponible à cette adresse :

https://arxiv.org/pdf/2303.12712.pdf

Pour ceux qui ne le savent pas, l’intelligence artificielle généraliste (désignée par AGI, pour Artificial General Intelligence) est le Saint-Graal des chercheurs en intelligence artificielle, car elle est, par définition, polyvalente (comme l’intelligence « naturelle ») au lieu d’être spécialisée comme les IA classiques, qui sont d’ailleurs très souvent des « systèmes experts » (c’est-à-dire entrainés dans un domaine précis, et inaptes pour tout le reste).

Soyons très clair : à ce stade, GPT-4 n’est pas encore qualifié d’AGI, et il en est encore loin.

Cependant, les « étincelles d’intelligence généraliste » dont il a fait preuve doivent constituer à mon sens un signal d’alarme très puissant sur les outils numériques que nous – humains – sommes en train de fabriquer pour notre civilisation.

Nous ne sommes ni plus ni moins qu’en train de créer une nouvelle forme d’intelligence en compétition avec nous...

…. si compétition il y a ! Car contrairement à l’intelligence dite « naturelle », la vitesse à laquelle les IA évoluent n’est pas contrainte par le cycle biologique des êtres humains.

loi de moore - pickaform

c – La Loi de Moore est déjà battue

Dans le domaine informatique, nous parlons souvent de la « Loi de Moore ». Il s’agit à la base d’une observation empirique formulée en 1965 par Gordon Moore, co-fondateur d’Intel. Elle postule que le nombre de transistors sur une puce électronique double approximativement tous les deux ans, ce qui entraîne une augmentation significative de la puissance de calcul et des performances des ordinateurs.

Comme la puissance double environ tous les 23 mois, il s’agit d’une loi exponentielle : un ordinateur de 1967 est environ deux fois plus puissant qu’un ordinateur de 1965. Celui de 1969 est donc 4 fois plus puissant que celui de 1965, celui de 1971 huit fois plus puissant… puis 16, puis 32, puis 64, puis 128, etc…

Il s’avère que cette approximation de Gordon Moore s’est avérée correcte jusqu’à ce jour.

Il s’est écoulé 58 ans entre 1965 et 2023, soit 29 cycles de 2 ans. Nos ordinateurs de 2023 sont donc approximativement 2 puissance 29 fois plus puissants que ceux de 1965.

C’est-à-dire environ 540 millions de fois plus puissants.

Tout cela pour dire quoi ?

Jusqu’à présent, certains chercheurs pensaient que la puissance des IA était correlée à la puissance de calcul des ordinateurs. C’est forcément vrai, mais il s’avère que ce n’est pas directement proportionnel.

Pour commencer, par l’inovation et la découverte de nouvelles architectures, la puissance des super-calculateurs a doublé environ tous les 14 mois ces dernières décennies :

https://www.discovermagazine.com/technology/ai-machines-have-beaten-moores-law-over-the-last-decade-say-computer

De même pour les IA : la découverte de nouvelles architectures ont fait bondir leur évolution de manière non linéaire.

Les architectures de type « GPT » (pour Generative Pre-trained Transformer) qui sont à l’origine de la révolution « ChatGPT » sont toutes issues d’un seul et unique papier scientifique datant de 2017, et intitulé « Attention Is All You Need« , disponible ici :

https://arxiv.org/pdf/1706.03762.pdf

Les IA disponibles dans un an seront peut-être 10 fois plus capables que celles d’aujourd’hui. Ou 1000 fois. Ou 100 000 fois ?

Personne ne peut sérieusement faire de prédiction fiable sur les comportements émergents de l’IA à ce stade d’avancement, et d’ailleurs, Sam Altman le confirme de manière transparente dans son audition.

C’est cette accélération exponentielle et potentiellement incontrôlée qui inquiétait fondamentalement le scientifique et physicien Stephen Hawking.

super intelligence - pickaform

d – L’accélération de ces derniers mois est phénoménale

A la page 40 de l’étude du laboratoire Microsoft Research, GPT-4 résout non seulement un problème de mathématiques de très bon niveau (bac +5), mais surtout il le fait avec une créativité qui pour le moment n’est pas expliquée par ceux qui ont conçu le système. Et GPT-4 démontre plusieurs fois cette créativité dans l’étude que je vous invite aussi à lire intégralement.

En février 2023, nous sommes donc déjà parvenus à un stade où les créateurs d’un système en sont réduits à émettre des hypothèses pour expliquer ce qui a pu générer des résultats aussi puissants, créatifs et inattendus.

Fin mars 2023, soit seulement 4 mois après la sortie de ChatGPT 3.5, un développeur sous le pseudo de « Significant Gravitas » se dit que, puisque ChatGPT est capable de lister les tâches nécessaires pour accomplir un objectif, ce serait amusant de faire en sorte que la liste des tâches soit elle-même confiée à plusieurs autres ChatGPT afin de les accomplir.

En ajoutant une mémoire collective des travaux effectués et des résultats produits, ce développeur isolé parvient à faire efficacement collaborer des IA pour atteindre des objectifs beaucoup plus complexes.

Il baptise sobrement son système « AutoGPT« .

Le code source est posté sur Github (site Internet où les développeurs peuvent partager leur code source) et donné à la communauté « as this » (juste comme ça), avec un disclaimer :

As an autonomous experiment, Auto-GPT may generate content or take actions that are not in line with real-world business practices or legal requirements. It is your responsibility to ensure that any actions or decisions made based on the output of this software comply with all applicable laws, regulations, and ethical standards. The developers and contributors of this project shall not be held responsible for any consequences arising from the use of this software.

Résultat : le 2 avril, son code source décolle et recueille 132 000 étoiles sur Github en 1 mois et demi.

Encore une fois, pour les non initiés, il faut savoir que les très gros projets opensource mettent des années à collecter des étoiles.

WordPress, le CMS opensource le plus répandu dans le monde a 17 500 étoiles. Strapi, le Headless CMS le plus à la mode a mis près de 6 ans à collecter ses 53 800 étoiles.

Il se passe donc ici quelque chose de notable.

Le mouvement des « agents autonomes » similaires à AutoGPT est alors lancé, et, en à peine 15 jours, on en compte déjà près d’une dizaine créés par divers développeurs sur la planète.

Plus de 100 000 développeurs travaillent actuellement avec des versions d’AutoGPT ou des variantes de cette IA installées sur leur machine.

Pendant ce temps, les grands acteurs comme Google, Apple, et Facebook continuent de travailler sur leurs propres IA à base de LLM (Large Language Model) pour rester dans la course : cette semaine, dans sa conférence annuelle, Google vient présenter Bard, une IA encore plus impressionnante que ChatGPT :

e – Les IA puissantes sont à la portée de tous

Toujours mi-mars 2023, le moteur d’IA de Facebook – baptisé LLaMA – fuite !

Fleurissent alors dans la foulée des séries de tutoriels YouTube sur la manière d’installer cette IA sur… un simple PC de bureau. Vous avez bien lu.

Contrairement aux idées reçues et à la grande surprise de beaucoup d’experts, faire tourner une IA aussi puissante que ChatGPT ou LLaMA ne demande par énormément de puissance.

Ce qui demande beaucoup de puissance de calcul, c’est uniquement la génération de la base de données avec les milliards de paramètres utilisés par l’IA.

Une fois cette base de données générée, ce ne sont que des données statiques exploitées par l’algorithme à grande vitesse.

Par exemple, la base de données contenant 7 milliards de paramètres pour alimenter LLaMA ne pèse que 64Go. Soit juste une grosse clé USB.

Que cela soit bien clair : aujourd’hui, en mai 2023, soit 6 mois seulement après l’apparition de ChatGPT, nous assistons quasiment chaque semaine à nouvelle évolution, et une IA aussi puissante que LLaMA tient dans votre poche, ce qui va nécessairement faire exploser à très courte échéance les IA embarquées.

What could possibly go wrong ?

ai vs human - pickaform
ai vs human – pickaform

2 – Considérations sur la sécurité, l’éthique, et la philosophie

Compte-tenu de ces éléments, il est temps d’en venir au coeur de la réflexion : 

A – la première réflexion concerne la sécurité de l’humanité et l’éthique autour de l’IA.

B – la seconde réflexion est d’ordre philosophique.

a – Ethique et sécurité

Pour ces deux premiers points – sécurité et éthique – nous, l’Humanité, avons déjà perdu.

Pour l’éthique, d’abord.

Une lettre ouverte signée par plus de 27000 personnes et scientifiques – y compris renommées dans le domaine de l’IA – a demandé un moratoire dans le développement, le temps de mettre à plat les règles du jeu.

Cette lettre que je vous invite à lire ici (https://futureoflife.org/open-letter/pause-giant-ai-experiments/) rappelle à juste titre que l’IA concerne l’avenir de toute l’humanité et ne devrait donc pas être déléguée à quelques « leaders technologiques non élus ». Des cabinets d’analyse estiment déjà que l’IA va détruire plus de 100 millions d’emplois dans le monde à très court terme, et cela, sur une simple décision unilatérale d’OpenAI de lâcher ChatGPT dans la nature en novembre 2022.

Bien entendu, il est bien trop tard pour un moratoire : la bombe a été lâchée par OpenAI, et Microsoft s’est déjà accaparé la technologie en l’intégrant à Bing – et bientôt tous ses produits. Google a déjà répliqué avec Bard, et l’histoire ne fait que commencer.

Des milliards de dollars sont en jeu dans une course qui est lancée de facto.

Aucun des grands acteurs technologiques ne renoncera à cette course, au risque de se faire reléguer au second plan par la concurrence. Donc ?

Donc l’éthique attendra.

Pour la sécurité, ensuite.

Contrairement à des armes nucléaires ou bactériologiques, il n’y a pas besoin de moyens financiers importants ou d’un laboratoire dernier cri pour travailler avec l’intelligence artificielle.

N’importe quel développeur peut désormais travailler sur les IA les plus à la pointe, sans aucune restriction, et quelle que soit la motivation.

Aucun gouvernement ne pourra désormais stopper ce mouvement, ni le réguler en légiférant.

Il fallait le faire bien avant que ChatGPT soit jeté sur le marché et crée l’étincelle.

Là aussi, nombreux sont ceux qui avaient tiré la sonnette d’alarme sur le sujet, et pas les moins intelligents (et je repense encore à Stephen Hawking).

Rien que dans le domaine de la cyber-sécurité, il faut comprendre que ChatGPT peut assister très facilement des hackers débutants en baissant considérablement la barrière des compétences nécessaires pour entrer dans la cyber-criminalité.

Dans le domaine du deep fake, Sam Alman lui-même a prévenu que nous allons assister à des fakes boostés aux stéroïdes : comprendre, des fakes de plus en plus nombreux et compliqués à identifier, au point que cela pourrait être un enjeu pour les prochaines élections américaines, selon lui.

Les IA sont désormais si à l’aise dans le langage naturel qu’il sera quasiment impossible de dépister les robots (les « bots ») sur les réseaux sociaux, et on peut facilement programmer des IA pour orienter et manipuler l’opinion.

Pourtant, bien que tout ceci puisse paraître important, le sujet principal n’est à mon avis pas ici.

b – Philosophie

En intelligence artificielle, il existe deux écoles de pensées radicalement opposées, exactement comme à l’époque des vitalistes et des physicalistes.

La première école considère que les IA seront toujours faibles, la seconde que les IA pourraient un jour devenir fortes.

Je vais tenter de vulgariser ces deux termes autant que possible pour les non initiés.

Une IA dite « faible » est une simple simulation informatique.

En clair, même si cette IA est extrêmement puissante et vous donne totalement l’illusion que vous êtes en train de discuter avec un être vivant et doué d’émotions, cela n’est que simulé : ce ne sont que de simples calculs informatiques, avec des « sorties » (le comportement de l’IA) qui répondent à des « entrées » (les stimuli).

L’IA faible ne fait donc que traiter des informations, sans y mettre aucun sens, ni aucune émotion, ni avoir conscience de ce qu’elle fait. C’est juste une très belle machine à calculer.

A l’inverse, l’IA dite « forte » se comportera exactement comme l’IA faible en apparence, à la différence que le traitement de ces milliards d’informations fera émerger une conscience, de la même manière que le traitement des milliards d’informations dans un cerveau humain fait émerger une conscience.

A ce jour, le débat reste philosophique puisque même si une IA parvenait à ce stade, nous n’aurions aucun moyen de savoir ni de tester si elle « simule » une conscience, ou bien si elle a réellement pris conscience.

Ces deux écoles de pensée ont chacune leurs arguments en faveur de leur hypothèse (IA « faible » ou IA « forte »).

Le PDG de Facebook, Mark Zuckerberg, est par exemple du côté de l’IA faible : son discours a donc toujours été très rassurant sur le fait que les IA seront toujours des entités contrôlables, et au service de l’humanité. De belles machines, utiles.

A l’inverse, Stephen Hawking qualifiait l’IA de « Civilization destroyer« . Inutile de traduire, je pense.

Il émettait l’hypothèse que les mêmes causes produisent les mêmes effets : à partir du moment où personne n’est capable aujourd’hui d’expliquer clairement comment le réseau de neurones humain produit la conscience, alors cela signifie que personne ne peut garantir avec certitude qu’un réseau de neurones artificiels ne produira pas une conscience artificielle.

Quoiqu’il en soit, le train est lancé à grande vitesse, et l’humanité devra s’adapter.

La société OpenAI propose déjà de scanner nos iris contre une récompense financière en crypto-monnaie (article ici) afin de créer une plateforme d’identité numérique absolue, sur fond d’IA. Les lecteurs de SF et cinéphiles apprécieront le clin d’oeil à 1984 et à Minority Report. On pourrait aussi s’amuser à évoquer ce que pourrait faire l’armée avec des IA embarquées dans des robots de Boston Dynamics. Là, c’est plutôt du côté de Terminator qu’il faudra aller chercher l’inspiration.

Ce monde de fiction est en train de se rapprocher de nous à grande vitesse, et pour le moment, les médias n’en parlent pas à la hauteur de ce qui est en train de se passer.

Conclusion

Malgré tout cela, il ne s’agit pas pour moi de faire un article alarmiste.

Cet article se veut informatif et à l’intention de ceux qui ne font pas l’effort de suivre cette révolution jugée « trop technique ». Cette révolution – car il s’agit bien d’une révolution, et pas d’une simple évolution – mérite toute notre attention de citoyen, si nous ne voulons pas juste subir l’usage de l’IA que les grandes multinationales – ou gouvernements malintentionnés – ont prévu pour nous.

A toutes les époques, des révolutions technologiques ont bouleversé la manière de vivre des humains.

Le feu… l’électricité… le nucléaire… la génétique… l’Internet… et désormais, l’IA.

Je suis confiant dans le fait que l’humanité saura s’adapter, mais cette fois-ci, il faudra s’adapter plus vite que d’habitude. En bon fan de science fiction, j’ai toujours rêvé que l’IA puisse un jour atteindre ce niveau de puissance, mais cela ne me semblait possible qu’à un horizon très lointain.

J’ai depuis toujours été passionné par l’IA, j’ai choisi et fait une école dans ce domaine, je suis son premier utilisateur au quotidien, et non seulement l’IA me fait gagner énormément de temps dans mon métier, mais en plus elle m’encourage à sortir de ma zone de confort, car je sais qu’elle pourra m’aider à chaque étape de ma progression. Aujourd’hui, je la considère pleinement comme mon second cerveau.

J’ai déjà intégré l’IA dans pickaform, et je vais continuer de chercher des usages qui permettent à mes clients de gagner du temps.

Si je devais m’essayer à une métaphore un peu simpliste, ce serait celle-ci : un humain qui creuse avec ses mains creuse doucement. Si on lui donne une pelle, il creusera 100 fois plus vite. Mais si on lui apprend à conduire une pelleteuse, il va creuser 10 000 fois plus vite.

Il faut considérer que l’intelligence artificielle est la pelleteuse de l’intelligence. Elle génère un effet de levier colossal pour quiconque souhaite s’en emparer et l’utiliser.

L’IA peut aussi être un puissant allié de l’humanité dans la résolution de problèmes complexes, comme l’amélioration des technologies pour limiter les émissions de CO2, la production beaucoup plus rapide de nouveaux médicaments, la travail de recherche accéléré sur le cancer ou les maladies orphelines, le développement de nouvelles énergies alternatives aux énergies fossiles, et, pourquoi pas, la découverte de nouvelles solutions pour améliorer le partage des richesses ?

En clair, l’IA est un joyau de technologie très prometteur dans tous les domaines de la matière grise. Il ne reste qu’à en faire bon usage… et si possible la prendre au sérieux en ne la traitant pas de perroquet approximatif 🙂

Pour conclure tout ceci, il est important de comprendre que l’IA n’est pas un sujet traité à la mesure de son importance : même si l’IA existe depuis très longtemps, les avancées récentes constituent une réelle révolution qui va transformer nos sociétés, détruire des emplois et en créer d’autres, augmenter les risques dans certains domaines (et les diminuer dans d’autres), transformer l’art dans presque toutes ses formes, accélérer la recherche dans presque tous les domaines, … et on pourrait continuer la liste.

S’il est trop tard pour arrêter ou même pour freiner le mouvement, il est important de continuer à se tenir informé et de se préparer aux changements. Quant à la naissance d’une conscience artificielle ? Nous verrons bien !

Bien à vous.

PS : à l’exception de la photo de Gordon Moore, toutes les images de cet article ont été générées par une intelligence artificielle.