L’accès aux outils d’Intelligence Artificielle s’est formidablement simplifié ces dernières années. L’émergence de ChatGPT et la multiplication des solutions d’IA génératives ont abouti à une prise de conscience de l’ampleur du phénomène. Que l’on y soit favorable ou pas, que l’on en soit déjà un adepte ou pas, force est de constater que le sujet est omniprésent, des discussions de bureau au débat public. En tant que manager, on ne peut pas rester insensible au phénomène. L’objet de cet article est de réfléchir aux postures à adopter pour intégrer l’IA dans notre quotidien.
Eviter les préjugés
Dans mon entourage proche, plusieurs personnes ont essayé de m’expliquer que l’IA n’allait finalement pas changer grand chose, que c’était peu fiable, imprécis. Ce serait un effet de mode, la conséquence de beaucoup de hype. J’ai aussi entendu (et lu dans la presse) les messages inverses, que d’ici quelques années de nombreux métiers auront disparus et qu’il était urgent de s’y préparer, pour l’adopter (ou à contrario s’y opposer)
En tant que manager, on peut se dire qu’une part importante de notre rôle est du ressort de « l’humain », et que dans ce cadre, l’intervention d’une machine ne sera jamais opportune. Mais cette vision des choses est trop réductrice. Comme le dit si bien Philippe Gabillier, « le manager est un professionnel de la performance de autres ». Cette performance passe par les compétences des membres de ses équipes et par les moyens mis en oeuvre pour mener à bien son activité. S’il y a une attitude managériale à éviter vis à vis de l’IA, c’est bien l’indifférence. Il est essentiel de se faire sa propre idée et de ne pas se cantonner à des idées reçues simplistes ou caricaturales.
Comprendre ce qui a changé
Comprendre les causes de l’explosion récente de ces technologies permet d’évaluer la tendance dans laquelle on se trouve. Ces changements récents sont dus à la combinaison de plusieurs facteurs concomitants.
- L’évolution des algorithmes d’apprentissages, les fameux réseaux de neurones qui permettent à un système d’informatique « d’apprendre » – sous réserve qu’on « l’entraine » sur une grande volumétrie de données. Ce sont les ingrédients du « machine learning ».
- L’évolution et l’adaptation de la puissance de calcul. L’essor du cloud et des « data centers » rend la puissance de calcul accessibles « à la demande ». De plus, les algorithmes de machine learning s’adaptent à merveille avec les solutions de calculs (comme les GPU de carte graphiques) développées depuis une bonne dizaine d’années pour miner les cryptomonnaies. C’est la raison pour laquelle des sociétés comme Nvidia connaissent une croissance rapide et bénéficient d’une valorisation boursière très élevée.
- La disponibilité des données numériques a permis à ces algorithmes de disposer de la matière nécessaire à l’apprentissage. Dans la pratique, les données brutes (le « big data » ou le contenu disponible sur l’internet) sont rarement suffisantes, et nécessitent un pré-traitement (par exemple pour indiquer qu’une photo de chien représente bien… un chien, et pas un autre animal).
Ce qu’il faut retenir, c’est que dans un monde de plus en plus numérique, le nombre de données disponibles va continuer de croitre. Et la capacité de calcul va elle aussi augmenter. On peut ainsi conclure que nous ne sommes encore qu’au début de l’ère de l’IA. Il n’est pas trop tard pour s’y intéresser, bien au-contraire. Le phénomène va s’accentuer et perdurer. Les évolutions à venir sont imprévisibles, aussi la meilleure attitude à adopter est de s’y intéresser de près, se documenter, et se former.
Se documenter, se former, pratiquer
La littérature abonde sur le sujet, et des supports d’introduction et même de formation sont facilement disponibles. Moyennant un minimum de précautions pour choisir ses sources, il est facile de trouver de quoi se familiariser sous de nombreux formats. Pour celles et ceux qui seraient encore novices, voici une suggestion de thèmes à appréhender:
- Comprendre – au moins grossièrement – comment fonctionnent les algorithmes d’apprentissage : leurs capacités, leurs limites, leurs contraintes.
- Comprendre la différence entre les familles d’algorithmes et de « modèles » – les spécialisés et les généralistes. Appréhender les caractéristiques des fameux « LLM ». Identifier ce qui les différencie des autres modèles.
- Apprendre à utiliser un LLM. Apprendre à peaufiner un contexte, à écrire des prompts qui donnent de bons résultats.
- Enrichir les réponses d’un LLM à l’aide de son propre contenu.
- S’approprier des ordres de grandeurs de taille, de performance, de cout des différentes technologies.
La formation doit s’accompagner de pratique. Et la pratique est accessible très facilement. Des versions gratuites existent et les abonnements mensuels sont vraiment raisonnables.
En conclusion :
La dimension « humaine » du management ne s’oppose en rien à la réalité de l’émergence de l’IA. S’il est peu probable qu’une IA soit un jour en mesure de manager des hommes, il est certain qu’elle va bouleverser la façon dont on travaille. Les idées reçues sur l’intelligence artificielle sont nombreuses et nul ne peut prédire précisément les évolutions à venir. Il est impossible d’anticiper les effets de la diffusion de l’intelligence artificielle dans le monde du travail, mais il est illusoire de penser qu’il n’y en aura pas. Il est donc nécessaire de s’y préparer, bien sur pour ne pas se faire dépasser, mais surtout pour saisir les opportunités qui vont se présenter. Ce sont des technologies très accessibles, bénéficiant de nombreux supports d’apprentissage et d’expérimentation. Le moment est venu de s’y mettre!
Cet article vous a plu ? Partagez sous Linked’In !
Photo : Gare Centrale, New York.