Texte de la conférence du Docteur Cyril Couffe

 

Intelligence Artificielle et conséquences sur le travail : comment repérer et faire grandir les compétences cognitives-clés chez les décideurs, managers, et collaborateurs de demain ?

 

Cet article fait suite à une conférence organisée par le Rotary club de Brioude et présentée par Cyril Couffe, directeur de la chaire « Talents de la transformation digitale » à Grenoble Ecole de Management. Cette chaire, en partenariat avec Orange/Orange Consulting, Tessi, Socomec et E’nergys, œuvre à mieux comprendre, anticiper et apporter des solutions aux conséquences de la transformation numérique de notre société.

 

Nous vivons aujourd’hui un changement de paradigme sociétal qui s’accélère de plus en plus au fur et à mesure des inventions dans le domaine numérique. Cette révolution, qui certains appellent la 4ème révolution industrielle, est notamment poussée par les nouvelles façons de collecter et d’utiliser les données afin d’en extraire du sens et de la valeur. C’est pourquoi, aujourd’hui, nos existences « s’hyper-numérisent » à la fois dans la sphère privée et professionnelle, faisant émerger des nouvelles façons de vivre notre rapport à l’autre et au travail. Néanmoins, ces bouleversements s’accompagnent de nombreuses questions brûlantes. Notamment, quelles seront leurs conséquences sur le marché de l’emploi ? Comment s’assurer que nous ne transmettons pas de compétences rendues obsolètes par les évolutions technologiques, autant sur les bancs de l’école que dans les formations en entreprise ?

Cette révolution est la conséquence de deux facteurs très liés : la production systématisée de données et l’invention de techniques automatisées qui les traitent, dont fait partie l’Intelligence Artificielle. Depuis les années 1970, nous avons en effet assisté à une généralisation du stockage des données. D’abord, celles-ci étaient inventoriées, répertoriées et rangées de façon très structurée, mais assez rapidement le volume et la diversité des données disponibles ont amené à des regroupements de plus en plus importants et moins organisés. Le progrès technologique a notamment contribué à cet élan grâce à l’augmentation de la capacité de stockage et la baisse drastique de leur coût. Selon une récente étude, en 1980, afin de stocker 1 gigaoctet d’informations, il fallait débourser pas moins de 437 500$ (équivalent au cours du dollar actuel) contre 0,02$ aujourd’hui !

Dès le début, on s’est interrogé sur la valeur qu’il était possible de tirer de ces données au-delà du simple stockage. Comment en tirer de l’information et découvrir des tendances pouvant aiguiller nos choix futurs ? Ce sont aujourd’hui les questions qui touchent au phénomène du Big Data, à savoir une tentative de faire sens d’un ensemble de données en majorité non structurées et toujours mouvantes. De plus, la masse de données à disposition ne cesse de croitre. Les chiffres aujourd’hui sont vertigineux, très difficiles à se représenter tant on est dans le domaine de l’infiniment grand. En 2001, l’intégralité des données produites sur terre représentaient 2 exaoctet, c’est-à-dire 10 puissance 9 gigaoctet. A titre de comparaison, afin de toutes les stocker, il faudrait plus de 30 millions de smartphone d’une capacité de 64 gigaoctet. En 2018, on estime aujourd’hui ce volume de données à environ 20 000 exaoctet. En 17 ans, ce volume aurait donc été multiplié par 10 000… A titre d’exemple, en 2017, chaque minute, 258 000$ de produits étaient achetés chez Amazon, 3,6M de requêtes étaient formulées sur le moteur de recherche Google, et 4,1 millions de vidéos étaient visionnées sur Youtube ! Plus vertigineux encore, selon les projections d’analystes, ce volume pourrait avoir été doublé encore d’ici à … 2 ans, passant alors à 44 000 exaoctet.

Les facteurs expliquant cette augmentation incroyable de la production des données sont multiples. Tout d’abord, le progrès économique à l’échelle mondiale participe à l’émergence de nouveaux marchés, faisant entrer les outils technologiques au sein de plus en plus de foyers dans le monde. Ensuite, la convergence des modes de vies, souvent pointée du doigt comme la conséquence de la mondialisation et de l’effacement des particularités culturelles, concoure au fait que nous vivons de plus en plus de façon similaire, peu importe l’endroit où nous nous trouvons. Le mode de vie dominant est très friand et producteur de données, en conséquence nous convergeons tous vers cette production et cet usage effrénés. Enfin, la numérisation très importante des entreprises y est pour quelque chose, car elles suivent encore aujourd’hui un parcours de transformation technologique avec l’introduction de plus en plus d’outils de pilotage, de suivi et d’aide à la décision basés sur les données.

C’est la raison pour laquelle certains appellent la donnée le nouvel or noir. Selon certains analystes, 30% de ces données en 2025 représenteront des activités humaines considérées comme vitales et critiques, c’est-à-dire avec un effet immédiat sur la santé et le bien-être des utilisateurs concernés. Il peut donc s’agir de données de santé, mais aussi de celles qui serviront à diriger les voitures autonomes, et tous les usages nous concernant au premier chef. C’est donc actuellement une deuxième ruée vers l’or, un eldorado, une nouvelle conquête de l’ouest, dans laquelle beaucoup d’espoirs et de fantasmes, d’alliance, de coup bas et de trahison se dessinent, la plupart du temps à l’abris des regards du grand public. Néanmoins, beaucoup de zones d’ombre subsistent sur l’avenir de ces explorateurs. Notamment, il restera aux entreprises à savoir analyser ces données et à en faire bon usage car de tels volumes représentent un défi colossal, aussi bien au niveau de la gestion, du stockage, de la monétisation et de la protection.

Récolter et stocker des données est une chose, mais comment leur donner du sens et une valeur ? Il existe trois façons de les exploiter, qui peuvent être plus ou moins coûteuses et complexes. Plus l’investissement sera important et plus la valeur apportée le sera également. En premier lieu, une analyse descriptive peut être menée sur les données, servant uniquement à extraire du sens en décrivant les phénomènes mesurés : que s’est-il passé ? Pour aller plus loin, une analyse prédictive peut être utilisée, tentant notamment de prédire le futur : que va-t-il se passer ? Enfin, une analyse prescriptive peut-être engagée, ou cette fois-ci il s’agira d’influencer activement les paramètres de la situation pour en influencer l’issue. Nous pouvons illustrer ces trois méthodes avec le cas concret du marketing. Les multiples données issues des consommateurs peuvent permettre aujourd’hui de décrire pour comprendre les comportements d’achats, puis en poussant les analyses plus loin de les prédire, et enfin le stade ultime serait de les influencer. Bien évidemment, de nombreux secteurs appliquent également ces différents niveaux d’analyse des données disponibles, parfois à d’autres fins que de simples desseins mercantiles.

C’est dans ce contexte particulier qu’intervient l’Intelligence Artificielle. Son avènement s’est tout d’abord fait autour d’une utopie à la fin des années 1950 : créer des programmes à l’aide d’algorithmes qui puissent être intelligents et capables de penser comme l’Homme. Il avait d’ailleurs été fait le pari que cet objectif serait très rapidement atteint, mais force est de constater encore en 2018 que nous en sommes encore très loin. Pour autant, de nombreuses avancées ont fait évoluer ce champ de recherche, qui trouve aujourd’hui des cas d’usage de plus en plus puissants dans nos vies. Aujourd’hui, ce qu’on dénomme Intelligence Artificielle fait en réalité référence à un domaine des sciences et de l’ingénierie qui a pour but de résoudre des problèmes en étudiant les comportements communément appelés « intelligents », puis de créer des artefacts (machines ou programmes informatiques) qui reproduiront les mêmes comportements, voire même les amélioreront. Les querelles entre puristes et non-puristes subsisteront toujours sur la définition d’un comportement intelligent, qui peut varier selon les observateurs. Néanmoins, la plupart des manières de créer un programme à même de traiter des informations tomberont dans deux catégories.

La première catégorie de programme répond à une logique appelée traitement procédural. Cela fait appel à des procédures et algorithmes finis qui ont été posés, programmés et entièrement dictés par la main du programmeur. Par exemple, si je cherche à trier des tomates le long d’une chaine de production industrielle, il est possible de programmer un robot et de lui faire suivre un certain nombre de commandes définies à l’avance. Les règles pourraient être de rejeter les objets non rouges ou ne correspondant pas à un certain calibre par exemple.  Ce type de programmation, qui peut paraître rudimentaire, est amplement suffisant pour beaucoup de tâches du quotidien et permet, selon la puissance des outils utilisés comme les capteurs, bras mécaniques et les processeurs, d’atteindre un taux de réussite et une cadence de production parfois largement supérieure à celle des êtres humains. Mais, est-ce là un comportement intelligent ? D’aucuns objecteront que non, car en réalité il n’y a là que l’application stricte d’un ensemble de règle et d’exceptions prédéfinies. De plus, il s’est rapidement avéré que beaucoup de problèmes du monde réel sont trop complexes pour être décrit d’une manière aussi déterministe…

De ce fait, comment faire en sorte d’imiter le fonctionnement de notre cerveau, siège de notre intelligence ? En effet, celui-ci parvient à extraire du sens de situations complexes et peu déterministes, notamment par observation et déduction des règles. Un autre courant de programmation est donc né, essayant de reproduire ce mode de fonctionnement, c’est-à-dire par la confrontation aux situations afin de déduire un ensemble de règles et ultimement une représentation de la réalité. C’est ici qu’interviennent les méthodes basées sur l’apprentissage statistique. Pour certains puristes, c’est ici que commence la véritable Intelligence Artificielle : elle n’intervient que dans des domaines et pour des problèmes où l’on ne peut construire des programmes avec des solutions algorithmiques simples et pour lesquels les connaissances à utiliser sont difficilement formalisables avec des procédures. Cette fois-ci, au lieu de tout programmer par avance, un programme est nourri à l’aide d’un maximum de données afin qu’il génère lui-même les paramètres et leurs valeurs jusqu’à atteindre une efficacité jugée suffisante. Par exemple, il est tout à fait possible d’entrainer un programme à reconnaître visuellement des éléments particuliers sur des images à des niveaux équivalents voire supérieurs à ceux d’êtres humains. Dans ce domaine, des chercheurs ont pu mettre au point une IA capable de différencier des tumeurs malignes de tâches bénignes dans le cadre d’un dépistage du cancer de la peau sur la base de photographies à des niveaux supérieurs à ceux de professionnels de la santé. Ainsi, selon la disponibilité des données et de la question posée, l’apprentissage statistique peut s’avérer très puissant et fonctionne d’ores et déjà de façon très satisfaisante avec la reconnaissance de la parole, d’images, la prédiction de données climatiques, du comportement d’un client, etc.

Un cas particulier d’usage de l’IA a notamment fait couler beaucoup d’encre en mars 2016 quand le champion du monde coréen du jeu de go, Lee Sedol, a perdu samedi 12 mars 2016 la troisième manche du combat qui l’opposait à l’intelligence artificielle conçue par Google, nommée « AlphaGo ». Ce jeu a résisté longtemps aux programmations du type procédural à cause du nombre de combinaisons possibles comparativement à d’autres jeux comme les échecs. Seulement, une fois passé sur une méthode d’apprentissage statistique performante, cette IA entrainée plusieurs mois sur des millions de parties jouées par des humains a pu dériver les règles et démontrer un niveau de performance jusqu’alors inégalé. L’Homme avait été battu par la machine. Mais l’histoire ne s’arrête pas là, car le domaine est en constante amélioration avec l’invention de nouvelles méthodes et approches de l’IA. Récemment, avec 3 jours d’entrainement seulement, une nouvelle Intelligence Artificielle de Google, « AlphaGo Zero », a appris le jeu de Go et écrasé la machine qui avait elle-même détrôné l’Homme. Cette fois-ci, au lieu de données humaines, le programme a lui-même simulé des parties au cours desquelles il a joué contre lui-même, générant seul les données d’apprentissage.

Dès lors qu’on reconnaît que de plus en plus de données vont être générées et pourront donner des précieux renseignements à des programmes capables d’apprentissage et de décisions, il se pose logiquement la question des effets de l’implémentation massive de ces nouveaux outils dans nos quotidiens et au travail. Pourtant, les limites technologiques actuelles sont encore nombreuses pour parler d’un déploiement généralisé de ces programmes dans les prochains mois. Par exemple, les biais impliqués par la qualité des données utilisées ou bien encore la construction d’une véritable représentation du monde sont des obstacles encore importants. Autrement dit, les outils technologiques basés sur l’utilisation d’IA et de données sont aujourd’hui matures pour un certain nombre de cas d’usage précis mais ne correspondent pas encore aux aptitudes et comportements typiquement humains. Plusieurs secteurs se sont néanmoins employés à les tester et le déployer avec un certain succès. Dans le secteur de l’énergie, l’IA permet par exemple d’améliorer l’utilisation des éoliennes, en prédisant notamment la formation de givre sur les pales en se basant sur le comportement de l’éolienne plutôt que les prédictions météorologiques. La productivité et la maintenance s’en trouvent ainsi optimisées. Dans le secteur du transport ferroviaire, des projets d’apprentissage statistiques sont aujourd’hui en développement afin de prédire la distance de freinage des trains en prenant en compte une dizaine de paramètres, améliorer la vitesse des trains et optimiser leur consommation énergétique, ou bien encore pour mettre en place un assistant de planification automatique des maintenances. Dans le secteur juridique, on compte aujourd’hui un ensemble d’outils d’extraction et d’analyses de données permettant d’assister les juristes et avocats lors de la préparation des procès, notamment par la recherche des informations de jurisprudence. Enfin, dans le domaine du recrutement, certaines phases de sélection de candidats ont déjà été automatisées, notamment chez Unilever. Les avantages notés dans ce cadre ont été une forte baisse des temps de recrutement malgré une augmentation du nombre de candidature et l’augmentation de la diversité ethnique et académique par rapport à des jugement rendus par des recruteurs humains.

Ainsi, même si les cas d’usage sont encore aujourd’hui limités, l’évolution des technologies et la disponibilité des données vont pousser au recours de plus en plus fréquent et extensif à ces outils. Selon l’Institut For The Future, un Think tank californien qui a remis un rapport sur les bouleversements du monde du travail d’ici 2030, nous entrons dans la seconde phase de développement numérique avec l’IA. Celles-ci vont proposer des solutions, interpréter des données, et opérer des tâches comme et à la place des travailleurs humains. Il est encore difficile de se prononcer sur les destructions et créations d’emploi per se, mais la cartographie des tâches en entreprise va irrémédiablement et profondément évoluer. Quelle place aura l’Homme demain au travail ? Quelle sera la nature du travail demain ? A Grenoble Ecole de Management, nous portons la conviction qu’il faut proposer des éléments permettant de répondre à ces questions et d’apporter des solutions pour préserver et transformer le rapport au travail et aux compétences. Demain, on va de moins en moins rechercher à embaucher des salariés afin qu’ils opèrent des tâches répétitives et automatisables. Quelles tâches restera-t-il aux employés humains ? Probablement celles qui nécessitent au contraire de la créativité, de l’esprit critique, la capacité à penser en dehors des clous… Autrement dit, l’or du salarié sera contenu non plus dans ses mains mais entre ses oreilles, ce qui était déjà le cas chez les ouvriers de la connaissance aujourd’hui et sera encore plus vrai demain.

Et la course à la technologie semble s’accélérer, ce qui rend urgent le besoin de réponses. Aujourd’hui, l’IA fait appel à des enjeux de plus en plus importants pour les dirigeants d’entreprise. Par exemple, 72% d’entre eux estiment que l’IA va révolutionner la façon d’interagir avec les clients et de recueillir des informations personnalisées. Ensuite, 67% pensent que l’IA deviendra le visage de leurs entreprises ou de leurs marques. Enfin, 74% considèrent que l’IA aidera à accélérer l’adoption des technologies au sein de leurs entreprises. Sur le front de l’emploi, des enjeux importants existent aussi, puisque certaines études estiment entre 15 et 42% la portion d’emplois partiellement voire totalement automatisables en France, à la condition de passer certains verrous technologiques encore existants. Un exemple d’impact sur l’emploi nous vient directement du Japon. La société Nippone Fukoku Mutual, qui propose essentiellement des produits d’assurance vie, a récemment décidé d’utiliser Waston Explorer, une solution IA d’IBM pour les entreprises. En lui confiant un certain nombre de tâches pour analyser les risques liés à certaines situations de clients, l’objectif affiché était une augmentation de 30% de la productivité sur ce type de tâches par rapport au fait d’employer des êtres humains. Un investissement d’1,7 millions de dollars a été débloqué afin de développer cette solution technique, tandis que 34 salariés se sont vus privés d’emploi. La rentabilité de l’opération est notamment attendue après 2 ans par les dirigeants. Il est donc possible, en fonction de certains paramètres précis, que l’IA puisse créer parfois davantage de valeur pour certains dirigeants et supplante l’humain au sein de la chaine de création de valeur.

Dans ce cas-là, comment se préparer à ce nouveau monde ? Deux voies d’avenir paraissent à ce jour essentielles pour aller de l’avant. En premier lieu, il s’agira de former et faire monter en compétence les collaborateurs sur les aspects techniques touchant à l’IA et à la donnée afin de leurs transmettre des bases de compréhension du fonctionnement de ces technologies. Il existe déjà à l’heure actuelle beaucoup de solutions disponibles sur le marché pour informer, former ou sensibiliser notamment via des contenus en ligne. En second lieu, il y aura nécessairement besoin d’une adaptation des collaborateurs et futurs collaborateurs, qui devront cohabiter avec l’IA et apporter une la valeur ajoutée par rapport à elle. Il ne s’agira donc plus d’enseigner uniquement des compétences techniques ou hard skills qui sont à risque de devenir obsolètes, même s’il est difficile de prédire ces changements, mais plutôt de parier sur la posture intellectuelle, la métacognition et les soft skills. A ce titre, d’après le rapport Futur of Jobs du Forum Economique Mondial Davos en 2016, les compétences essentielles demain sur le marché de l’emploi pourrait être rassemblées en deux groupes : la cognition froide, analytique et agile, et la cognition chaude et relationnelle. Pour ce qui est des aptitudes cognitives froides et de la posture agile, les compétences clefs seront la capacité à appréhender et résoudre des problèmes complexes, faire preuve d’une pensée critique, de créativité, avoir une bonne capacité de jugement et de prise de décision et savoir faire preuve d’une importante flexibilité cognitive. En ce qui concerne la cognition sociale et émotionnelle, les salariés à forte valeur ajoutée seront ceux avec une facilité à se coordonner avec les autres, ceux faisant preuve d’une grande intelligence émotionnelle et aptes à la gestion de personnel, et à la négociation. Plus essentiel encore, la capacité à apprendre et acquérir de nouvelles connaissances sera plus précieuse que la connaissance elle-même.

Afin de mieux pouvoir dénicher celles et ceux qui possèdent déjà ces compétences et de réfléchir aux méthodes les plus efficaces pour les transmettre, plusieurs actions de recherche ont été initiées en partenariat avec la chaire de recherche dans les deux dimensions citées plus haut. La première catégorie de travaux est liée à l’écologie mentale et la capacité d’autogestion des salariés. En partenariat avec My Mental Energy Pro, la chaire a pu mener des études afin d’apporter des solutions aux collaborateurs pour qu’ils se placent dans une démarche d’optimisation de leurs ressources intellectuelles.

Etant le pilier de la concentration, de la créativité et de la pensée critique, la bonne gestion de tous les mécanismes cognitifs en lien avec l’écologie mentale a été étudiée dans le contexte des entreprises. Il s’agissait de développer des méthodes permettant à chaque salarié de se former et d’appliquer les bonnes pratiques dans ce domaine. A l’issue de ces travaux scientifiques, de nombreuses recommandations et outils à l’usage des collaborateurs ont été regroupés dans une application mobile. Cette bibliothèque digitale facilement accessible est utilisée aujourd’hui par plusieurs milliers de salariés au quotidien et se révèle un allié très efficace pour augmenter le bien-être, la maitrise de soi et la performance. La deuxième catégorie de travaux initiée au sein de la chaire est liée à l’intelligence émotionnelle. En partenariat cette fois-ci avec MeetNMake, nos travaux portent sur le repérage et la formation des compétences sociales et émotionnelles, comme l’art de communiquer, de se mouvoir dans un environnement multiculturel, savoir-être en réseau et savoir apprendre grâce à des gens avec qui on est en désaccord et qui pensent différemment. Ainsi, miser sur l’intelligence émotionnelle et la culture d’entreprise nous a semblé un pari gagnant, tant du point de vue du recrutement que celui de la formation en entreprise. Ensemble, nous cherchons donc à comprendre comment les soft skills des candidats peuvent être compatibles avec les différentes cultures d’entreprise. C’est donc une réflexion globale qui engage tous les niveaux de l’entreprise, notamment pendant les phases de recrutement.

En conclusion, les grands changements à venir impulsés par le numérique nécessiteront obligatoirement des ajustements chez la population active et au sein de nos dispositifs de formation. Par ses différentes actions, la chaire « Talents de la transformation digitale » à Grenoble Ecole de Management cherche à générer un impact sur la société afin d’apporter des éléments de réponse et d’émuler une réflexion citoyenne. Préparer le futur est essentiel, c’est pourquoi il est de notre responsabilité à tous de se saisir des enjeux sociétaux engendrés par l’Intelligence Artificielle et plus largement la question des données.

juin 8, 2018