Conclusion | Conversation avec Guy MAMOU-MANI
Lire la transcription
[Musique]
Bonjour, c'est la conclusion de cette série "À propos" sur la question du caractère évitable ou non de la fracture IA potentielle. Nous avons entendu des référents du monde public, du monde professionnel et du monde de l'entreprise s'exprimer sur cette question et j'ai donc pour conclure aujourd'hui le plaisir d'accueillir Guy MAMOU-MANI, ex-coprésident d'Open, très largement engagé dans sa vie passée comme aujourd'hui encore sur ces sujets-là, notamment au travers de son livre "Pour un numérique humain".
[Musique]
- Guy, merci d'être avec nous, bonjour. Alors d'abord j'ai envie de t'interroger bien sûr sur cette question et ton regard sur cette question, et bien entendu sur ce que tu as pu déjà découvrir de ce que nos invités précédents ont pu dire sur le sujet.
- Je voudrais absolument te féliciter, féliciter Open en général pour cette initiative. Moi je pense qu'une ESN aujourd'hui est totalement à propos, c'est le cas de le dire, pour parler de ces sujets et j'ai trouvé les six interviews très très intéressantes, d'abord parce qu'elles expriment une vision de la transformation de notre pays, de l'humanité voire par l'IA au niveau sociétal et puis par certains côtés aussi au niveau professionnel. Donc c'était assez complet et je pense que ça doit inspirer beaucoup de gens.
- Oui, mais ton regard sur le sujet maintenant ?
- Alors mon regard, je vais le symboliser par la phrase de Bergson : "Notre avenir n'est pas ce qui va arriver mais ce que nous en ferons". Donc tout le propos de mon livre et de mes conférences et de mon comportement, c'est d'essayer de mobiliser les gens, les citoyens, les élèves, les professeurs pour qu'ils se prennent en charge par rapport à cette transformation qui est, on sait bien, inéluctable.
- Alors tu as vu dans les personnalités que nous avons interrogées, tous convergent pour dire - ils ont des différences de vue mais ils convergent tous pour dire que c'est une formidable opportunité cette IA générative et bien sûr ce qui va arriver demain, et ils ont assez peu de retenue sur le sujet si ce n'est qu'il y a quand même une condition, et cette condition je suis... c'est cette condition ou ces conditions que tu rappelles d'ailleurs dans ton livre. Je ne suis pas certain qu'on est capable de toutes les remplir.
- Absolument, mais d'ailleurs mon livre dont le titre est "Pour un numérique humain" a un sous-titre qui est "Huit conditions de réussite de la transformation". Donc en effet, il faut absolument pas les sous-estimer. Mais alors ce qui tombe très bien, c'est que le sujet que vous avez choisi fait partie des conditions. Je n'imagine pas que l'on puisse déployer l'intelligence artificielle, la transformation numérique en se passant d'une partie de la population et créer encore une fracture. Donc il faut absolument mettre ça en avant et c'est un des sujets qui me tient le plus à cœur.
- Oui mais donc comme toute condition elle peut ne pas être remplie ?
- Ah oui, non seulement elle peut mais malheureusement pour l'instant, et on l'a vu déjà dans les années qui viennent de passer, il y a beaucoup de sujets au sujet de la fracture numérique d'abord, et qui sont en train de se prolonger sur la fracture IA. Donc il y a une mobilisation à avoir qui a été d'ailleurs évoquée je crois par Alexandra Bensamoun et je trouve qu'elle a tout à fait raison sur l'acculturation, l'éducation, la formation. C'est d'ailleurs le propos central de mon livre. Il faut absolument justement faire une mobilisation autour de ces sujets pour former tous les citoyens, pas uniquement des ingénieurs d'ailleurs, mais ça concerne l'ensemble des citoyens parce que le paradoxe de ce qu'on est en train de vivre, c'est qu'en fait l'IA ou l'IA générative peu importe, elle n'est pas pour l'élite, elle est pour chacun, elle est pour tous.
- Oui, alors tu as dit l'IA et l'IA générative peu importe, mais justement il me semble que Jean-Paul Mazoyer a fait une petite nuance là-dessus et je crois que c'est assez important parce qu'en fait qu'est-ce qui s'est passé ? L'IA, nous on la connaît depuis des années, depuis des dizaines d'années, c'est en 1950 que Turing a utilisé le terme pour la première fois. Non, ce qui a été une rupture en novembre 2022, c'est l'IA générative qui a justement fait ce que tu viens de dire, c'est-à-dire donné accès...
- Pour moi, je pense pour toi aussi, c'est le plus grand espoir d'éliminer cette fracture, c'est le fait que l'accès soit donné à chacun ou à tous suivant la façon dont on veut interpréter.
- Exactement, ça sera une bonne conclusion de ta série "À propos", parce que vraiment je crois qu'en effet c'est une opportunité. C'est une vraie opportunité parce que justement on le voit bien puisqu'on s'adresse en langage naturel à l'intelligence artificielle générative, donc toutes les barrières qu'il y avait avant de programmation, de technologie disparaissent. Et finalement si on explique à tous les citoyens que c'est accessible de façon tout à fait naturelle, il y a une chance que ça devienne une opportunité à la place d'être une barrière et qu'ils s'en saisissent.
- Évidemment, c'est pour ça que j'ai tellement insisté déjà dans mon premier livre mais sur celui-là aussi à l'éducation depuis le plus jeune âge. Alors on m'a critiqué parce que j'ai fait un chapitre "Apprendre à lire, écrire, calculer, coder". C'était un raccourci, je veux bien le reconnaître, mais ce que je voulais dire c'est qu'il est impératif de donner une culture numérique dès le jeune âge de façon à ne plus avoir peur et d'accéder à des outils comme l'IA générative.
- Ce dont on est sûr en tout cas, c'est que si cette condition-là n'est pas remplie, on ne remplira pas les autres.
- On est d'accord. Et donc voilà, donc nous avons réussi grâce à nos personnalités qui sont intervenues sur ce plateau et dans cette série "À propos" à déterminer en fait la condition indispensable à l'évitement de cette fracture IA : c'est vraiment la culture de ce progrès technologique avant qu'il devienne un progrès sociétal, une culture qui soit la plus répandue et la plus appropriée possible pour tous et pour chacun.
- Guy, merci beaucoup de ta participation, à bientôt pour une nouvelle série "À propos".
[Musique]
Les points clefs abordés dans cette conclusion
-
L'IA générative comme outil d'inclusion plutôt que de fracture
-
L'éducation et l'acculturation comme conditions essentielles
-
La transformation numérique comme enjeu collectif et sociétal
-
L'accessibilité naturelle comme facteur clé de réussite
Episode #6 | Conversation avec Christophe Lienard, Groupe Bouygues - Impact AI
Lire la transcription
On se retrouve aujourd'hui pour un nouvel épisode d'À propos. Vous en connaissez maintenant le principe : une série d'entretiens avec des personnes, des acteurs référents des différents écosystèmes de notre secteur professionnel. Le thème que nous avons choisi pour cette série : l'IA et sa capacité ou pas à créer des opportunités ou une fracture avec une partie de la société. Nous sommes dans la partie des entreprises et j'ai le plaisir d'accueillir sur ce plateau **Christophe Lienard**, le directeur central de l'innovation du groupe Bouygues et le président de l'association Impact AI.
Alors Christophe, c'est un plaisir de vous recevoir et la première question que j'aimerais vous poser est : quel regard avez-vous de façon générale sur ce sujet de l'avènement de cette IA générative aujourd'hui et de ses éventuelles conséquences positives comme peut-être négatives sur cette fracture ?
Dans le groupe Bouygues, on est très impressionné par les progrès de l'IA et on a suivi avec beaucoup d'attention ce qui s'est passé il y a maintenant un an et demi sur ChatGPT. On travaillait bien sûr déjà beaucoup sur l'IA avant, il y avait déjà des équipes. On avait déjà créé d'ailleurs en centrale une équipe pour coordonner data et IA qui a été coordonnée par les équipes de l'innovation centrale et on a accéléré effectivement lors de cette arrivée de ChatGPT.
Alors il faut savoir que le groupe Bouygues est un groupe très décentralisé. C'est un groupe sur lequel on a 200 000 collaborateurs, on est dans 80 pays et donc beaucoup de choses se passent là où les décisions doivent être prises, c'est-à-dire sur le terrain pour être réactif, agile. Donc il y a assez peu de choses qui sont centralisées au niveau de la maison mère finalement de ce groupe et on a choisi pour l'IA d'avoir cette coordination, cette centralisation. Ce qui montre un peu l'impact et l'effet que l'on considère que cette IA va avoir sur nos métiers, nos clients, nos solutions à travers le groupe.
D'accord, donc ça c'est pour votre organisation entreprise, mais vous, votre idée sur ce sujet-là finalement en tant que coordinateur de cette affaire, vous pensez que nous allons avoir des opportunités formidables et comment ? Ou vous pensez qu'attention danger, il faut prendre ça avec délicatesse ?
Alors, on prend ça avec beaucoup d'optimisme. Pourquoi ? Parce qu'on considère que finalement ces IA génératives notamment sont des assistants extraordinaires pour l'ensemble de nos collaborateurs et j'allais dire tous les métiers, que ce soit les métiers des RH, les métiers de la finance, les métiers du juridique ou bien dans nos filières spécifiques métiers sur les médias, la construction, le suivi de chantier, les appels d'offres. On considère que tous les métiers vont être à un moment donné affectés ou en tout cas encouragés, boostés par cette IA qui viendra être un assistant extraordinaire à l'ensemble de ces métiers pour chacun des collaborateurs.
Pour chacun des collaborateurs ?
Pour chacun des collaborateurs, d'accord. Pourquoi chacun des collaborateurs ? Parce que finalement on s'aperçoit que l'interface utilisateur est très simple. Ce qui a frappé les gens dans ChatGPT, c'est qu'en langage naturel je peux interpeller ChatGPT qui me donne une réponse. Il faut que j'aie encore un esprit critique pour interpréter cette réponse et savoir si on ne raconte pas des salades...
Exactement, des histoires.
Mais on voit bien que cette interface utilisateur crée la rupture sur l'IA générative et crée l'accessibilité et crée l'usage qui pour vous est l'élément qui peut nous sauver d'une fracture quel que soit le niveau d'éducation de spécialisation que l'on a à l'intérieur du groupe.
Alors concrètement dans les premières expérimentations que vous avez ou même mises en production finalement, on adresse quoi ? C'est quoi vos cas d'usage un peu phares ?
Alors l'un des premiers cas d'usage qu'on a réussi à déployer à l'échelle, à l'échelle de 15 millions de nos clients B2C télécom, c'est au niveau du call center. Les conversations avec nos clients, lorsqu'ils le souhaitent, lorsqu'ils l'acceptent, sont enregistrées. Il y a un petit ChatGPT ou l'équivalent qui vient faire un résumé. Ça vient être stocké dans notre système de suivi de client de manière à ce que la prochaine fois lorsqu'il appelle, on connaisse déjà son histoire, on ne lui fait pas répéter une nième fois ce qui lui est arrivé et l'état de son problème. Donc ça, ça a été le premier cas d'usage je pense qui à l'échelle vraiment du groupe a été déployé avec succès très rapidement puisque c'était 8 mois après l'arrivée de ChatGPT.
D'accord et ça c'est une vraie réussite et on a de l'apprentissage en fait. On crée de l'analyse là-dessus et on améliore nos process en réalité ou pas ?
Bien sûr. Et ensuite on a d'autres cas d'usage. On a un cas d'usage qui nous intéresse très fort aujourd'hui, c'est celui des appels d'offres. Sachez que le groupe répond environ à 1 million d'appels d'offres par an dans chacun de nos métiers et on se dit si on est capable de répondre plus facilement avec plus de pertinence à ces appels d'offres, c'est très intéressant pour tout le monde. Donc cet aspect gestion des appels d'offres, c'est certainement un prochain gros sujet qui va être déployé à l'échelle.
C'est drôle parce que c'est un de nos cas d'usage à nous en particulier parce qu'effectivement il y a beaucoup d'intelligence et de compréhension à avoir et expérience finalement tirée de ces éléments qui se répètent pour partie.
Ensuite il y a un autre sujet aussi par exemple pour les RH. On a donc 200 000 collaborateurs avec des métiers très différents : Bouygues Telecom, TF1, les métiers de la construction, les métiers de Colas sur l'énergie et on veut favoriser la transversalité, la mobilité et donc l'IA je pense va nous permettre d'accélérer cette mobilité de nos équipes.
Une meilleure compréhension des compétences par un meilleur matching des possibilités.
Exactement, tout à fait.
C'est très intéressant. Très bien, donc pour vous, alors vous n'allez pas vivre une fracture de l'IA aussi bien comme citoyen que comme acteur de votre entreprise ?
Ouais, je ne pense pas. Enfin, j'en suis même persuadé parce qu'on a quand même, par rapport à peut-être à d'autres environnements, on a la chance d'avoir à la tête du groupe un garçon qui s'appelle Olivier Roussat qui vient du monde des télécoms, donc qui comprend très bien cette question des ruptures, des ruptures lorsqu'un concurrent arrive avec une offre disruptive et comment il faut s'y préparer et comment finalement embarquer très vite de manière à transformer le groupe. Et donc je pense que c'est une des raisons pour lesquelles on embarque très fort, très vite sur cette IA générative.
S'il y avait un élément de vigilance parce qu'on a été très positif, tout ne va pas être aussi rose. S'il y avait un ou deux éléments de vigilance, j'insiste un peu, ce serait quoi pour vous ?
Alors c'est la raison pour laquelle ces éléments de vigilance d'ailleurs... On ne pourra pas déployer l'IA si on ne respecte pas un certain nombre de critères éthiques de responsabilité. C'est la raison pour laquelle en 2017, on a co-créé avec une trentaine de membres un collectif qui s'appelle Impact AI, qui s'intéresse cette fois-ci à l'impact de l'intelligence artificielle sur la santé, l'éducation, le travail et l'éthique parce qu'on ne déploiera pas l'IA dans nos sociétés, dans nos groupes sans avoir effectivement ce critère de responsabilité, d'éthique au cœur.
Et donc c'est ça la vigilance ?
Exactement.
Merci beaucoup Christophe. Si je résume vos propos et vous êtes libre de me contredire, on aura effectivement des opportunités formidables avec l'IA, mais attention à la responsabilité qui est associée.
Exactement, tout à fait. Vous avez parfaitement résumé.
Merci beaucoup.
Merci.
Les points clefs abordés dans ce 6ème épisode
-
L'IA générative comme assistant extraordinaire pour tous les métiers
-
Centralisation et coordination de l'IA dans un groupe décentralisé
-
Cas d'usage concrets : du service client aux appels d'offres
-
L'importance de l'éthique et de la responsabilité dans le déploiement de l'IA
Episode #5 | Conversation avec Damien Nuyttens, Edenred France
Lire la transcription
[Musique]
À propos est une série de conversations libres et expertes sur des sujets d'actualité de notre secteur professionnel. Comme vous le savez maintenant, le thème choisi pour cette première série porte sur la révolution que provoque l'émergence de l'intelligence artificielle générative sous l'angle : la fracture IA est-elle inévitable ? Au cours des trois précédents épisodes, j'ai échangé avec des personnalités référentes. À présent, je souhaite recueillir le point de vue des décideurs de l'entreprise, des acteurs de l'innovation, pour disposer d'un éclairage plus concret, complémentaire de celui des experts.
[Musique]
Aujourd'hui, j'ai le plaisir d'accueillir Damien Nuyttens, directeur expérience client et opérations Eden red. Alors tout d'abord, j'aimerais connaître votre propre appréciation de ce phénomène qu'est l'IA générative. Alors, je crois que vous l'avez dit dans votre propos introductif, Frédéric, c'est une révolution. Je pense qu'il ne faut pas sous-estimer l'ampleur de cette évolution technologique. C'est-à-dire qu'on a vu des cycles d'innovation récurrents, réguliers. Je pense que si on est sur une innovation de rupture, je prends souvent la comparaison, je n'ai pas été le seul, avec la révolution qu'on a vécue avec la sortie des smartphones, de l'iPhone. Et au final, c'est moins le terminal en tant que tel, le téléphone en tant que tel qui a été une révolution, c'est la manière dont il a révolutionné nos usages et nos comportements au quotidien. J'explique souvent que finalement la révolution du digital, c'est d'abord une révolution de
notre rapport à l'espace et au temps avant d'être les applications, etc. Donc ça, je pense que c'est vraiment important de se redire que l'IA est de la même nature que cette révolution qu'on a connue en 2007-2008 avec le développement des smartphones. C'est quelque chose qui va profondément changer notre rapport à la technologie et, au-delà de notre rapport à la technologie, l'interface machine, surtout notre rapport aux choses et aux choses de la vie. Donc ce serait une révolution technologique supplémentaire et qu'il faut savoir aborder via l'usage, ouais, avec une dimension de rupture quand même effectivement forte, qui va avoir des conséquences aussi bien dans le champ de nos vies personnelles que dans le champ de nos vies professionnelles. Sans doute que nos arrière-petits-enfants regarderont cette période avec beaucoup d'intérêt en voyant l'émergence et la manière dont on a intégré ces technologies dans notre quotidien. Alors justement, comment Eden red intègre cette révolution d'usage ou de techno dans ses produits et ses services ou dans ses processus ? Alors déjà en posant un cadre clair, je pense que la première chose est de passer de la phase d'effervescence qu'ont eue beaucoup d'entreprises, qu'on a tous connue finalement en voyant émerger ChatGPT, les premiers LLM. Je pense que le sujet a été de se dire comment on l'aborde. Rapidement, on est venu à un principe qui est assez simple, qui est de dire un : démystifier. Oui, c'est une rupture, oui ce sont des solutions qui sont encore innovantes, elles sont encore en développement, ce n'est pas non plus une baguette magique qui va faire que ça va régler les problèmes de tous nos clients utilisateurs au quotidien. Il faut savoir comment l'intégrer. Donc voilà, c'est un outil en plus au service d'une expérience qu'on design pour nos clients, nos utilisateurs, nos partenaires marchands. Démystifier, poser un cadre réglementaire et technique sécurisé, attention à nos données, hein, les données de nos clients en particulier. Donc on opère principalement B2B aujourd'hui, donc à destination des entreprises. On gère notamment les données salariées des entreprises qui nous font confiance, ce sont des données qui sont extrêmement précieuses et nos clients sont extrêmement vigilants sur la manière dont on les utilise. Donc poser un cadre technologique et réglementaire qui nous permet d'être, nous, sécurisés sur ce que l'on fait et rassurants vis-à-vis de nos clients sur la manière dont on gère leurs données. Et puis trois, certaines entreprises ont fait le choix par exemple de dire je donne une licence ChatGPT à l'ensemble des collaborateurs et puis je regarde ce qui en émerge en termes de projet collaboratif. On n'a pas du tout eu cette approche-là, on a une approche beaucoup plus rationnelle qui a été de dire qu'il faut qu'on aille sur des use cases précis, des cas d'usage précis et ciblés. Donc on peut peut-être rentrer, oui, on peut en citer un ou deux. Bien sûr, ouais. Bien sûr, en fait, c'est la nature de ces cas d'usage. La première nature, c'est qu'on s'est aperçu qu'il y avait des sujets d'efficience individuelle ou collective. Je teste des choses par exemple Copilot de Microsoft des services de mes équipes. Est-ce que c'est, je gagne de l'efficacité dans la prise de notes de réunion, dans les compte-rendus, etc. Pour en citer d'autres, on a développé un petit chatbot interne qui s'appelle Eden chat à destination de nos collaborateurs. Donc ça, c'est l'efficacité, comment je gagne du temps, comment je fiabilise mon orthographe, comment je travaille, j'ai une réponse un peu plus rapide à un questionnement, comment j'interroge une base de connaissance. Donc ça, vraiment, c'est plutôt des sujets d'efficience collective et individuelle au sein de l'organisation. Et c'est déjà des questions qui doivent se poser parce qu'on y reviendra sans doute, mais toutes ces solutions, elles ont un coût. On voit évidemment le bénéfice, mais elles ont aussi un coût. Mais vous sentez que vous êtes plus audacieux, que vous pouvez aller vers des sujets de rupture dans le cadre de l'expérience client par rapport à ce qu'on pouvait faire hier ? Oui, oui, complètement. Il y a deux sujets : il y a des sujets de rupture, il y a des sujets d'accélération de ce qu'on pouvait imaginer ou faire. Je prends un exemple sur lequel on travaille en ce moment, même si ce n'est pas encore live, qui est celui du chatbot. Le chatbot à destination de nos clients utilisateurs, on sait qu'on était sur des modèles de chatbot qui étaient construits avec des briques de NLU, NLP, où il fallait designer à peu près toutes les possibilités possibles et imaginables, ce qui fait que si vous en oubliez, bah l'expérience que au final du client, la question qui tombe à côté de la plaque, vous n'avez pas la réponse, l'expérience n'était quand même pas top. D'ailleurs, c'est en grande partie pour ça qu'on n'en avait pas mis en place. Là, aujourd'hui, c'est sûr que cette capacité à hybrider des technologies qui existaient déjà avec de l'apprentissage, avec du LLM, avec de l'IA, ça permet d'avoir une conversation déjà vachement plus sympa et surtout de gagner en termes de délai et de complexité de mise en œuvre. Voilà, donc ça, c'est un exemple parmi d'autres. On travaille beaucoup aussi sur des choses à destination de nos équipes, les équipes du service client : comment accéder à la connaissance pour apporter la bonne réponse au bon moment aux clients quand on a des dizaines et des dizaines de procédures, etc. Comment on simplifie cet accès à la connaissance ? Alors dans ces cas d'usage qui vont être de plus en plus nombreux et pour certains encore plus en rupture que ce qu'on a pu connaître aujourd'hui, comment vous allez vous y prendre justement pour embarquer, j'allais dire tout le monde, mais non, embarquer chacun et faire de lui finalement un homme plus heureux au travail ou une femme bien sûr ? Tout à fait, et c'est un challenge du quotidien parce que c'est un sujet qui est nouveau. Alors souvent, ils l'utilisent déjà dans leur quotidien, l'impact sur leurs activités, ce sont des choses qui sont en train de se dessiner, qui sont conséquentes, qui sont conséquentes. Je ne pense pas qu'il y a d'inquiétude, je pense que par contre il y a de la curiosité et de l'accompagnement qui sont attendus. Donc par exemple, on a commencé à initier tout un programme de formation de nos équipes au prompting, à comprendre ce qu'il y a, etc., encore une fois pour le démystifier. Et puis après, il y aura un sujet autour de la formation des compétences et de savoir finalement ce qu'est la valeur ajoutée de l'humain dans cet écosystème. Et nous, on est absolument convaincu, à fortiori sur nos métiers, que le rôle de l'humain sera essentiel, mais qu'on va le recentrer sur la relation, vraiment sur la relation interpersonnelle, là où on était parfois sur des à mi-chemin entre de l'interpersonnel et la nécessité de former les équipes à savoir appliquer des procédures de manière assez stricte et donc les abrégés de procédures à apprendre. Donc quelque part, moi je suis convaincu que cette révolution technologique, c'est aussi un moyen de remettre de l'humain paradoxalement dans la relation quotidienne.
Damien, on démystifie, on sécurise, on trouve les cas d'usage et on accompagne si j'ai bien compris, et donc pas de fracture IA à l'horizon si on traite correctement ces dimensions ? C'est des sujets de vigilance. Je ne prétendrais pas ça aujourd'hui parce que je pense que collectivement, on apprend en marchant. Dans les échanges qu'on a avec tous les acteurs qui interviennent sur ces sujets-là, c'est intéressant de voir que les réalités d'il y a 6 mois ne sont pas celles d'aujourd'hui. Donc il faut rester, même par rapport à ça, rester agile. Je pense que la formation de manière générale est le plus gros, le plus gros enjeu auquel sont confrontées les entreprises, et pas qu'en France, mais au global, dans le monde entier, dans les années à venir, parce qu'encore une fois, c'est une redéfinition des compétences. Après, je regarde ça de manière optimiste parce que je suis assez convaincu, encore une fois, que c'est l'opportunité de se redire en quoi l'humain est essentiel au quotidien dans le travail, dans le business, que c'est l'occasion aussi de découvrir. Il y aura sans doute de nouveaux métiers qui vont émerger comme à chaque ère de révolution. Pour autant, c'est clair qu'il y a des points de vigilance. J'en ai deux à l'esprit, hein, indépendamment du sujet de l'emploi et du skilling des équipes. Je pense qu'il y a un sujet de vigilance sur la fracture numérique qui peut être encore accrue par ce type de solution, donc ça, c'est une vraie réflexion. Et puis d'un point de vue économique, ce qui est important aussi, je l'ai un peu dit tout à l'heure, mais ces solutions, elles ont un coût. Donc c'est aussi pour ça que c'est important d'être assez discriminant sur les cas d'usage que l'on retient, d'avoir une approche assez réaliste. Et la question que ça va poser, c'est la question de la souveraineté aussi de ces technologies. Je prends un exemple sur le speech analytics, la transcription des appels en données en texte. Aujourd'hui, le taux de reconnaissance des solutions de leader du marché, la performance des solutions est d'à peu près 20 à 25 points supérieurs en anglais qu'en français. Voilà, et on a la chance d'être, pour autant en français, d'avoir une langue qui est relativement parlée dans le monde. Un sujet de réglementation aussi sur la data. Je crois que le RGPD, pour le coup, l'Europe s'en est plutôt bien saisie, tout en trouvant la frontière entre la capacité à innover et la capacité à protéger les citoyens. Et puis le dernier sujet, je pense vraiment sur la partie entreprise et développement économique, c'est aussi la capacité des petites et moyennes entreprises à accéder à ces technos et ne pas laisser que les grandes entreprises, au CAC 40 comme nous, mais par exemple accéder à cette technologie pour améliorer l'expérience de leurs clients. Donc il y aura aussi un sujet de réconciliation, il faudra que cette technologie pénètre l'ensemble des acteurs économiques et de la couche économique. Donc pas d'anxiété, mais vigilance et action pour justement faire de l'IA un élément positif et non pas une fracture. Exactement, et agilité pour s'ajuster en fonction de ce qu'on observera dans les mois et les années à venir. Merci Damien.
[Musique]
Les points clefs abordés dans ce 5ème épisode
-
L'IA comme révolution technologique comparable à l'avènement des smartphones
-
Démystifier l'IA et l'intégrer de façon rationnelle et sécurisée
-
L'IA pour l'efficience, recentrant l'humain sur les relations
-
Vigilance sur la fracture numérique et l'accès équitable à l'IA
Episode #4 | Conversation avec Jean-Paul Mazoyer, Crédit Agricole SA - GIE Cartes Bancaire
Lire la transcription
[Musique]
À propos est une série de conversations libres et expertes sur des thèmes d'actualité de notre secteur professionnel. Le thème choisi pour cette première série porte sur la révolution que provoque l'émergence de l'intelligence artificielle générative sous l'angle : la fracture IA est-elle inévitable ?
Au cours des trois précédents entretiens, j'ai échangé avec des personnalités référentes pour clarifier les enjeux de cette technologie avant-gardiste et trouver comment en faire un usage responsable. À présent, je souhaite recueillir le point de vue des décideurs de l'entreprise, des acteurs de l'innovation, pour disposer d'un éclairage plus complet, plus concret encore, en complément de celui des experts.
Pour l'entretien d'aujourd'hui, j'ai le plaisir d'accueillir Jean-Paul Mazoyer. Alors, son titre, et on ne va en faire qu'une partie, parle de lui-même : Directeur Général Adjoint Technologie, Digital et Paiement de Crédit Agricole SA, et Président du Conseil du Groupement des Cartes Bancaires. Pour le principal, c'est ça. Jean-Paul, merci encore d'avoir accepté notre invitation.
En tout premier lieu, j'ai envie de vous interroger pour connaître votre appréciation de ce phénomène IA générative.
"Je pense que c'est une lame de fond, je pense que c'est un véritable changement et qui a une particularité : ce n'est pas une technologie comme les autres. Toutes les technologies jusqu'à présent permettaient d'optimiser les systèmes existants sans nécessairement les remettre en cause. Et dans les grandes organisations bien instituées, la façon habituelle, c'est celle-ci : je prends une technologie, je regarde comment elle va me permettre d'optimiser mon modèle existant. Avec l'IA générative, vous remettez en cause totalement le processus. Ça, c'est la première caractéristique.
La deuxième caractéristique, c'est que finalement l'IA générative s'attaque désormais à des fonctions qui sont des fonctions plus intellectuelles, alors que l'IA traditionnelle, c'était plus des fonctions opérationnelles. On aboutit donc à une baisse de l'intensité opérationnelle et à une hausse, normalement, de l'intensité relationnelle, soit vis-à-vis des clients ou vis-à-vis des salariés.
Ça signifie quoi ? Ça signifie que les qualités humaines deviennent majeures. Autrement dit, c'est plus d'humain grâce à l'IA générative, plus d'humain parce que plus de temps consacré aux activités humaines, mais également plus de personnalisation dans la relation. C'est particulièrement vrai dans un métier comme le mien, c'est-à-dire sur la relation, la relation bancaire. Quelle opportunité ! C'est une opportunité incroyable, mais ça change complètement les paradigmes et ça oblige de réfléchir à l'accompagnement humain de tous.
La troisième caractéristique, finalement, c'est que ça oblige à ce que cette technologie soit prise en main par les métiers. Ce n'est pas une technologie qui peut être portée par les équipes informatiques. Les équipes informatiques sont des enablers, mais c'est au métier de comprendre la technologie, de la digérer en quelque sorte et de s'en servir pour reconcevoir ses processus et ses relations avec les clients."
Donc on voit bien que là, ces trois caractéristiques, on ne les avait pas jusqu'à présent. Un peu dans le digital, oui, mais le digital, vous pouviez digitaliser les processus existants. Et de temps en temps, vous confiez cette digitalisation aux équipes informatiques. Là, on est complètement dans quelque chose de complètement différent, et je crois que c'est pour ça que je parle d'une lame de fond. Et on le voit bien d'ailleurs dans les valorisations des sociétés, dans l'impact que ça a, ça va être très important.
Alors après, j'aime bien cette citation de Bill Gates qui dit : "En général, on surestime l'effet à 3 ans et on le sous-estime à 10 ans." Autrement dit, on surestime la vitesse et on sous-estime l'impact. Je crois que c'est vrai aussi pour l'IA générative : il faudra plus de temps, mais l'impact sera majeur.
Alors, comment est-ce qu'on traduit ça concrètement dans les produits et services du Crédit Agricole au sens large ? Mais on peut prendre peut-être un cas ou dans les processus de l'entreprise.
D'abord, il faut comprendre que ce n'est pas une cible à atteindre, c'est un chemin à prendre. Parce que finalement, on va avoir en permanence des idées nouvelles pour introduire de l'IA générative dans les processus ou dans les produits et services. En quelque sorte, vous avez des choses qui sont totalement transversales au fonctionnement de l'entreprise.
Je crois que ces solutions que l'on appelle "bake", c'est-à-dire qui sont déjà exécutables par des sociétés informatiques et que vous achetez finalement sous la forme de licence, ça va être natif demain, ça va rentrer partout. Tout ce qui relève après du "make", c'est-à-dire de dire "je prends un processus et je pense et j'entraîne des modèles d'IA générative spécifiquement pour mes besoins", là, vous avez une véritable responsabilité, une décision à prendre.
Dois-je considérer de l'IA générative pour répondre directement au client ? Est-ce que je lui donne le pouvoir de décider, de traiter jusqu'à la décision pour le client ? Ou est-ce que je m'en sers pour aider la femme ou l'homme employé du Crédit Agricole à faire mieux son travail ? C'est évidemment pas aussi blanc et noir que ce que je viens de dire, puisqu'il y aura forcément des franges où vous pourrez le faire de façon très simple jusqu'à la décision, la profondeur finale, jusqu'à la proposition, jusqu'à la réponse au client.
Mais la question va être de dire : jusqu'où je vais ? Cette question du pouvoir que vous donnez à l'IA est une question qui, finalement, doit hanter tous les décideurs. Donc ça, c'est un vrai sujet. Donc vous devez penser, quand vous êtes à la tête d'une entreprise : qu'est-ce que je vais faire de l'IA ? Où est-ce que je vais aller ? Jusqu'où je vais aller ?
Nous, au Crédit Agricole, on a décidé qu'on devait utiliser l'IA générative pour offrir plus d'humain. C'est-à-dire, finalement, aider le collaborateur à avoir les éléments qui lui permettent d'avoir cette relation basée sur l'émotion, l'empathie, l'interprétation et le one-to-one avec le client, la relation. Et la relation d'autres banques, évidemment, va être beaucoup plus dans le côté "j'utilise l'IA pour une relation directe" et pour, finalement, ce que je disais tout à l'heure, diminuer l'intensité opérationnelle. Nous, on veut s'en servir davantage pour augmenter l'intensité relationnelle.
Alors, comment vous allez faire pour accomplir cet objectif ou, en tout cas, prendre ce chemin de la façon la plus intéressante et, en même temps, j'allais pas dire embarquer tout le monde, mais marquer chacun ?
Depuis le début de la vague IA générative, en gros novembre 2022 avec l'arrivée de ChatGPT, on a lancé partout dans le groupe Crédit Agricole des POC. C'est la grande mode des POC un petit peu partout, faut bien tester, faut bien tester. Mais on s'est aperçu qu'en fait, ces POC étaient rarement pensés pour aller jusqu'à, comment on dit, à l'échelle. Après, ils n'ont pas toujours été pensés avec l'impact compte de résultat ou l'impact salarié maximal. Ils ont été pensés en disant : "Moi, je vais essayer quelque chose, on me propose une idée." Ça a souvent été porté par des équipes, de temps en temps des Data Scientists qui sont vraiment dans les équipes plutôt techniques.
Donc on en a fait, nous, on a recensé 150, je crois, au niveau du groupe Crédit Agricole, mais simplement 4 ou 5 étaient à l'échelle comme on dit, donc finalement avec un impact assez limité. Je crois qu'on passe dans une nouvelle étape qui est désormais de dire : prenons le problème à l'envers. Demandons aux métiers, maintenant qu'ils ont compris ce qu'était l'IA générative, de reconcevoir leur métier, des passages entiers de leur métier, des activités entières. Demandons-leur de prendre l'IA générative, de réfléchir par rapport au PNL, par rapport à l'impact salarié. Donc nous, on a demandé par exemple aux membres du comité exécutif de l'entreprise d'être sponsors eux-mêmes d'une initiative, d'une ou deux initiatives dans leur domaine d'activité, en leur disant : "Vous en prenez une ou deux, vous les suivez vous-même, parce que ça doit avoir un impact transformant pour votre métier."
Donc ça, c'est le premier message : c'est de dire qu'il faut changer d'échelle sur les cas d'IA générative, il faut changer de sponsor. Ça, ça doit être aujourd'hui des sponsors de très haut niveau dans les entreprises. À partir du moment où c'est le patron de l'entreprise qui lui-même porte un projet d'IA générative, il est beaucoup plus facile d'embarquer le management et l'ensemble des salariés. Le message que vous envoyez à l'entreprise n'est évidemment pas du tout le même. Donc vous avez vraiment intérêt à faire ça pour embarquer tout le monde.
Le vrai sujet, ça va être effectivement de dire que chaque employé, et pas tous, chaque employé du Crédit Agricole est à l'aise avec l'utilisation, doit avoir un bénéfice, doit avoir un bénéfice et surtout est à l'aise.
Toutes les entreprises, par exemple, ont déployé depuis quelques années, notamment au moment du COVID, un outil qui s'appelle Teams. Vous demandez aujourd'hui aux salariés des entreprises ce qu'est Teams, ils vont répondre : "C'est un outil de visio." Ouais, très peu l'utilisent réellement comme un outil collaboratif de partage d'information, de partage de groupe en groupe. Je crois qu'on a beaucoup, et je me mets dedans, raté un peu cette transformation des modes de travail pour aller vers plus de collaboratif.
L'IA, ça doit pas faire la même chose. On doit être sûr que chaque collaborateur utilise ses outils au quotidien dans tout ce qu'il propose. Exactement, la question, c'est ça : c'est de faire en sorte que chacun puisse l'utiliser au quotidien. Il y a des outils natifs qui seront très faciles à utiliser, il y a des outils plus compliqués qui devront obliger les entreprises à bouger.
J'étais avec une autre entreprise récemment qui ont mis en place un dispositif mondial sur tout ce qui était les questions posées à la DRH de l'entreprise. Ils ont décidé du jour au lendemain de supprimer les fonctions qui étaient remplacées par de l'IA. Autrement dit, vous n'avez plus la possibilité d'appeler quelqu'un pour poser une question sur vos droits sociaux, sur ce que vous voulez, vous êtes obligé d'utiliser l'IA. C'est là où je dis qu'il y a une reconception des processus. Donc ça, c'est aussi un moyen. Vous avez évidemment l'accompagnement, des mesures un peu plus coercitives, mais en tout cas, ça doit se penser à un niveau global de l'entreprise.
Jean-Paul, si je dois résumer ce qu'on s'est dit, pour vous, l'IA est une opportunité fabuleuse, positive, si je l'induis finalement dans les cas d'usage qu'on va créer, à la fois avec une grosse implication à tous les niveaux de l'entreprise, mais si je l'envoie vers l'amélioration de la relation humaine.
Oui. Alors je voudrais quand même, parce que je n'en ai pas du tout parlé, insister sur la notion de risque qu'il y a autour de l'IA. Voilà, et c'était de mon... Donc oui, mais il y a des risques. Et pour vous, lesquels ?
Donc, s'il faut être vigilant : partage de la donnée, les accès sécurisés que ça doit représenter, le choix des sociétés de LLM avec lesquelles vous allez travailler. Il y a des risques qui sont réellement technologiques et qu'il faut arriver à maîtriser. Donc il y a cette dimension-là qu'il ne faut pas mésestimer.
Ça devient une opportunité, et qu'il faut mettre effectivement dans la main des métiers, avec un message qui est : profitez-en pour reconcevoir votre façon de travailler, n'essayez pas d'utiliser cela pour simplement optimiser ce que vous faites déjà.
Ce sera le mot de la fin et de la conclusion. Merci encore, Jean-Paul, d'avoir consacré du temps à cette émission.
Les points clefs abordés dans ce 4ème épisode
-
L'IA générative : Transformer et repenser les processus existants
-
L'évolution historique de l'IA et sa place dans notre imaginaire collectif
-
L'importance du sponsorship de haut niveau pour l'adoption massive de l'IA générative
-
L'IA générative, vecteur de reconception du travail au-delà de l'optimisation
Episode #3 | Conversation avec Véronique Torner, Alter Way - Numeum
Lire la transcription
[Musique]
À propos, c'est une série de conversations libres et expertes sur un thème d'actualité de notre écosystème professionnel. Le thème choisi pour cette première série porte sur la révolution que provoque l'émergence des IA génératives sous l'angle : la fracture IA est-elle inévitable ? Alors ce que je désigne par la fracture IA, c'est l'écart a priori irréductible qu'il y aurait entre les individus, les organisations ou les territoires qui auraient accès à ces technologies de ceux qui en seraient éloignés voire exclus. Ce phénomène, on l'a déjà vécu précédemment avec l'avènement du numérique.
Pour évoquer ce sujet, j'ai le plaisir d'accueillir aujourd'hui Véronique Torner, la cofondatrice et directrice générale d'Alter Way, une entreprise du groupe Smile, et également présidente de Numeum. Pour ceux qui ne le sauraient pas, Numeum est le syndicat patronal et la première organisation professionnelle des entreprises du numérique en France.
[Musique]
Véronique, bien sûr, je vais t'interroger sur ce que tu penses de ce phénomène en général, mais plus particulièrement de son impact sur la formation, les compétences, l'emploi.
Alors d'abord ta considération générale. Tu l'as dit en introduction, c'est vrai que l'IA, c'est une véritable révolution. Je crois que tout l'enjeu pour nous aujourd'hui, et quand je dis nous, c'est tout acteur qu'on soit un citoyen, qu'on soit une entreprise, qu'on soit le gouvernement, c'est de pouvoir juger cette révolution au bon niveau et de pouvoir se saisir en fait des opportunités offertes par cette révolution. Donc tout l'enjeu, ce n'est pas de diaboliser en fait l'intelligence artificielle ou au contraire de l'idéaliser, mais c'est de bien comprendre quels sont les enjeux qui se cachent derrière en fait cette révolution.
D'abord, c'est un enjeu économique, tout le monde en parle. Ce sont des enjeux de productivité et donc de croissance. Si on investit aujourd'hui en fait dans l'IA, c'est investir dans la croissance. Tu en as certainement entendu parler du rapport Bouvereau-Aghion qui est sorti là et qui est le rapport sur l'IA, une ambition pour la France. Il y a des chiffres qui ont été donnés au travers de cette étude qui, je trouve, sont intéressants sur la productivité. Le rapport nous dit en fait que sur 10 ans, annuellement, la productivité va progresser de 1,3-1,4%. Ça nous amènera en fait le PIB de la France qui est aujourd'hui à 2850 milliards d'euros, ça nous l'amènerait à 3420 milliards d'euros. Donc il y a un vrai enjeu économique de productivité.
C'est un enjeu social également, on va en parler, c'est le thème. Tu m'interroges sur ce sujet, ça va bousculer évidemment les métiers, ça va bousculer l'emploi, ça va bousculer le travail dans les entreprises. Et puis c'est un enjeu également sociétal et environnemental. Sociétal parce qu'au travers de cette révolution technologique, il y a des sujets d'éthique, de confiance, et donc ce sont des sujets sociétaux. Et puis c'est un sujet environnemental parce que, il y a comme beaucoup de sujets sur le numérique, c'est un sujet potion-poison. Et donc pour ces trois grandes raisons, c'est un enjeu stratégique dont on doit se saisir absolument.
Très bien, ce qui veut dire que, et on va venir sur le deuxième point en particulier, mais si on ne s'en saisit pas au niveau d'un pays, finalement on risque d'entraîner toute la chaîne, que ce soit les territoires, les organisations, les individus. C'est ça le danger de se faire décrocher ?
Ah bah, je pense que si on ne se saisit pas en fait de cette opportunité, derrière on peut avoir un déclassement en fait économique, un déclassement géopolitique.
Alors Véronique, tu es bien placée pour nous répondre sur ce point. Comment est-ce qu'on fait pour adresser au niveau de la formation et de la compétence ?
Alors sur ça, je pense qu'il y a deux grandes thématiques. Première thématique, c'est qu'il faut adresser ce sujet sur l'angle du grand public. L'IA, c'est quelque chose qui touche en fait tout le monde et donc ça, le rapport d'ailleurs Aghion-Bouvereau le dit très, très bien. Et donc sur cette thématique du grand public, eh bien il faut l'adresser dès le plus jeune âge, être en capacité de sensibiliser les plus jeunes à ce qu'est l'IA, pas uniquement l'usage, mais à comprendre ce que c'est pour avoir un bon usage de l'IA et pas un mauvais usage de l'IA.
Ensuite, il y a évidemment dans les cursus de formation, que ce soit en formation continue ou des formations qui soient plus tout au long de la vie initiale, c'est de teinter toutes les formations de l'IA. Il faut questionner : je suis juriste, qu'est-ce que peut m'apporter l'intelligence artificielle ? Je suis médecin, qu'est-ce que peut m'apporter l'intelligence artificielle ?
Et puis il y a une thématique qui est importante, c'est pour toucher le grand public. À un moment donné, il faut qu'on puisse organiser des échanges avec la société sur l'intelligence artificielle.
On a a priori la bonne idée de ce qu'il faudrait faire. Est-ce qu'on en a les moyens ? Est-ce qu'on a la possibilité ? Est-ce que c'est à une échelle de temps ou de délai qui n'est pas trop long parce que le décrochage pourra arriver entre-temps ? Et donc sur le "il faut", on est à peu près tous d'accord sur le fait que cette opportunité existe, mais au-delà du "il faut", qu'est-ce qu'on a finalement mis en œuvre, mis en route pour justement adresser cet enjeu ?
Les dernières révolutions technologiques auxquelles on a dû faire face, elles arrivent très rapidement et à très forte échelle. On a utilisé le terme tsunami des fois, donc on est submergé en fait très rapidement par ce changement, cette évolution. Donc c'est ça l'enjeu, c'est comment on peut faire rapidement en fait qu'on puisse se saisir de l'opportunité.
Bah, ce n'est pas simple. Ça veut dire que là, il faut qu'on s'organise à l'échelle d'un territoire, à l'échelle d'une nation, à l'échelle d'un continent, parce que je pense qu'il faut, comme je l'ai dit tout à l'heure, il faut raisonner à l'échelle européenne pour mettre des moyens et accompagner le plus rapidement possible et sans créer trop de fracture. C'est le thème en fait, finalement. Comment on fait ? Est-ce qu'au bout du bout il y a une fracture ? Et c'est vrai que si on fait les choses trop abruptement, eh bien en fait on n'arrivera pas à toucher tout le monde.
Si on devait retenir un mot en fait de notre échange, ça serait de dire qu'il faut investir dans l'IA parce que c'est un investissement sur la croissance, mais il faut investir sur une IA qui est responsable. Ça, c'est indispensable et ça doit être la signature de l'Europe par rapport, tu le sais, à d'autres pays. On peut les citer, je pense que l'Asie, la Chine, l'Inde, les États-Unis s'encombrent moins.
Exactement, et je pense que nous, on a des valeurs auxquelles on tient et avoir une approche responsable est un point important. Donc il faut investir, c'est ce que fait aujourd'hui France 2030. Il y a quand même des investissements importants qui sont faits au niveau national. Là, le rapport Bouvereau et Aghion, il donne des chiffres. Il dit qu'il faut investir 5 milliards d'euros pendant 5 ans, donc ça fait 25 milliards. C'est cinq fois plus que ce qu'avait donné le rapport Villani.
C'est deux fois et demi plus que le rapport de la commission IA remis récemment au président.
Exactement. Alors après, comment on le finance ?
Et alors tu vois quelles conséquences ? Imaginons qu'on arrive à faire ces efforts d'investissement, en tout cas pour partie. Quelles conséquences tu vois, fait ou pas fait, dans l'emploi, dans la compétence, dans les entreprises, dans l'emploi de mettre des employés, des collaborateurs dans de meilleures situations de vie professionnelle ou bien d'en laisser un certain nombre un peu sur le côté de la route ?
Il y a une étude qui a été faite, sérieuse, là. Il nous indique que globalement, les métiers vont plutôt être à grande tendance augmentés plus que menacés. Mais il y en a quand même certains qui vont être menacés. Donc il y a à peu près, ils disent 5% de métiers qui vont être vraiment menacés, disruptés. Cela dit, il faut accompagner en fait les populations qui sont dans ces métiers, qui sont dans ces compétences pour se reconvertir.
C'est ce que fait Numeum d'ailleurs. On a des solutions aujourd'hui de reconversion, notamment le numérique. On sait le faire, on sait le faire avec des solutions comme Numérique Emploi. On va chercher des gens qui sont éloignés de l'emploi, on les amène dans l'emploi. Numérique Emploi sera teinté à un moment donné de parcours autour de l'intelligence artificielle par exemple. Donc ça, on le sait faire. Pour tout le reste, eh bien il faut mettre en place au sein des entreprises des dispositifs qui permettent d'accompagner cette transformation.
Si je peux me permettre de synthétiser notre entretien, donc l'IA est un enjeu crucial à trois dimensions : la dimension économique, la dimension sociale et la dimension sociétale et environnementale, pour lequel la France, en tout cas les organisations, les efforts, l'éveil en tout cas a déjà lieu et on est lancé. Ça ne veut pas dire pour autant, donc pour saisir cette opportunité plutôt que de subir quelque chose, mais ça ne veut pas dire pour autant que c'est gagné ?
Bah non, rien n'est jamais gagné. Par contre, je pense que la France là quand même a pris sérieusement le sujet en main et je pense à un plus haut niveau. Je pense qu'on n'avait jamais entendu un président de la République prendre un sujet technologique sur le numérique avec autant d'envergure. Maintenant, je crois qu'un vrai sujet, c'est qu'il faut que l'Europe s'en saisisse.
D'accord. Alors l'Europe a fait quand même un bout de chemin ces dernières années. Il y a l'IA Act notamment qui a pris sur le volet réglementaire, régulation, parce que l'Europe telle qu'elle est aujourd'hui, c'est une Europe de la régulation. Maintenant, il faut qu'elle passe à une Europe qui est plus stratège, plus politique, à une Europe qui est en capacité de déployer des politiques industrielles à l'échelle, comme on a su le faire par exemple sur le spatial. Et ça, c'est important. Il faut faire émerger des champions européens parce que ce qu'on n'a pas dit, c'est aussi un sujet de souveraineté.
Ce sera donc le mot de la fin. Il faut se comporter avec l'IA pour en tirer le meilleur bénéfice, en stratège et en responsable.
Exactement.
Merci Véronique.
Merci à toi.
[Musique]
Les points clefs abordés dans ce 3ème épisode
-
Le potentiel de croissance économique lié à l'IA
-
La transformation du paysage professionnel par l'IA
-
L'adaptation du système éducatif et de formation à l'ère de l'IA
-
Les enjeux stratégiques et de souveraineté européenne face à l'IA
Episode #2 | Conversation avec Alexandra Bensamoun, Université de Paris Saclay
Lire la transcription
[Musique]
À propos, c'est une série de conversations libres et expertes sur des sujets d'actualité de notre secteur professionnel. Le thème choisi pour cette première série porte sur l'émergence des IA génératives sous l'angle : la fracture IA est-elle inévitable ? Ce que je veux désigner par fracture IA, c'est l'écart a priori irréductible entre les individus, les organisations ou voir les territoires qui auraient accès à ces technologies de ceux qui en seraient éloignés ou exclus. Ce phénomène, nous l'avons déjà vécu avec l'émergence du numérique.
[Musique]
Pour évoquer ce sujet aujourd'hui, j'ai le plaisir d'accueillir Madame Alexandra Bensamoun, membre de la commission interministérielle de l'IA, professeure de droit à l'Université Paris-Saclay, pour évoquer un angle particulier de ce sujet, celui de l'enjeu sociétal et entrepreneurial.
Alors Alexandra, avant de commencer les questions, j'aimerais avoir votre regard sur justement ce thème et sa façon d'être posé concernant la fracture IA.
Eh bien, merci Frédéric pour cette présentation et cette première question. Moi, je trouve l'approche particulièrement pertinente parce qu'on est ici face à un événement majeur de la société. On est face à une technologie disruptive qui va modifier à la fois les usages, mais les usages personnels, familiaux sans doute, les usages d'apprentissage et puis les usages entrepreneuriaux, vous l'avez dit vous-même. Et dans ces conditions, il est impératif de monter dans le train de l'intelligence artificielle et donc d'éviter cette fracture qu'on connaît, qu'on connaît aujourd'hui dans notre société, que j'espère non irréductible comme vous l'avez dit. Et au contraire, j'espère que nous arriverons, notamment par ces échanges, eh bien à réduire cette fracture, à diffuser le message, à faire en sorte que les gens comprennent tout simplement de quoi on parle.
Donc réduire cette fracture, ça voudrait dire que vous avez quand même une crainte, euh, qu'elle existe ou en tout cas qu'elle puisse se produire à terme ? Cette crainte, vous la matérialiseriez comment ?
D'abord, l'intelligence artificielle, c'est beaucoup de fantasmes. Déjà on peut commencer par là. Il faut prendre conscience de ce qui existe déjà. Nous avons une intelligence artificielle qui est une intelligence artificielle faible, qui est non consciente, voilà, et mais qui est déjà suffisamment importante pour qu'on y réfléchisse, pour qu'on agisse au niveau européen, pour qu'on régule son usage. Donc déjà, peut-être pour moi, ça passe beaucoup par la compréhension. Essayons de comprendre là où on est et à partir de là, on pourra réduire cette fracture.
Beaucoup entretiennent encore des fantasmes qui sont plus de la science-fiction que de la réalité. L'IA est un outil formidable qui va nous permettre des choses incroyables, sans doute des progrès, sans doute une croissance économique. Mais l'IA est aussi un vecteur, parce que la technologie est forte et bien présente, des dangers, des dangers de manipulation de comportement, des dangers peut-être... Vous aviez entendu parler aux États-Unis de ce fameux système COMPAS pour l'évaluation de la récidive en matière pénale. Voilà, je crois qu'il est important de dire que parce que la technologie est forte, eh bien les usages doivent être encadrés.
Compris, pour c'est l'objet de votre mission en fait, à la fois de dire et de proposer une façon d'avancer sur ces technologies pour garder un minimum, un minimum de contrôle ou en tout cas de maîtrise, et d'autre part de les réguler pour qu'on n'en fasse pas n'importe quel usage et justement que ce soit au bénéfice du plus grand nombre. C'est ça, et c'est surtout votre travail par rapport à l'Europe aussi, pas seulement pour la France mais pour l'Europe, pour que ne rentre pas, euh, sur notre territoire n'importe quel type de technologie ou d'usage ?
Exactement. Et c'est aussi la démarche qu'on a suivie au sein de la commission interministérielle de l'intelligence artificielle. C'est qu'on a d'abord voulu dédiaboliser, d'accord, mais pour autant sans verser dans l'angélisme. C'est-à-dire qu'il faut être éveillé. Que peut-on faire pour installer la révolution intelligence artificielle en France, en Europe, dans de bonnes conditions, dans de bonnes conditions sans en craindre les conséquences ? Et dans ce cadre, il me semble en effet que le règlement qui est en finalisation, qui sera dans quelques jours définitivement adopté au sein de l'Union européenne, le règlement AI Act, eh bien participe, hein, de cette démarche vers une implémentation de la technologie sur le marché européen.
Ce qui veut dire qu'entre les efforts de conscience et donc les actions qui vont découler de cette conscience en France comme en Europe, cette capacité à se protéger de n'importe quoi ou en tout cas de faire émerger quelque chose qui serait pour un bien collectif, vous rassure sur l'avenir de nos entreprises, l'avenir de nos concitoyens ou l'avenir d'un pays comme le nôtre ? Où vous imaginez quand même que ces efforts sont tellement importants qu'ils ne pourront pas tous être faits et donc, bon, je sais bien que la réponse sera un peu mitigée, mais ne pouvant pas être faits, ces efforts ne vont pas permettre forcément qu'on atteigne ces objectifs ?
Peut-être on peut se positionner à deux niveaux, euh, au niveau de la France et puis au niveau de l'Europe. Au niveau de la France, euh, oui, de manière évidente, nous avons un retard, un retard par rapport à des grandes puissances de l'IA. On pense bien sûr aux États-Unis, à la Chine. On le sait, les investissements en France ne sont pas suffisants et la commission a recommandé d'augmenter de manière tout à fait notable les investissements. On investit, à richesse comparable, trois à quatre fois moins que les États-Unis dans l'intelligence artificielle. Donc de manière évidente, oui, il y a un effort pour prendre le train de l'intelligence artificielle et pour ne pas le regarder passer.
Par ailleurs, d'un point de vue beaucoup plus sociétal, toujours en France, et ça c'était vraiment notre première recommandation dans le rapport, c'est qu'il faut former, former, sensibiliser, acculturer toute la société à l'intelligence artificielle. Si on veut que l'intelligence artificielle soit reçue dans la société, si on souhaite qu'elle ne provoque pas cette fracture dont vous parlez, Frédéric, eh bien il faut impérativement qu'elle soit comprise, que les gens y adhèrent, donc qu'ils sachent. Et ça, ça passe par de la formation. Et on disait, mais de la formation de la maternelle jusque au plus vieil âge, en formation initiale mais aussi en formation continue, formation tout au long de la vie, formation dans les territoires, formation pour les agents publics, formation pour vos employés. Eh bien, tout le monde doit être formé à l'intelligence artificielle, tout le monde doit comprendre de quoi on parle, aussi pour éviter le fantasme.
Donc ça, c'est vraiment le point de vue français. Et puis vous avez le point de vue européen. Et moi, je suis persuadée que la régulation va aider les entreprises. Et pour discuter très souvent avec des chefs d'entreprise, et récemment encore à l'occasion d'un dîner avec un certain nombre de chefs d'entreprise, j'entendais des chefs d'entreprise me dire : "Nous, euh, ce qu'on veut, c'est savoir, savoir exactement ce qu'on peut faire, ce qu'on ne peut pas faire et comment on peut le faire." Parce qu'avoir un encadrement, ça nous rassure.
Donc si je peux me permettre de synthétiser vos propos, vous dites : nous sommes éveillés, et c'était quand même le point de départ. Nous avons des moyens d'agir, même s'il en faudrait toujours plus, bien sûr. Nous sommes capables de former notre jeunesse, donc nous sommes capables d'éviter, on va dire en tout cas, les plus grands dangers d'une fracture de l'IA. C'est ce que je pense.
Alors c'est vrai que j'ai un tempérament assez optimiste en général, parce que je pense qu'on construit. Et on est vraiment avec l'IA dans une dynamique, dans ce chemin.
Exactement, tout est ouvert. Il nous appartient de nous saisir de la technologie et d'en faire ce qu'on souhaite en faire. Faut pas oublier que l'IA, c'est un outil. L'IA sera ce que nous décidons qu'elle sera.
Ce sera le mot de la fin. Je vous remercie Alexandra d'avoir consacré du temps à cet échange et à bientôt.
Au revoir.
[Musique]
Les points clefs abordés dans ce 2ème épisode
-
La nécessité de comprendre et démystifier l'IA pour réduire la fracture numérique
-
L'importance de réguler l'usage de l'IA, notamment au niveau européen
-
Le besoin d'augmenter les investissements en France dans l'IA
-
L'importance cruciale de former et sensibiliser toute la société à l'IA
Episode #1 | Conversation avec Pierre-Éric Mounier-Kuhn, CNRS
Lire la transcription
[Musique]
À propos, c'est une série de conversations libres et expertes sur des sujets d'actualité de notre secteur professionnel. Le thème choisi pour cette première série portera sur la révolution que provoque l'émergence de l'IA, l'IA générative sous l'angle : la fracture IA est-elle inévitable ? Ce que je désigne ici par la fracture IA, c'est l'écart a priori irréductible entre les individus, les organisations ou même les territoires qui auraient accès à ces technologies de ceux qui en seraient éloignés voire exclus. Ce phénomène qu'on a déjà constaté précédemment avec l'avènement du numérique.
[Musique]
Alors dans cette première conversation, j'ai le plaisir d'accueillir Pierre-Éric Mounier-Kuhn, historien chercheur au CNRS pour aborder le sujet de l'IA et de la fracture IA dans sa dimension générale.
En effet, je suis historien de formation littéraire, j'ai fait du grec et du latin mais je me suis toujours intéressé à l'histoire des sciences et des techniques que j'enseigne maintenant à CentraleSupélec. J'ai fait ma thèse sur l'histoire de l'informatique et sur les premières politiques gouvernementales qu'on peut appeler aujourd'hui de souveraineté numérique mais qui remontent déjà aux années 1960.
Alors la première question me brûle les lèvres, mais avant j'ai envie de savoir si vous pensez qu'on a correctement posé notre sujet de cette fracture IA inévitable et est-ce qu'on a déjà des premiers éléments d'analyse chiffrés ou pas sur lesquels s'appuyer pour réfléchir ?
Bah, votre introduction était très ouverte, très open bien sûr, donc on peut rebondir dessus. Il n'y a pas de définition académique de l'intelligence artificielle, il y en a plusieurs. La première remonte à l'invention même d'ordinateur avec l'article d'Alan Turing dans Mind, dans la revue de psychologie Mind. L'intelligence artificielle consiste à faire imiter par des machines électroniques le comportement humain et les facultés humaines, typiquement pour aboutir à une tâche, pour faire quelque chose comme par exemple simuler une conversation.
Une deuxième définition : l'intelligence artificielle vise à faire faire à des ordinateurs autre chose que du calcul numérique. Alors on s'est lancé dans de la traduction automatique, dans de la reconnaissance de forme, etc., des techniques de simulation de raisonnement. On en est toujours là, c'est essayer de faire des choses qui ne sont pas de la logique pure ou des mathématiques du calcul mathématique.
Une troisième définition, qui est un peu personnelle et que j'affectionne, c'est que l'informatique a pour horizon permanent l'intelligence artificielle. L'intelligence artificielle, c'est l'horizon qui n'arrête pas de reculer au fur et à mesure que l'informatique progresse.
Justement, ces jalons que nous passons au fur et à mesure qui repoussent un tout petit peu, donc qui nous amènent vers un champ des possibles qu'on n'imaginait pas, est-ce que ça constitue pour vous un élément donc d'inquiétude, un élément de progrès ? Vous allez me dire sûrement que progrès et inquiétude vont souvent de pair. Et est-ce que vous considérez que pour être dans notre question, c'est à la portée de tous ?
Alors, déjà ce n'est pas un champ des possibles qu'on n'imaginait pas, c'est au contraire, si vous me permettez, c'est un champ des possibles qu'on a toujours imaginé bien avant que ce soit possible. Oui, en fait c'est un rêve qu'on commence à toucher quoi. On commence à approcher, on s'approche, on frôle le rêve de fabriquer des androïdes. Il remonte à très loin, à l'Antiquité bien sûr, mais dans la littérature vous avez la légende du marchand de sable par Hoffmann dans les contes d'Hoffmann au début du 19e siècle, qui parle, qui décrit un androïde créé par un savant dont le voisin tombe amoureux.
Vous avez la même chose qui est réalisée donc à partir de 1950. Les grandes machines électroniques, les ordinateurs permettent de passer du stade d'idée au stade de projet et donc on a ces projets qui commencent à s'appeler intelligence artificielle. Le premier chatbot donc c'est ELIZA en 1966 et l'inventeur, le développeur d'ELIZA, Joseph Weizenbaum, était très inquiet de voir que rapidement les gens sur lesquels il testait ELIZA commençaient à projeter des sentiments alors qu'il leur avait bien dit : "Attention, c'est un ordinateur, c'est un robot, c'est une machine." Et les gens ne pouvaient pas s'empêcher de projeter des sentiments.
Donc si je vous suis, ce que vous voulez nous dire peut-être indirectement, c'est que finalement nos mentalités sont prêtes à cette émergence de l'IA générative qui devient quelqu'un de proche de nous puisqu'on peut lui parler, il nous répond avec une puissance et une connaissance qu'on considère, qu'on voit comme infinie. Donc ce que vous voulez dire, c'est que depuis plusieurs siècles nous serions prêts et donc nous sommes capables d'accueillir ce progrès ?
Je vais être provoquant : sans difficulté, non. C'est pensable, ce n'est pas pour ça que c'est acceptable. D'accord, les gens ont pu l'envisager et alors là ça dépend totalement des différences de psychologie de chacun ou des milieux. Vous avez des gens pour qui c'est pensable et souhaitable, vous avez des gens pour qui c'est pensable et redoutable, et vous avez toutes les nuances d'opinion entre les deux.
En 1948, un grand écrivain français, Bernanos, qui était un chrétien antifasciste, a écrit un livre qui s'appelle "La France contre les robots". Alors ce livre ne signifie pas du tout que la France est contre les robots, l'automation. Il disait : le vrai problème, ce n'est pas tellement qu'un jour les robots seront capables d'imiter le comportement humain, ce qui est vraiment grave, c'est qu'il y a tant d'humains qui se comportent comme des robots. Et c'est contre ça qu'il met en garde.
Pour aller toujours dans le sens de notre question de cette fracture IA, est-ce que vous n'avez finalement pas plus peur que ça de ce progrès que cette IA générative nous propose aujourd'hui et qui se projette avec encore plus de capacité ? Que finalement l'usage qu'on va en faire et dans ces cas-là, est-ce qu'il y a des comportements collectifs, individuels, sociétaux qu'il faudrait prendre ou alors éviter ?
Alors, je ne suis pas le seul, enfin beaucoup de gens craignent la prise de pouvoir de la machine sur l'homme, pour résumer. Et ça, ça fait l'objet non seulement de romans de science-fiction et de films comme Alphaville ou 2001 l'Odyssée de l'espace. 2001 l'Odyssée de l'espace, c'est quand même la grande mise en scène que le monde entier a vue d'humains qui sont embarqués dans un vaisseau spatial contrôlé par un ordinateur qui devient psychopathe.
Exactement, c'est quand même le cauchemar des cauchemars et donc c'est une métaphore de l'évolution de la civilisation, de l'humanité et de la technique. Et donc ça a éveillé pas mal de consciences, ça a contribué à éveiller pas mal de consciences. Ce qui fait que dans la deuxième moitié des années 90 avec l'avènement de l'Internet et le redémarrage de nouvelles recherches sur l'IA, et surtout dans les années 2000, des scientifiques comme Stephen Hawking et d'autres, et des hommes d'affaires y compris Bill Gates, ont commencé à lancer des cris d'alerte contre le danger de la prise de contrôle par la machine, par l'informatique, par l'IA de l'humanité et de son destin.
Alors pour conclure, on doit craindre une fracture IA, on doit craindre autre chose que ça ?
Alors autant je suis modéré quand je parle d'un certain nombre de sujets, autant là je vous réponds carrément oui parce que la fracture, quel que soit l'adjectif, est inhérente au progrès technique. À partir du moment où des gens réalisent un progrès et quelques utilisateurs innovateurs l'adoptent tout de suite, ils montent dans le train, parfois c'est eux-mêmes qui ont conçu le train et qui conduisent, et puis il y a d'autres gens qui restent sur le quai ou qui regardent passer.
Et ça, c'est vrai depuis le Néolithique, depuis qu'on a inventé l'agriculture et que quelques civilisations se sont créées avec pour la première fois des millions d'habitants dans des empires qui laissaient de côté des chasseurs-cueilleurs. Et on peut aller comme ça jusqu'à la révolution industrielle. Le pays qui a initié la révolution industrielle, qui a pris de l'avance avec la machine à vapeur, les nouvelles technologies, est devenu le maître du monde parce que les autres étaient largués.
Et pratiquement, pourtant on pourrait se dire qu'avec une proposition comme celle de Chat GPT, eh bien l'IA est à la portée de tous ?
Oui, sauf que là vous avez ce qu'on a appelé depuis les années 1990 la fracture numérique, le digital divide, qui peut se définir de plusieurs façons. D'abord, c'est le problème de l'inégal accès matériel aux ordinateurs et aux systèmes informatiques, au réseau. Ensuite, c'est le problème de l'inégale capacité à utiliser ces machines même si on y a accès puisqu'on n'a pas l'éducation. Voilà, et puis vous avez des entremêlements parce qu'en France, pays relativement avancé et industrialisé, vous avez d'énormes zones blanches de l'Internet et du Wi-Fi.
Ce que vous dites, c'est que la vulgarisation existe quand même, donc ça, c'est pour moi, c'était la - je parle en mon nom - une très bonne nouvelle pour éviter justement une fracture immédiate et profonde. La vulgarisation donc permet quand même un accès. Pour autant, elle ne sera quand même pas complètement égale. Et l'autre élément qui nous soucie pour justement traiter ce point de cette rupture, c'est celui de la rapidité d'adoption, la rapidité de propagation d'une nouvelle technologie. Est-ce que vous ne pensez pas qu'avec la rapidité actuelle sur une population effectivement aujourd'hui plutôt préparée à cela, est-ce qu'avec cette rapidité on n'aura pas la capacité pour les États, pour ceux qui vont réguler les choses, de se préparer pour permettre d'embarquer le plus de monde possible ?
Bah, les États, les grandes organisations ont toujours un temps de retard. C'est l'innovateur qui mène la danse dans ces cas-là. Mais c'est à l'État, s'il le veut, si on le souhaite, de reprendre le contrôle. Si on veut faire un humain numérique, il faut que l'humain garde le contrôle de la technique. Donc c'est un problème politique et ça a été très bien montré par exemple dans les difficultés qu'a rencontrées Facebook il y a une dizaine d'années, à la suite de la campagne présidentielle américaine.
Facebook a été en butte à des critiques d'ailleurs un peu contradictoires. On lui reprochait à la fois d'être trop laxiste vis-à-vis de certains contenus et de pratiquer au contraire une censure excessive. Et Facebook a estimé que ce n'était pas le rôle d'une entreprise privée d'imposer des principes éthiques ou de filtre politique au contenu et il s'est tourné vers les pouvoirs publics. La conclusion, ça a été : il faut créer un conseil de surveillance indépendant qui imposera ou suggérera des principes en fonction des grands principes des droits de l'homme pour trouver un compromis entre les différents critères, les grandes contraintes que sont la sauvegarde de la vie privée, la sécurité, la liberté d'expression et l'égalité d'accès.
Très bien, je crois qu'on a fait un premier tour de cette question qui restera un champ d'investigation toujours vivant parce qu'il est très dynamique. On n'aura pas une réponse directe parce que je pense qu'il n'y en a pas pour l'instant sur cette fameuse inévitabilité d'une fracture. En tout cas, on a eu une première impression avec l'expérience et le recul d'un historien des sciences. Merci beaucoup.
[Musique]
Les points clefs abordés dans cet épisode
-
L'évolution historique de l'IA et sa place dans notre imaginaire collectif
-
Le rôle des États dans la régulation de ces technologies
-
Les inquiétudes et risques potentiels liés à l'IA, notamment la peur des machines
-
La fracture numérique et ses différentes dimensions : défi majeur pour l'adoption