« IL NE FAUT PAS DRAMATISER L’INTELLIGENCE ARTIFICIELLE »

Thomas Husson, vice-président, analyste
sénior au sein du cabinet international
d’études et de conseil chez Forrester.
Thomas Husson, vice-président, analyste sénior au sein du cabinet international d’études et de conseil chez Forrester.

À l’occasion de l’IA Week le mois dernier, la Serre numérique et la CCI Grand-Hainaut ont organisé trois rendez-vous autour de l’Intelligence artificielle (IA), parmi lesquelles la convention réseaux Synapse, animée par Thomas Husson. Interview.

« L’usine du futur aura deux salariés : un homme et un chien. Le chien pour protéger les robots, l’homme pour nourrir le chien. » C’est ainsi qu’Antoine Sabbagh, rédacteur en chef adjoint de France Bleu Normandie, a introduit le premier rendez-vous de l’IA Week à Valenciennes. Cette citation, empruntée à Carl Bass, ancien président d’Autodesk, a interpellé plus d’un dirigeant. Sauvegarde des données confidentielles, risque de suppression d’emplois… L’Intelligence artificielle inquiète. Thomas Husson, vice-président, analyste seenior au sein du cabinet international d’études et de conseil chez Forrester, tente de dédramatiser la situation.

Picardie La Gazette : L’iIntelligence artificielle est-elle l’amie ou l’ennemie de l’homme ?

Thomas Husson : J’aurais plutôt tendance à parler d’intelligence augmentée, car il n’y a pas vraiment d’Intelligence “artificielle” dans le sens où la machine aurait vraiment conscience d’elle-même et commencerait à penser par elle-même. On crée une espèce de science-fiction autour de la machine qui prend la place de l’homme etc. Mais c’est encore assez loin de la réalité pragmatique que la plupart des entreprises connaissent. Dire que cette intelligence est l’amie ou l’ennemie de l’homme, c’est trop schématique. Je pense que la réalité est plus nuancée. On va aller vers une automatisation de certaines tâches, mais ça ne va pas forcément tuer des emplois. On a encore du mal à l’imaginer, mais il va bien falloir superviser ces machines, les entraîner. De nouveaux métiers autour de la gestion des données vont arriver. On le voit bien avec les ingénieurs data et les problèmes d’éthique. Mais surtout, dans un premier temps, l’IA va aider les employés à se concentrer sur des tâches moins manuelles et à fortes valeurs ajoutées, des tâches que la machine ne sait pas bien accomplir, comme la gestion des émotions, l’interdisciplinarité, le service, la créativité… Par ailleurs, l’IA aidera l’homme au niveau des calculs et de la mémoire, car le cerveau humain ne peut pas brasser autant de données qu’une machine.

P.L.G. : À propos de la question d’éthique, doit-on craindre la collection de données personnelles ?

T.H. : La question d’éthique brasse deux aspects. Il y a l’aspect de la vie privée et de l’accès à des données que le consommateur ne souhaite pas partager. Et il y l’aspect algorithmique. C’est plutôt cet aspect qui me semble sensible. L’IA fonctionne certes grâce à un algorithme, mais l’algorithme repose surtout sur les données qui le nourrissent. Si l’entrée n’est pas bonne, la donnée en sortie sera mauvaise aussi. Si on ne rentre que les mêmes profils d’utilisateurs – admettons, uniquement des hommes blonds, blancs, de 40 ans – il y a des risques de discrimination en sortie. On en a vu l’exemple avec des chatbots [ndlr, robots logiciels capables de dialoguer avec un individu] aux États-Unis. Il faut donc une traçabilité de l’information. Or, il est vrai que certains algorithmes fonctionnent de manière assez opaque, et on ne sait pas trop comment ils arrivent à leurs conclusions. Il y a des enjeux politiques et sociétaux forts, et la question de la régulation des données utilisées va donc se poser.

P.L.G. : Aucune réglementation n’est en vigueur à ce jour ?

T.H. : Même si on en parle beaucoup en ce moment, nous ne sommes qu’au début de l’Intelligence artificielle. C’est encore assez tôt pour avoir une vraie réglementation. Il y a encore un besoin d’appropriation du sujet par un certain nombre d’acteurs politiques, pour qu’ils puissent bien en mesurer les enjeux sociétaux. Beaucoup de cas d’usage vont seulement arriver, les technologies vont encore évoluer… Ça va s’inscrire dans la continuité de la régulation de la data et de ce qu’on voit aujourd’hui autour de la RGPD. Il y a une prise de conscience, mais ce n’est pas encore tout à fait structuré. Certains acteurs – notamment les GAFA, car ce sont eux qui ont davantage recours à l’IA aujourd’hui – préfèrent parler d’autorégulation, puisque c’est dans leur intérêt bien compris. Mais en réalité, il y a encore assez peu d’entreprises qui utilisent vraiment l’IA. Il ne faut donc pas la dramatiser.