Logo du journal L'Opinion

ChatGPT : les patrons s’en méfient, les employés l’adorent

Par Lindsay Ellis

Article publiée dans L'Opinion n° 20230324 le 24/03/2023

Quand employés — et patrons — ont l’autorisation d’utiliser ChatGPT au travail, c’est potentiellement le début des ennuis.

Rendue publique fin novembre, cette technologie d’intelligence artificielle générative créée par OpenAI, une startup soutenue par les milliards de dollars de Microsoft, a été immédiatement adoptée par de nombreux travailleurs pour rédiger des e-mails et créer des présentations PowerPoint tout à fait professionnelles, ainsi que des chaînes de code permettant d’automatiser les tâches.

Tout aussi rapidement, on a observé une réaction de rejet des travaux écrits par un robot chez certains collègues et responsables. Savoir quand il est approprié — ou pas — d’utiliser l’intelligence artificielle pour communiquer, évaluer les performances humaines et créer des astuces pour la productivité afin d’effectuer une tâche plus vite fait désormais l’objet de débats dans les entreprises, petites et grandes, de tous les secteurs. Les enquêtes indiquent que ChatGPT est déjà largement utilisé par les employés, certains soulignant que cela leur permet d’être plus productifs. De nombreux dirigeants ne sont pas à l’aise à l’idée que les employés peuvent y intégrer des informations confidentielles à l’entreprise.

Plusieurs grandes sociétés, comme JPMorgan Chase & Co et Verizon Communications, ont bloqué l’accès à ChatGPT. D’autres encouragent le recours à des alternatives. Amazon, par exemple, exhorte certains de ses ingénieurs qui veulent des conseils ou des raccourcis en codage à utiliser son outil d’IA maison, appelé CodeWhisperer, rapporte une porte-parole d’Amazon.

Richie Flores, ingénieur logiciel de 31 ans, raconte qu’il a utilisé ChatGPT à son travail chez Northrop Grumman, une entreprise spécialisée dans la défense et l’aérospatiale, pendant des mois jusqu’à ce que sa société le bloque, il y a quelques semaines. L’entreprise dit ne pas vouloir permettre que ses données ou celles de clients ne soient partagées sur des plateformes externes tant que ces outils n’ont pas fait l’objet d’une vérification exhaustive.

M. Flores affirme que ce n’était pas ce qu’il faisait. Il se servait de ChatGPT pour poser des questions sur des concepts de codage. Un jour, il a demandé à l’agent conversationnel de lui expliquer comment concevoir un outil qui se connecterait à une base de données, et ChatGPT a exposé les étapes nécessaires dans un langage verbal, pas en code. M. Flores dit qu’il a ensuite utilisé ces recommandations pour créer lui-même le code en question.

« C’est, en fait, un mentor vraiment sympa, patient, qui ne va pas du tout être agacé que vous posiez des tas de questions », précise-t-il, ajoutant que ces gains d’efficacité l’ont aidé à respecter ses délais sans être obligé de travailler le soir ou le week-end.

Les inquiétudes en matière de confidentialité et de secrets commerciaux existent dans tous les secteurs, mais certains ont des préoccupations bien particulières.

ChatGPT emballe les avocats car il permet de réaliser plus rapidement des tâches assommantes et chronophages, comme des résumés de jurisprudence, affirme Jamie Buckley, chef de produit chez LexisNexis Legal and Professional. Les cabinets d’avocat ont mis en place de nouvelles politiques, qui vont d’empêcher les employés d’entrer des informations confidentielles dans la plateforme ChatGPT à interdire aux avocats de transmettre aux clients des conseils juridiques sous forme de textes générés par l’AI et non-édités. Un des gros soucis dans ce domaine est l’exactitude, explique-t-il.

De nombreuses entreprises luttent encore pour trouver le moyen de superviser et de réguler l’IA générative sur le lieu de travail. Sur presque 12 000 employés interrogés dans le cadre d’une enquête réalisée en janvier par Fishbowl, une application de chat au travail, plus de 40 % disent utiliser ChatGPT ou d’autres outils d’IA dans le cadre professionnel. Presque 70% affirment le faire sans le dire à leur supérieur.

Figma, une entreprise de logiciels, est en train d’essayer de déterminer si les employés se servent déjà de ChatGPT, rapporte sa porte-parole.

Le chef de produit de Figma, Robert Bye, 31ans, originaire d’Orlando, en Floride, dit avoir intégré l’outil dans son travail, tout en faisant attention à ne pas partager d’informations confidentielles sur la plateforme.

M. Bye rapporte avoir demandé à ChatGPT de faire semblant d’occuper son poste dans une entreprise technologique — sans nommer Figma dans sa demande — puis de lui fournir un plan en dix points, basé sur des ébauches d’idées qu’il y avait introduites. Ensuite, il lui a demandé de réécrire les premiers jets pour qu’ils aient l’air plus informatifs, familiers, concis, chargés émotionnellement ou inspirants. Il affirme éditer tous les textes générés par l’IA avant de les utiliser.

M. Bye, qui est dyslexique, explique qu’écrire lui prend des heures et que ChatGPT lui permet de gagner en efficacité. Il l’utilise assez souvent pour l’avoir épinglé dans la barre d’outils de son navigateur, aux côtés de sa boîte mail et de son calendrier.

« Comme ça, je passe davantage de temps à faire ce que je sais bien faire, c’est-à-dire pas à écrire », explique-t-il.

De nombreux employeurs sont inquiets à l’idée qu’utiliser des textes générés par l’IA en ôte la touche humaine, particulièrement aux moments où elle est le plus nécessaire.

Deux employés de l’université Vanderbilt ont quitté leur poste après avoir utilisé ChatGPT pour rédiger un e-mail destiné aux étudiants à la suite d’une fusillade qui avait eu lieu sur un autre campus. Dans le message, ils encourageaient les étudiants à prendre soin les uns des autres et à aider ceux qui pouvaient avoir possiblement des problèmes de santé mentale. L’e-mail, dont la dernière phrase était « Paraphrase du modèle de langage d’AI ChatGPT d’OpenAI, communication personnelle, 15 février 2023 » — a attiré de nombreuses critiques, notamment de la part de l’humoriste John Oliver lors d’une séquence de son émission sur HBO « Last Week Tonight. »

Camilla Benbow, doyenne de Vanderbilt supervisant le service qui a envoyé l’e-mail aux étudiants, raconte avoir été troublée que le message « soit passé à ce point à côté de la nécessité cruciale de relations interpersonnelles et d’empathie à un moment aussi tragique. »

Michael Ringman, directeur de l’information chez Telus International, s’est tourné vers ChatGPT en janvier lorsqu’il rédigeait les évaluations annuelles. Il a demandé comment l’outil évaluerait un employé très performant. Une autre fois, il a partagé avec ChatGPT les critères d’évaluation pour voir quel serait le résultat.

Bien qu’il n’ait pas directement copié des phrases entières dans les évaluations, il affirme que cela l’a aidé à mettre en forme ses commentaires sur les performances de ses équipiers. M. Ringman souligne l’importance, pour les dirigeants, de passer du temps sur les évaluations des performances et d’utiliser avec précaution un robot éventuellement biaisé pour évaluer des effectifs. Il dit ne pas avoir proposé de recommandations à ses équipes sur la bonne manière d’utiliser ChatGPT.

S’il peut permettre de gagner du temps, il existe de vrais risques à évaluer les employés avec ChatGPT, prévient Ben Jackson, fondateur de Hear Me Out, une entreprise de stratégie culturelle. Les employés peuvent se sentir mal à l’aise, explique-t-il, si les retours générés par des logiciels deviennent un facteur de promotion ou de licenciement.

« Il est facile de voir les bénéfices du recours à une technologie comme l’intelligence artificielle générative quand c’est à vous que son usage fait gagner du temps », conclut-il. « Mais il est aussi plus facile d’en ignorer les risques potentiels. »