L’intelligence artificielle générative, et notamment ChatGPT, a fait une entrée fracassante dans nos vies. Son usage a vite dépassé la sphère privée pour s’imposer dans le monde du travail. Si certaines entreprises en ont purement et simplement interdit l’usage, nous conseillons plutôt de miser sur l’encadrement. Cela permet d’exploiter le potentiel de l’IA tout en minimisant les risques.
Le droit de donner des directives
Selon l’article 321d CO, l’employeur·euse peut établir des directives générales et donner des instructions particulières. Il est ainsi possible de proscrire l’usage de l’intelligence artificielle générative et de sanctionner en cas de non-respect de l’interdiction. Toutefois, face à l’omniprésence de l’IA et aux opportunités qu’elle offre, il est plus adéquat de sensibiliser, d’édicter des règles claires et de former les collaborateurs et collaboratrices. Cela peut se faire par le moyen d’une directive IA. Il n’est pas nécessaire que la directive fasse partie intégrante du contrat de travail. En effet, en raison de son devoir de fidélité, le personnel a l’obligation de respecter la directive, même sans l’avoir signée. L’employeur·euse doit bien entendu la porter à la connaissance du personnel.
Contenu
La directive IA doit commencer par des explications et définitions. Bien que l’intelligence artificielle soit omniprésente et souvent facile d’accès, son fonctionnement reste parfois méconnu. Or, il est important d’en comprendre les grandes lignes pour mieux en saisir les risques. Ces derniers doivent aussi être abordés dans la directive. Le personnel doit être rendu attentif aux possibles hallucinations de l’IA ainsi qu’aux biais potentiellement présents dans les données d’entraînement. La directive peut ensuite donner des exemples concrets d’utilisation de l’IA dans l’entreprise. Les cas d’application sont innombrables, allant de l’analyse de textes à l’établissement de tableaux Excel en passant par la création d’images et de vidéos. Posez un cadre clair et laissez expérimenter vos collaborateurs et collaboratrices !
Quelques règles simples
La plupart des outils, notamment les versions gratuites, ne garantissent pas la confidentialité. Partant, les données confidentielles ou personnelles ne doivent pas être introduites. Quant aux données personnelles, il ne suffit pas de simplement anonymiser les noms : tant que les données peuvent être rapportées à une personne déterminée sans que celle-ci soit nommée, les données restent personnelles. Un gros effort d’anonymisation allant au-delà du simple caviardage des noms sera donc souvent nécessaire avant toute utilisation d’un outil IA. Il convient aussi de prêter une attention particulière à l’utilisation d’oeuvres protégées par le droit d’auteur. Les photos, vidéos, textes et autres oeuvres existants sont protégés par les droits d’auteur dès leur création, ce qui exclut toute modification non autorisée par une personne tierce. Le collaborateur et la collaboratrice doivent par exemple savoir qu’il est interdit de prendre une photo trouvée sur Google et de la faire modifier par l’IA.
Enfin, et c’est crucial : ChatGPT et ses équivalents ne remplacent pas l’esprit critique. Au contraire, il faut redoubler de vigilance ! Les propositions générées par l’IA doivent être prises pour ce qu’elles sont : des suggestions. L’IA peut fournir un point de départ, proposer des axes d’amélioration ou servir de source d’inspiration. Mais en aucun cas, les résultats générés par l’IA doivent être repris tels quels sans les avoir comparés à d’autres sources. L’IA est un outil puissant, mais elle n’a ni discernement ni responsabilité. C’est à l’utilisateur·trice de prendre du recul et d’assumer pleinement les choix qui en découlent.
Les sujets juridiques vous intéressent?
Inscrivez-vous à notre newsletter en remplissant le formulaire ci-dessous.
« * » indique les champs nécessaires