Utiliser ChatGPT sans compromettre les données de l'entreprise
Vous souhaitez profiter des capacités de ChatGPT sans pour autant compromettre vos données personnelles ou celles de votre entreprise ? Il existe une méthode simple pour cela.

Découvrez le "chat éphémère" : votre allié confidentialité en entreprise
Un peu comme lorsque vous activez le mode Incognito sur Google Chrome ou une Fenêtre privée dans Safari pour naviguer en toute discrétion, ChatGPT propose une fonctionnalité appelée "Chat éphémère". La bonne nouvelle, c'est que l'accès à ce mode est encore plus simple que sur les navigateurs. Le bouton se trouve en haut à droite de la page d'accueil de ChatGPT. Un clic suffit pour ouvrir une nouvelle interface de discussion.
Bien que vos conversations en mode éphémère ne soient pas utilisées pour entraîner les modèles d'IA, ChatGPT précise que "pour des raisons de sécurité, nous pouvons conserver une copie de cette conversation pendant 30 jours au maximum".

Quels sont les inconvénients du chat éphémère ?
L'inconvénient majeur est que vous ne pourrez pas retrouver ces échanges plus tard, car ils ne sont pas sauvegardés. Si vous actualisez la page, il faudra tout recommencer – un petit désagrément que je rencontre personnellement assez souvent. De plus, si vous utilisez la fonctionnalité "Mémoire", qui permet à ChatGPT d'en apprendre davantage sur vous pour personnaliser ses réponses, les informations partagées dans un Chat éphémère ne seront pas prises en compte.
Mes habitudes et conseils personnels
J'active cette fonction pour la plupart de mes tâches, même celles qui n'impliquent pas de données personnelles ou d'entreprise sensibles. C'est surtout pour éviter d'encombrer mon historique de conversations sauvegardées ; ainsi, seules celles que je pourrais vouloir consulter à nouveau sont conservées dans ma barre latérale. Par ailleurs, lorsque je saisis des informations sensibles, je prends soin de masquer toute donnée permettant de m'identifier – c'est une bonne pratique à adopter, de manière générale, pour éviter de téléverser ce type d'information n'importe où, sauf sur une plateforme chiffrée.
Et les GPTs personnalisés ? Quels risques pour la confidentialité ?

Les GPTs personnalisés, que vous pouvez créer ou que des tiers mettent à disposition, soulèvent des questions importantes en matière de confidentialité, car ils interagissent avec les systèmes d'OpenAI et les données que vous leur fournissez. Voici les principaux risques à considérer.
Exposition et collecte de vos données d'entreprise
Lorsque vous utilisez un GPT personnalisé, les informations que vous saisissez sont traitées par l'infrastructure sous-jacente de ChatGPT.
- Risque de Fuite d'Informations Sensibles : toute donnée confidentielle, qu'il s'agisse d'informations d'entreprise ou personnelles, que vous entrez dans un GPT personnalisé pourrait être exposée.
Même si OpenAI indique ne plus utiliser les données des clients pour l'entraînement de ses modèles globaux, ces informations transitent par des serveurs cloud qui peuvent être vulnérables à des violations de sécurité ou à des accès non autorisés. - Collecte par OpenAI : La politique de confidentialité de ChatGPT stipule que l'outil collecte les informations de votre compte, le contenu que vous saisissez dans le chatbot, ainsi que des données techniques de votre appareil comme votre adresse IP et votre localisation.
- Ces informations peuvent être partagées avec des tiers, y compris des fournisseurs et les propres formateurs en IA d'OpenAI.

Utilisation, conservation et absence de confidentialité pour votre entreprise garantie
La manière dont vos données sont utilisées et conservées par les GPTs personnalisés mérite une attention particulière. Voici quelques éléments.
- Réutilisation potentielle des données d'entreprise : bien que les utilisateurs aient la possibilité de refuser que leurs données contribuent à l'amélioration des modèles pour tous, une préoccupation subsiste. Les informations fournies pourraient théoriquement réapparaître dans des réponses générées pour d'autres utilisateurs.
- De plus, OpenAI se réserve le droit de faire examiner les conversations par ses employés pour des raisons de sécurité, ce qui limite la confidentialité absolue de vos échanges.
- Manque de confidentialité intrinsèque : un risque fondamental réside dans l'absence de garantie totale de confidentialité pour les données traitées par ChatGPT et, par extension, par les GPTs personnalisés. Des cas de divulgation involontaire de données sensibles par des employés utilisant ChatGPT sans encadrement strict, comme l'incident chez Samsung, illustrent bien ce risque.
Enjeux de conformité et risques d'usages détournés
L'intégration de GPTs personnalisés, notamment dans un contexte professionnel, comporte des défis en matière de conformité réglementaire et de sécurité.
Il y a aussi les aspects réglementaires avec la non-conformité aux réglementations (RGPD, etc.). Le partage de données sensibles via des GPTs personnalisés peut entraîner une violation des réglementations sur la protection des données, telles que le RGPD en Europe. Cela peut se traduire par des sanctions financières importantes et nuire à la réputation de l'entreprise.
Des organismes comme la CNIL en France ont déjà soulevé des inquiétudes concernant la collecte de données personnelles sans consentement explicite.
À considérer également, les risques d'exploitation malveillante : des individus malintentionnés pourraient tenter d'utiliser les GPTs (y compris les versions personnalisées) pour recueillir des informations sensibles ou pour manipuler les réponses du modèle à des fins frauduleuses ou nuisibles. Par exemple, ChatGPT a pu être utilisé pour obtenir des informations sur les systèmes informatiques d'une banque, informations qui pourraient être exploitées à mauvais escient.