Une expérience originale pour sensibiliser

Pour mieux comprendre ce phénomène, la CNIL, en collaboration avec la Fédération des centres sociaux de Vendée, a mené une expérience à La Roche-sur-Yon. Sous couvert d'un « assistant vocal intelligent » appelé Germain, des passants ont posé des questions variées : recherches pratiques, préoccupations personnelles, conseils de vie, etc.

Mais surprise : l’« assistant » était en réalité un agent de la CNIL dissimulé à proximité. Les participants ont découvert qu’ils avaient partagé spontanément - parfois sans s’en rendre compte - de nombreuses informations personnelles, simplement parce qu’ils se sentaient en confiance avec ce dispositif présenté comme une IA. 

« C’est vrai que je n’ai pas fait attention à toutes les informations que j’ai pu donner… C’était tellement pratique d’avoir une réponse immédiate à ma question ! » – Témoignage d’une participante

Pourquoi partageons-nous autant ?

D’après les échanges avec des experts du Laboratoire d’innovation numérique de la CNIL et un doctorant de l’École nationale supérieure des arts décoratifs (ENSAD), plusieurs facteurs expliquent cette transmission parfois excessive d’informations :

  • Les questions posées par l’IA semblent souvent anodines, mais elles encouragent des réponses spontanées.
  • Les interactions imitent une conversation humaine, créant un climat de confiance.
  • La possibilité de contrôler ou d’interrompre l’échange renforce une fausse impression de sécurité.

« Effectivement quand l’IA s’est présentée et m’a demandé mon prénom, je lui ai répondu naturellement ! C’est une habitude de politesse comme si je parlais à une personne. » – Témoignage d'un participant

Conseils pour protéger vos données

La CNIL propose 8 gestes simples pour limiter les risques :

« Lorsque vous interagissez avec un assistant virtuel via un appareil dédié ou sur votre téléphone, les informations que vous fournissez sont libres et peuvent parfois contenir des données personnelles, voire des données sensibles (par exemple sur votre santé, votre orientation sexuelle ou votre religion) sur vous comme sur votre entourage familial, amical, professionnel.

Ces informations peuvent alors être conservées, partagées ou réutilisées par le service. Des gestes simples peuvent vous aider à mieux protéger vos données et votre vie privée :

  1. Ne partagez que le strict minimum d'informations nécessaire pour obtenir une réponse. Si l’assistant vous demande des informations personnelles, réfléchissez à leur utilité réelle.
  2. Ne confiez pas des données sensibles ou intimes telles que vos informations de santé, vos coordonnées bancaires ou vos mots de passe.
  3. Soyez conscient de ce que vous avez partagé au fil des conversations et supprimez régulièrement vos données.
  4. Formulez des questions claires et simples pour éviter toute incompréhension par l’assistant.
  5. Privilégiez les dispositifs qui vous permettent de désactiver l’analyse de vos données.
  6. Si vous le souhaitez, exercez votre droit d’accès aux données collectées en contactant l’éditeur du service (consultez la politique de confidentialité qui doit comporter une rubrique relative à l’exercice de vos droits).
  7. Les réponses des assistants ne sont pas toujours fiables. N’hésitez pas à vérifier les informations obtenues grâce à d’autres sources. 
  8. En cas de doute sur la nature de votre interlocuteur (robot ou humain), consultez les conditions d’utilisation ou contactez le concepteur du service. »

Conclusion

La CNIL nous rappelle que, bien que pratiques, les assistants vocaux ne sont pas neutres. En prenant conscience des informations que nous partageons et en adoptant des pratiques responsables, nous pouvons mieux protéger notre vie privée face à ces outils.

Pour en savoir plus sur cette expérience et les conseils de la CNIL, rendez-vous sur leur site officiel : https://www.cnil.fr/fr/ia-votre-assistant-vocal-connait-il-votre-vie-privee