Si vous demandez à ChatGPT de créer une figurine réaliste – ce qu’on appelle souvent un “starter pack” personnalisé – vous recevrez désormais un refus. La plateforme ne peut plus générer d’images réalistes de personnes réelles à partir de photos. C’est l’une des restrictions actuellement en place pour protéger la vie privée.
Derrière ces créations amusantes se cache un enjeu sérieux : la confidentialité. Pour concevoir un starter pack, les utilisateurs doivent fournir des informations personnelles comme leur nom, leurs intérêts… voire leur photo. Par défaut, ces données peuvent être conservées par OpenAI, sauf si les paramètres de confidentialité sont modifiés.
Une fois publiés sur les réseaux sociaux, ces visuels peuvent aussi devenir une mine d’or pour les cybercriminels, qui n’hésitent pas à utiliser ce type d’informations dans des tentatives d’ingénierie sociale.
Et la réflexion s’étend au-delà du divertissement : que penser de l’usage de ChatGPT dans des milieux sensibles, comme les conseils d’administration qui l’utilisent pour rédiger des procès-verbaux ou les professionnels de la santé qui s’en servent pour résumer des consultations?