Je suis plus nuancé que ça personnellement, il semble qu'on puisse accéder à des informations contenues dans des textes protégés (brevetés et/ou payants) si on s'y prend bien par exemple. On peut donc se demander ce qui va être fait de toutes les informations que l'on transmet sur nous même dans les années à venir. Par exemple l'IA ne pourrait-elle pas arriver à dresser un profil de nous, à partir de toutes nos requêtes, sur nos idées politiques, nos centres d'intérêts, nos loisirs, nos problèmes de santé, notre façon de vivre, etc. Ca pourrait fortement intéresser des organismes d'assurance, de crédit, de recouvrement de dettes, de fonds de pension, des administrations comme le fisc, et les services de renseignements de beaucoup de pays curieux d'en savoir plus sur leurs citoyens et ceux d'autres pays demandeurs de visas. Je n'aime pas faire de dystopie, mais est-ce qu'au nom de la lutte impérieuse contre le terrorisme, ils ne pourraient pas décider demain matin (si ce n'est pas déjà le cas aujourd'hui) de nous scorer sur notre susceptibilité à devenir complice d'un acte terroriste par exemple.
Merci pour tes réponses, c'est vraiment très intéressant.
Je pensais que ces histoires de textes protégés avaient été réglés par OpenAI, mais en effet ce n'est pas le cas...
Tu as tout à fait raison, je pense que ton exemple sur la lutte anti-terroriste est très juste. Je suis aussi convaincu que l'on finira par être scoré, d'un manière ou d'une autre, peut être un peu à la Chinoise, mais en remplaçant les points sociaux par des "points républicains" ou quelque chose dans le genre. J'ai toujours gardé une grande distance avec tous les réseaux sociaux imaginables, à cause de cela. Ma seule entorse à cette règle est ce forum, et encore j'ai attendu d'être dans les bonnes conditions avant de commencer à y écrire, et à un peu raconter quelques éléments de ma vie dessus. On vient tous de vivre les mêmes années, personne ne pourra nier la dystopie que l'on est en train de construire à l'échelle mondiale. En France par exemple, la surveillance vidéo analysée en temps réel par algorithmes devient une réalité concrète, et ça pour moi, c'est le dernier des red flags. À partir de ça, je n'ai plus aucune confiance dans l'avenir concernant les données privées, et tout ce qui y est lié.
C'est vrai que ChatGPT pourrait être un vecteur de collecte de données extraordinaire, un peu comme l'a été Facebook pour le fisc et les flics, ou comme l'est le smartphone. Du coup je suis surpris que certains états se privent d'un moyen de surveillance aussi accessible par les masses..
Les individus traitent par ignorance les applications d'intelligence artificielle, vous les trouvez donc en train de leur fournir des informations plus précises que celles que vous obtenez des médias sociaux.
Je me souviens avoir lu que les ingénieurs d'un constructeur automobile avaient essayé d'améliorer la qualité des données secrètes à l'aide de ChatGPT et maintenant que les données confidentielles sont accessibles à tous et qu'il n'y a aucune possibilité de les supprimer.
C'est presque la raison de l'interdiction que les pays veulent contrôler ces données et la possibilité de les supprimer.
Ah ouais d'accord... En effet c'est assez navrant de naiveté de la part des employés en question.. La solution ne serait-elle pas d'informer / éduquer les employés et les gens globalement plutôt que de bannir GPT ? Enfin bon, il est vrai que le ban est plus facile à mettre en place, et plus fiable j'imagine.
On sait si il y a quelque chose à ce sujet dans les conditions d'utilisation de chatGPT ? C'est vraiment écrit noir sur blanc qu'une data envoyée ne pourra pas être effacée même lors d'une demande explicite d'une personne/entreprise ? Je trouve ça dingue