Publicité
Alors que les entreprises commencent à adopter cette technologie avec ses « avantages », il y aura certains « risques » que l’auditeur interne ou externe de l’organisation devra alors prendre en considération : des risques qui pourraient affecter l’organisation de manière significative.
Vous trouverez ci-dessous un certain nombre de risques identifiés que nous, en tant qu’auditeurs, devons déjà prendre en compte :
- Confidentialité des informations : Comme nous l’avons dit précédemment, ChatGPT utilise beaucoup de données pour l’auto-apprentissage et protège également les informations de toutes les conversations et demandes qui ont été faites sur sa plateforme. Dans ce sens, à la fin du mois de mars, nous avons entendu des nouvelles en provenance d’Europe. Il s’avère que le gouvernement italien a bloqué l’utilisation de ChatGPT pour les citoyens, principalement pour deux raisons : le non-respect des lois sur les données personnelles (rappelons que l’Europe dispose de l’un des règlements généraux sur la protection des données les plus complets au monde – GDPR) et l’absence d’un système de vérification de l’âge pour les utilisateurs mineurs ;
- L’incident Samsung . À la mi-avril, il a été révélé que des employés de Samsung avaient divulgué des informations confidentielles en utilisant ChatGPT. La vérité est qu’ils ont cherché à réduire leurs tâches et ont fourni des informations confidentielles pour créer un résumé de leur travail ou rechercher des erreurs, mais ils n’ont pas pris en compte le fait que le système apprend à partir des données saisies… Cela signifie que les informations sont désormais partagées à la merci des serveurs d’OpenAI, et que d’autres utilisateurs, dans le cadre d’une requête spécifique, peuvent recevoir ces informations en guise de réponse ;
- Quand OpenGPT ment : Dans un article du 5 avril, le Washington Post a rapporté la possibilité que ChatGPT, face à une requête, telle que la demande de détails biographiques d’une personne, puisse inventer des informations (dans ce cas particulier, ChatGPT a fait le lien avec un scandale sexuel), mais pire, qu’il les expose en se basant sur des sources qui sont elles-mêmes fausses. Il semble que l’IA, comme beaucoup d’autres, soit tombée dans le panneau des fastidieuses et inépuisables Fake News .
Comme on peut le voir, il s’agit de quelques incidents qui ont été révélés et de nouveaux pourraient apparaître en temps voulu. Cela n’interdit pas l’utilisation d’une telle technologie dans une organisation, mais suggère que les précautions nécessaires soient prises, en gardant à l’esprit que la technologie est encore en plein développement.
Du point de vue des auditeurs, le ChatGPT exige que nous soyons prudents, que nous fassions preuve de scepticisme professionnel, que nous nous informions sur l’outil et que nous soyons conscients de tout nouveau risque susceptible d’apparaître.
1 2
Publicité