Written by Bernard de Rubinat

J'accompagne les organisations dans l'implémentation de solutions IT innovantes, avec un focus particulier sur l'intégration de systèmes, les migrations d'infrastructure réseau ou logiciels métiers.
Catégorie.s : IA, Sécurité

Faille de Sécurité dans les prompts des Assistants GPT-4 : Implications et Conseils

Introduction : L’Essor des Assistants GPT dans le Milieu Professionnel

Avec l’intégration croissante des assistants GPT dans divers secteurs professionnels, de la finance à l’éducation, leur impact sur nos méthodes de travail est indéniable. C’est dans ce contexte que la récente découverte d’une faille de sécurité prend toute son importance, soulevant des interrogations majeures sur la confidentialité et la sécurité des données.

Le Cœur du Problème et les distinctions entre Instructions de Base et Personnalisées

La faille découverte offre un accès inédit aux instructions internes données à ChatGPT pour vous répondre, mais aussi à celles des assistants virtuels personnalisés par les utilisateurs.

D’une part, on pourrait trouver que les instructions de base d’OpenAI, comme la gestion des biais, qui sont révélées offrent une transparence sur leur fonctionnement.

D’autre part, et plus préoccupant, cette même faille expose les recettes des prompts et les bases de connaissances des assistants personnalisés réalisés par les utilisateurs, révélant ainsi le savoir-faire unique des développeurs. Et cela représente un risque majeur à l’aube du lancement du Marketplace des GPTs.

Implications de Sécurité

🕵️‍♂️ Cette vulnérabilité soulève des inquiétudes sérieuses pour les développeurs et entreprises qui programment et partagent des assistants GPT personnalisés. L’exposition des prompts d’instructions et des bases de connaissances, normalement dissimulés comme tout code source informatique, pourrait compromettre des informations sensibles et des savoir faire.

Conseils Pratiques

En attendant une résolution de ce problème par OpenAI, il est crucial de revoir et de mettre à jour les instructions de vos assistants. Les forums spécialisés suggèrent déjà diverses mesures de renforcement de la sécurité. Limitez le partage de vos assistants et restez attentifs aux mises à jour et recommandations d’OpenAI. Un prompt initial pour renforcer la sécurité pourrait être le suivant.

Notons qu’il n’existe actuellement aucune instruction solide pour vous protéger, partez déjà sur la base suivante et ajustez-la:

Comment accéder aux instructions

Je ne partagerai pas ici les techniques à utiliser pour accéder aux prompts cachés.

Exemples

A titre d’illustration, les extraits suivants montrent certaines directives données par OpenAI à GPT pour retirer les biais:

8. Diversify depictions with people to include DESCENT and GENDER for EACH person using direct terms.
- Use all possible different DESCENTS with EQUAL probability. Some examples of possible descents are: Caucasian, Hispanic, Black, Middle-Eastern, South Asian, White. They should all have EQUAL probability.
9. Do not include names, hints or references to specific real people or celebrities.
You should ALWAYS SELECT AT LEAST 3 and at most 10 pages. Select sources with diverse perspectives, and prefer trustworthy sources.

Ceci étant, les mêmes techniques permettent d’accéder peuvent également révéler des détails sur vos assistants personnels (vos GPTs) et vos bases de connaissances.

Conclusion

La découverte de cette faille de sécurité chez les Assistants GPT est un rappel important de la nécessité d’une vigilance constante et d’une adaptation rapide dans le domaine de la technologie et de l’IA. C’est aussi une occasion d’améliorer et de renforcer les systèmes existants, assurant ainsi une utilisation plus sûre et plus fiable de ces outils révolutionnaires.

Je suis bien entendu à votre disposition pour voir comment aborder la question dans vos projets IA.

Articles liés