Une équipe de recherche affiliée à Microsoft découvre des failles de sécurité dans GPT-4

Des chercheurs affiliés à Microsoft, partenaire privilégié d’OpenAI, ont étudié la fiabilité des grands modèles de langage (LLM), dont GPT-3,5 et GPT-4. Il est possible que le modèle puisse être programmé pour ignorer les mesures de sécurité intégrées et ainsi produire des messages potentiellement incorrects, partiaux ou discriminatoires. GPT-4, contrairement aux LLM précédents, serait plus […]

Source : https://siecledigital.fr/2023/10/18/une-equipe-de-recherche-affiliee-a-microsoft-decouvre-des-failles-de-securite-dans-gpt-4/