Une équipe de recherche affiliée à Microsoft découvre des failles de sécurité dans GPT-4
Des chercheurs affiliés à Microsoft, partenaire privilégié d’OpenAI, ont étudié la fiabilité des grands modèles de langage (LLM), dont GPT-3,5 et GPT-4. Il est possible que le modèle puisse être programmé pour ignorer les mesures de sécurité intégrées et ainsi produire des messages potentiellement incorrects, partiaux ou discriminatoires. GPT-4, contrairement aux LLM précédents, serait plus …
Une équipe de recherche affiliée à Microsoft découvre des failles de sécurité dans GPT-4Lire plus »