L'équipe rouge du LLM : Les gens piratent des chatbots d'IA juste pour le plaisir !

PsyPost

description

Que se passe-t-il lorsque les gens poussent l'intelligence artificielle à ses limites, non pas pour le profit ou la malveillance, mais par curiosité et créativité ? Une nouvelle étude publiée dans PLOS One explore le monde des "LLM red teamers", des personnes qui testent les limites des grands modèles de langage en essayant intentionnellement de les faire échouer. Fondée sur des entretiens avec 28 praticiens, cette étude met en lumière une interaction homme-machine qui émerge rapidement et qui mêle jeu, éthique et improvisation. Les grands modèles de langage (LLM), tels que ceux qui se cachent derrière des outils populaires comme ChatGPT, peuvent générer des réponses semblables à celles d'un être humain en se basant sur de grandes quantités de texte.

See full story at PsyPost

Sign up for our newsletter!

Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.

© 2025 MCI and Beyond. All rights reserved.