PsyPost

Que se passe-t-il lorsque les gens poussent l'intelligence artificielle à ses limites, non pas pour le profit ou la malveillance, mais par curiosité et créativité ? Une nouvelle étude publiée dans PLOS One explore le monde des "LLM red teamers", des personnes qui testent les limites des grands modèles de langage en essayant intentionnellement de les faire échouer. Fondée sur des entretiens avec 28 praticiens, cette étude met en lumière une interaction homme-machine qui émerge rapidement et qui mêle jeu, éthique et improvisation. Les grands modèles de langage (LLM), tels que ceux qui se cachent derrière des outils populaires comme ChatGPT, peuvent générer des réponses semblables à celles d'un être humain en se basant sur de grandes quantités de texte.
See full story at PsyPost
More Stories From
TECHNOLOGY

Les nouvelles lunettes d'IA qui pourraient transformer la vie des personnes atteintes de démence
SAGA

Un modèle d'apprentissage de l'IA prédit l'état cognitif des patients atteints de SEP
OncoVenture

Étude : Les outils de dépistage de la maladie d'Alzheimer pourraient fonctionner différemment pour les hommes et les femmes
Georgia State University
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.