PsyPost
Que se passe-t-il lorsque les gens poussent l'intelligence artificielle à ses limites, non pas pour le profit ou la malveillance, mais par curiosité et créativité ? Une nouvelle étude publiée dans PLOS One explore le monde des "LLM red teamers", des personnes qui testent les limites des grands modèles de langage en essayant intentionnellement de les faire échouer. Fondée sur des entretiens avec 28 praticiens, cette étude met en lumière une interaction homme-machine qui émerge rapidement et qui mêle jeu, éthique et improvisation. Les grands modèles de langage (LLM), tels que ceux qui se cachent derrière des outils populaires comme ChatGPT, peuvent générer des réponses semblables à celles d'un être humain en se basant sur de grandes quantités de texte.
See full story at PsyPost
More Stories From
TECHNOLOGY
Navigation visuospatiale : Un nouveau biomarqueur pour les troubles cognitifs légers et la maladie d'Alzheimer
BRAINFACTOR
Imagerie ophtalmique assistée par IA pour la détection précoce des maladies neurodégénératives
International Journal of Emergency Medicine
Nexalin Technology, Inc. prévoit de soumettre à la FDA une demande d'homologation pour le Gen-2 SYNC
Nasdaq
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.