PsyPost

Que se passe-t-il lorsque les gens poussent l'intelligence artificielle à ses limites, non pas pour le profit ou la malveillance, mais par curiosité et créativité ? Une nouvelle étude publiée dans PLOS One explore le monde des "LLM red teamers", des personnes qui testent les limites des grands modèles de langage en essayant intentionnellement de les faire échouer. Fondée sur des entretiens avec 28 praticiens, cette étude met en lumière une interaction homme-machine qui émerge rapidement et qui mêle jeu, éthique et improvisation. Les grands modèles de langage (LLM), tels que ceux qui se cachent derrière des outils populaires comme ChatGPT, peuvent générer des réponses semblables à celles d'un être humain en se basant sur de grandes quantités de texte.
See full story at PsyPost
More Stories From
TECHNOLOGY

L'IA et la psychose : Ce qu'il faut savoir, ce qu'il faut faire
UNIVERSITY OF MICHIGAN HEALTH

Les progrès de la neuro-imagerie et des technologies omiques améliorent le sous-typage de l'ICM
GENE Online

Utilisation de l'analyse de la démarche basée sur l'IA pour établir un seuil de temps de marche de 5 mètres pour discriminer la maladie d'Alzheimer
Cureus Journal of Medical Science
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.