PsyPost
¿Qué ocurre cuando la gente lleva al límite la inteligencia artificial, no por afán de lucro o maldad, sino por curiosidad y creatividad? Un nuevo estudio publicado en PLOS One explora el mundo de los "LLM red teamers", personas que ponen a prueba los límites de los grandes modelos lingüísticos intentando intencionadamente hacerlos fracasar. Basándose en entrevistas con 28 profesionales, la investigación arroja luz sobre una interacción persona-ordenador que está surgiendo rápidamente y que combina juego, ética e improvisación. Los grandes modelos lingüísticos (LLM), como los que subyacen a herramientas tan populares como ChatGPT, pueden generar respuestas similares a las humanas a partir de grandes cantidades de texto.
See full story at PsyPost
More Stories From
TECHNOLOGY
Aumenta el alcance de los cuidados personalizados de alta tecnología para la demencia a domicilio
city biz
¿Por qué los médicos de atención primaria deberían pasarse a la evaluación cognitiva con IA?
Patient Care
La insulina intranasal llega a regiones cerebrales relacionadas con la memoria
Technology Networks
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.