PsyPost
¿Qué ocurre cuando la gente lleva al límite la inteligencia artificial, no por afán de lucro o maldad, sino por curiosidad y creatividad? Un nuevo estudio publicado en PLOS One explora el mundo de los "LLM red teamers", personas que ponen a prueba los límites de los grandes modelos lingüísticos intentando intencionadamente hacerlos fracasar. Basándose en entrevistas con 28 profesionales, la investigación arroja luz sobre una interacción persona-ordenador que está surgiendo rápidamente y que combina juego, ética e improvisación. Los grandes modelos lingüísticos (LLM), como los que subyacen a herramientas tan populares como ChatGPT, pueden generar respuestas similares a las humanas a partir de grandes cantidades de texto.
See full story at PsyPost
More Stories From
TECHNOLOGY
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.