PsyPost
¿Qué ocurre cuando la gente lleva al límite la inteligencia artificial, no por afán de lucro o maldad, sino por curiosidad y creatividad? Un nuevo estudio publicado en PLOS One explora el mundo de los "LLM red teamers", personas que ponen a prueba los límites de los grandes modelos lingüísticos intentando intencionadamente hacerlos fracasar. Basándose en entrevistas con 28 profesionales, la investigación arroja luz sobre una interacción persona-ordenador que está surgiendo rápidamente y que combina juego, ética e improvisación. Los grandes modelos lingüísticos (LLM), como los que subyacen a herramientas tan populares como ChatGPT, pueden generar respuestas similares a las humanas a partir de grandes cantidades de texto.
See full story at PsyPost
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.