PsyPost

O que acontece quando as pessoas levam a inteligência artificial aos seus limites - não por lucro ou malícia, mas por curiosidade e criatividade? Um novo estudo publicado na PLOS One explora o mundo dos "LLM red teamers", indivíduos que testam os limites de grandes modelos de linguagem tentando intencionalmente fazer com que eles falhem. Com base em entrevistas com 28 profissionais, a pesquisa lança luz sobre uma interação humano-computador que está surgindo rapidamente e que combina jogo, ética e improvisação. Os modelos de linguagem de grande porte (LLMs) - como os que estão por trás de ferramentas populares como o ChatGPT - podem gerar respostas semelhantes às humanas com base em grandes quantidades de texto.
See full story at PsyPost
More Stories From
TECHNOLOGY

IA e psicose: O que saber e o que fazer
UNIVERSITY OF MICHIGAN HEALTH

Avanços nas tecnologias de neuroimagem e ômicas aprimoram a subtipagem de CCL
GENE Online

Uso da análise de marcha baseada em IA para estabelecer um limite de tempo de caminhada de 5 metros para discriminar a DA
Cureus Journal of Medical Science
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.