PsyPost
O que acontece quando as pessoas levam a inteligência artificial aos seus limites - não por lucro ou malícia, mas por curiosidade e criatividade? Um novo estudo publicado na PLOS One explora o mundo dos "LLM red teamers", indivíduos que testam os limites de grandes modelos de linguagem tentando intencionalmente fazer com que eles falhem. Com base em entrevistas com 28 profissionais, a pesquisa lança luz sobre uma interação humano-computador que está surgindo rapidamente e que combina jogo, ética e improvisação. Os modelos de linguagem de grande porte (LLMs) - como os que estão por trás de ferramentas populares como o ChatGPT - podem gerar respostas semelhantes às humanas com base em grandes quantidades de texto.
See full story at PsyPost
More Stories From
TECHNOLOGY
Navegação visuoespacial: Um Biomarcador Emergente para Deficiência Cognitiva Leve e Alzheimer
BRAINFACTOR
Imagem oftálmica assistida por IA para detecção precoce de doenças neurodegenerativas
International Journal of Emergency Medicine
Nexalin Technology, Inc. Planeja enviar o Q-Submission ao FDA para o SYNC Gen-2
Nasdaq
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.