Devdiscourse

Le pipeline d'IA a extrait les caractéristiques de valence (émotion positive ou négative) et d'éveil (intensité émotionnelle) des expressions faciales des participants à l'aide de deux réseaux neuronaux convolutionnels formés sur l'ensemble de données à grande échelle AffectNet et adaptés à la tâche. Ces caractéristiques dérivées des émotions ont ensuite été analysées à l'aide de trois modèles d'apprentissage automatique, les K-voisins les plus proches, la régression logistique et la machine à vecteurs de support, afin de classer les participants en fonction de leur état cognitif. Un cadre de validation croisée imbriquée a permis de s'assurer que les mesures de performance n'étaient pas biaisées malgré la taille relativement petite de l'ensemble de données.
See full story at Devdiscourse
More Stories From
TECHNOLOGY

Une nouvelle méthode permet de dissocier la pathologie de la maladie d'Alzheimer au niveau de la TEP
AuntMinnie.com

Quand la conversation s'arrête: : La perte de mémoire à l'ère de l'intelligence artificielle
McKnights

Comment les biomarqueurs vocaux de l'IA transforment la parole en signe vital
HIT Consultant
Sign up for our newsletter!
Get the latest information and inspirational stories for caregivers, delivered directly to your inbox.