O acidente vascular cerebral (AVC), conhecido popularmente como derrame cerebral, é uma das principais causas de morte no Brasil. Em 2023, mais de 110 mil pessoas faleceram devido a essa condição no país, o que representa aproximadamente uma morte a cada cinco minutos, conforme dados da Sociedade Brasileira de AVC (SBAVC). A detecção precoce dos sintomas é vital para reduzir a mortalidade e minimizar os danos ao cérebro. Estudos indicam que, com uma intervenção médica eficaz dentro das primeiras três horas após o evento, é possível reverter grande parte dos danos.
No entanto, o atendimento inicial nem sempre é feito por profissionais capazes de identificar rapidamente um AVC. A literatura científica revela que até mesmo socorristas podem encontrar dificuldades em reconhecer os sinais mais sutis da condição. Com isso em mente, uma equipe de pesquisadores da Faculdade de Ciências da Unesp, em Bauru, e da Faculdade de Engenharia do Instituto Real de Tecnologia de Melbourne (RMIT), na Austrália, desenvolveu um protótipo eficaz para identificar AVCs a partir das expressões faciais de pacientes.
Identificando o AVC através das Expressões Faciais
O AVC ocorre quando há uma interrupção abrupta do fluxo sanguíneo para o cérebro, o que impede a chegada de oxigênio e nutrientes ao órgão. Esse bloqueio pode causar danos permanentes nas células cerebrais e, em alguns casos, afetar permanentemente a capacidade do paciente de realizar tarefas diárias. Geralmente, indivíduos prestes a sofrer um AVC exibem sinais faciais sutis, como dificuldade em levantar um dos lados da boca ao sorrir, perda parcial ou total de controle facial e dificuldade na fala. Reconhecer esses sintomas é crucial para que o paciente seja rapidamente encaminhado para tratamento médico adequado.
Tecnologia de IA para Análise Facial
A tecnologia desenvolvida pela Unesp e pelo RMIT utiliza algoritmos de inteligência artificial (IA) para analisar vídeos faciais e determinar se o indivíduo está tendo um AVC. A ferramenta avalia movimentos faciais específicos, categorizados pelo sistema Facial Action Coding System (FACS), desenvolvido pelos cientistas Paul Ekman e Wallace Friesen na década de 1970.
O FACS classifica os movimentos faciais com base na contração e relaxamento dos músculos da face. Cada movimento observável é chamado de Unidade de Ação, que corresponde à ação de um ou mais músculos faciais. A combinação dessas Unidades de Ação resulta em diversas expressões faciais, como levantar as sobrancelhas ou sorrir.
Os pesquisadores codificaram as Unidades de Ação de vídeos de 11 indivíduos saudáveis e 14 que sofreram um AVC, utilizando um banco de dados da Universidade de Toronto. Com essas informações, treinaram o algoritmo para distinguir entre os movimentos faciais de pessoas saudáveis e aquelas com AVC.
“Os músculos faciais de quem teve um AVC geralmente apresentam assimetria, fazendo com que um lado do rosto se comporte de maneira diferente do outro”, explica João Paulo Papa, cientista da computação da Unesp e coautor do estudo publicado na revista Computer Methods and Programs in Biomedicine.
A análise dos vídeos pelo modelo de IA revelou uma taxa de acerto de 82% na identificação dos casos de AVC.
“A grande vantagem dessa abordagem é que ela se baseia em alterações visíveis clinicamente”, destaca Papa. Embora promissor, o modelo não visa substituir os diagnósticos clínicos tradicionais, mas sim auxiliar na detecção precoce e agilizar o atendimento médico.
Futuro da Ferramenta e Desafios
Os pesquisadores estão trabalhando para transformar a tecnologia em um aplicativo para smartphones. O plano é que o usuário grave um vídeo de si mesmo ou de outra pessoa, realizando certos movimentos faciais ou falando algumas frases. A expectativa é que, futuramente, a ferramenta possa ser utilizada por profissionais de saúde em emergências hospitalares para reduzir o risco de erros de diagnóstico e melhorar o atendimento.
“Queremos que o aplicativo seja simples de usar”, afirma Papa.
Estudos sugerem que até 13% dos AVCs não são detectados em serviços de urgência devido à dificuldade dos profissionais em identificar sinais sutis.
“Socorristas poderiam usar a ferramenta no local para identificar um AVC e notificar o hospital antes da chegada da ambulância”, afirma Papa.
No entanto, há desafios a serem superados, como adaptar a ferramenta à capacidade de processamento dos smartphones e garantir que ela atinja o mercado.
“Estamos buscando parcerias com hospitais para validar o modelo em situações reais”, explica Papa.
A colaboração com prestadores de cuidados de saúde será fundamental para integrar a ferramenta aos protocolos de emergência existentes, proporcionando uma maneira eficaz de detecção precoce de AVC.
Os pesquisadores planejam continuar a aprimorar o modelo, aumentando sua precisão com a inclusão de mais dados de pacientes. Eles também visam expandir a aplicação para detectar sintomas e monitorar doenças neurodegenerativas como Parkinson, Alzheimer e Esclerose Lateral Amiotrófica (ELA), que também apresentam alterações faciais e podem começar a se desenvolver anos antes de se manifestarem clinicamente.
“Precisamos combinar as análises faciais com dados clínicos para uma detecção mais precisa”, conclui o pesquisador.
Via: MedicinaSa