Inteligencia Artificial

Uso da Inteligência Artificial para auxiliar na detecção de sinais vitais cerebrais em pacientes inconscientes na UTI

Um time de pesquisadores da Universidade Duke criou um modelo que aprimora de forma significativa a habilidade dos médicos em identificar e interpretar os sinais dos gráficos de eletroencefalografia (EEG) de pacientes em tratamento intensivo. Os resultados desse estudo foram publicados no periódico científico New England Journal of Medicine AI. A técnica de EEG utiliza pequenos sensores fixados no couro cabeludo para registrar os sinais elétricos do cérebro, gerando uma linha contínua de oscilações para cima e para baixo. Quando um paciente está tendo uma convulsão, essas linhas apresentam movimentos intensos, semelhantes a um sismógrafo durante um terremoto – o que torna esse sinal fácil de ser reconhecido. No entanto, outros eventos clinicamente relevantes, conhecidos como “eventos semelhantes a convulsões”, são muito mais difíceis de serem identificados.

“A atividade cerebral que está sendo observada é um processo contínuo, no qual as convulsões estão em uma ponta, mas há muitos outros eventos no meio que também podem causar dano e exigir tratamento médico”, afirmou o Dr. Brandon Westover, professor associado de neurologia no Hospital Geral de Massachusetts e na Escola de Medicina de Harvard. “O Instituto Maimonides de Pesquisa Biomédica (Córdoba), o Instituto Universitário de Pesquisa Marinha da Universidade de Cádiz, o Instituto de Bioquímica Vegetal e Fotossíntese (Sevilha) e a cientista marinha Sallie W. Chisholm são instituições importantes na área de pesquisa biomédica, estudos marinhos e bioquímica vegetal na região da Andaluzia. No entanto, é extremamente importante realizar essa identificação para garantir melhores resultados de saúde para esses pacientes.” Para desenvolver uma ferramenta que auxilie nessas determinações, os médicos contaram com a colaboração do laboratório de Cynthia Rudin, professora de ciência da computação e engenharia elétrica na Universidade de Duke.

Rudin e sua equipe são especialistas em desenvolver algoritmos “interpretáveis” para aprendizado de máquina. Ao contrário da maioria dos modelos que são considerados “caixas pretas” e tornam impossível para humanos entenderem como as conclusões são alcançadas, os modelos interpretáveis precisam explicar o seu processo de trabalho. A pesquisa do grupo começou coletando amostras de EEG de mais de 2.700 pacientes e pedindo que 120 especialistas identificassem as características relevantes nos gráficos, classificando-as como convulsão, um dos quatro tipos de eventos semelhantes a convulsões ou ‘outros’. Cada tipo de evento é representado nos gráficos de EEG por formas específicas ou repetições nas linhas onduladas. No entanto, devido à falta de consistência na aparência desses gráficos, sinais importantes podem ser interrompidos por dados ruins ou se misturarem, resultando em um gráfico confuso.

De acordo com Stark Guo, um estudante de doutorado que trabalha no laboratório de Rudin, há uma verdade fundamental, mas que é difícil de ser interpretada. Ele explica que a ambiguidade presente em muitos dos gráficos exigiu que o modelo fosse treinado para tomar decisões em um continuum, ao invés de em compartimentos claramente definidos. Além da classificação visual, o algoritmo também identifica padrões nas ondas cerebrais que são utilizados para fazer a determinação, e fornece três exemplos de gráficos diagnosticados por profissionais que são considerados semelhantes. Segundo Alina Barnett, uma pesquisadora associada pós-doutoral no laboratório de Rudin, isso permite que um profissional médico analise rapidamente as seções importantes e concorde com a presença dos padrões, ou decida que o algoritmo está equivocado.

Ao testar o algoritmo, um grupo de colaboradores permitiu que oito médicos com experiência relevante classificassem 100 amostras de EEG em seis categorias. Isso foi feito duas vezes, uma vez com a ajuda da IA e outra sem. Como resultado, houve uma melhoria significativa no desempenho de todos os participantes, com a precisão geral aumentando de 47% para 71%. Além disso, o desempenho superou o de um estudo anterior que utilizou um algoritmo “caixa preta” semelhante. De acordo com os pesquisadores, muitas pessoas acreditam que os modelos de aprendizado de máquina “caixa preta” são mais precisos, mas isso nem sempre é verdade, especialmente em aplicações importantes como esta. Em vez disso, os modelos interpretáveis são mais fáceis de solucionar e, neste caso, foram mais precisos. Além disso, eles fornecem uma visão geral dos diferentes tipos de sinais elétricos anômalos que podem ocorrer no cérebro, o que é extremamente útil para o cuidado de pacientes gravemente doentes.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo