• Nenhum resultado encontrado

Uma abordagem interpretável de aprendizado de máquina para avaliação retrospectiva do impacto da perda de sangue derivada de flebotomia em pacientes internados

N/A
N/A
Protected

Academic year: 2021

Share "Uma abordagem interpretável de aprendizado de máquina para avaliação retrospectiva do impacto da perda de sangue derivada de flebotomia em pacientes internados"

Copied!
122
0
0

Texto

(1)

UNIVERSIDADE ESTADUAL DE CAMPINAS Instituto de Computação

Flávia Érika Almeida Giló Azevedo

UMA ABORDAGEM INTERPRETÁVEL DE APRENDIZADO DE MÁQUINA PARA AVALIAÇÃO RETROSPECTIVA DO IMPACTO DA PERDA DE SANGUE

DERIVADA DE FLEBOTOMIA EM PACIENTES INTERNADOS

CAMPINAS 2020

(2)

Flávia Érika Almeida Giló Azevedo

UMA ABORDAGEM INTERPRETÁVEL DE APRENDIZADO DE MÁQUINA PARA AVALIAÇÃO RETROSPECTIVA DO IMPACTO DA PERDA DE SANGUE

DERIVADA DE FLEBOTOMIA EM PACIENTES INTERNADOS

Dissertação de Mestrado apresentada ao Instituto de Computação da Universidade Estadual de Campinas como parte dos requisitos exigidos para a obtenção do título de Mestre em Ciência da Computação.

Orientador: Prof. Dr. André Santanchè

Coorientador: Prof. Dr. Kleber Yotsumoto Fertrin

Este exemplar corresponde à versão final da Dissertação defendida por Flávia Érika Almeida Giló Azevedo e orientada pelo Prof. Dr. André Santanchè.

CAMPINAS 2020

(3)

Biblioteca do Instituto de Matemática, Estatística e Computação Científica Ana Regina Machado - CRB 8/5467

Azevedo, Flávia Érika Almeida Giló,

Az25a AzeUma abordagem interpretável de aprendizado de máquina para avaliação retrospectiva do impacto da perda de sangue derivada de flebotomia em pacientes internados / Flávia Érika Almeida Giló Azevedo. – Campinas, SP : [s.n.], 2020.

AzeOrientador: André Santanchè.

AzeCoorientador: Kleber Yotsumoto Fertrin.

AzeDissertação (mestrado) – Universidade Estadual de Campinas, Instituto de Computação.

Aze1. Aprendizado de máquina. 2. Flebotomia. 3. Anemia ferropriva. 4. Tempo de internação. I. Santanchè, André, 1968-. II. Fertrin, Kleber Yotsumoto, 1980-. III. Universidade Estadual de Campinas. Instituto de Computação. IV. Título.

Informações para Biblioteca Digital

Título em outro idioma: An interpretable machine learning approach for retrospective evaluation of inpatient blood loss due to phlebotomy protocols

Palavras-chave em inglês: Machine learning

Phlebotomy

Iron deficiency anemia Length of stay

Área de concentração: Ciência da Computação Titulação: Mestra em Ciência da Computação Banca examinadora:

André Santanchè [Orientador] Hélio Pedrini

César Alex de Oliveira Galoro Data de defesa: 12-08-2020

Programa de Pós-Graduação: Ciência da Computação

Identificação e informações acadêmicas do(a) aluno(a)

- ORCID do autor: https://orcid.org/0000-0001-9869-6349 - Currículo Lattes do autor: http://lattes.cnpq.br/3720964782581837

(4)

UNIVERSIDADE ESTADUAL DE CAMPINAS Instituto de Computação

Flávia Érika Almeida Giló Azevedo

UMA ABORDAGEM INTERPRETÁVEL DE APRENDIZADO DE MÁQUINA PARA AVALIAÇÃO RETROSPECTIVA DO IMPACTO DA PERDA DE SANGUE

DERIVADA DE FLEBOTOMIA EM PACIENTES INTERNADOS

Banca Examinadora:

● Prof. Dr. André Santanchè IC/UNICAMP

● Prof. Dr. Hélio Pedrini IC/UNICAMP

● Dr. César Alex de Oliveira Galoro Grupo Sabin Medicina Diagnóstica

A ata da defesa, assinada pelos membros da Comissão Examinadora, consta no SIGA/Sistema de Fluxo de Dissertação/Tese e na Secretaria do Programa da Unidade.

(5)

Dedicatória

Dedico este trabalho ao meu marido Carlos Azevedo, que há 17 anos tem sido o meu companheiro incondicional na jornada da vida.

(6)

Agradecimentos

1. Ao Prof. Dr. André Santanchè pela orientação durante o desenvolvimento desta pesquisa e pela sua fundamental compreensão quanto às dificuldades impostas pelo repentino problema de saúde que enfrentei;

2. Ao Prof. Dr. Kleber Yotsumoto Fertrin pela coorientação e precioso suporte na definição do problema médico explorado nesta pesquisa;

3. Ao IC/Unicamp pela estrutura e formação exemplares que oferece aos alunos;

4. Ao HC/Unicamp por ceder os dados utilizados nas análises;

5. À Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) pela bolsa concedida durante parte deste projeto de mestrado – Código de Financiamento 001;

6. Aos meus familiares pelo incentivo para que eu persiga os meus objetivos com tranquilidade e confiança.

(7)

Resumo

Em Medicina, o procedimento de retirada de sangue de um paciente para realização de exames laboratoriais é denominado flebotomia. Pacientes internados são submetidos a protocolos de flebotomia que incluem solicitações sucessivas de exames, a taxas que podem chegar a coletas diárias, com o objetivo de diagnosticar ou acompanhar a evolução de seus quadros clínicos. No entanto, coletas frequentes expõem o paciente a uma perda elevada de sangue em um intervalo curto de tempo, podendo desencadear problemas para a sua saúde, uma vez que o tempo entre as coletas pode ser insuficiente para a reposição adequada dos componentes sanguíneos perdidos. Com o objetivo de avaliar a hipótese da perda sanguínea por flebotomia ser um fator relevante para o desenvolvimento ou agravamento de quadros de anemia e para o aumento do tempo de internação, a presente pesquisa conduziu análises dirigidas por dados retrospectivos clínicos, laboratoriais e demográficos de 28.312 internações que ocorreram no Hospital de Clínicas da Unicamp (HC/Unicamp) entre os anos 2012 e 2016. Em uma fase inicial, foram conduzidas investigações exploratórias para capturar as principais características inerentes ao conjunto de dados. Em seguida, uma abordagem interpretável de Aprendizado de Máquina (AM) foi desenvolvida, utilizando as técnicas baseadas em Árvores de Decisão Gradient Boosting Machines e Random Forests , para resolução de tarefas de regressão, classificação binária e classificação multiclasse. Para que as soluções computacionais produzidas oferecessem grau de interpretabilidade conveniente para uso no cenário médico-hospitalar, utilizou-se métodos para extrair interpretabilidade dos modelos de AM, a fim de expressar a relação entre as diferentes variáveis utilizadas, bem como elencar o grau de contribuição das mesmas para os resultados dos modelos. Os resultados sugerem uma relação entre a quantidade das coletas de sangue realizadas durante a internação e o tempo de internação, bem como o decaimento dos níveis de hemoglobina no sangue dos pacientes, fator diretamente relacionado ao desenvolvimento de anemia. O estudo conduzido com dados inéditos, até onde se sabe, é o primeiro a investigar, conjuntamente, as relações entre flebotomia, anemia e tempo de internação utilizando AM. Além disso, aprofunda o conhecimento existente do problema ao expandir investigações correlatas encontradas na literatura, uma vez que leva em consideração variáveis adjacentes à possibilidade de desenvolvimento de anemia no curso da internação, como transfusões de sangue e cirurgias realizadas. Também, oferece ao HC/Unicamp subsídios para avaliação dos seus processos relativos à flebotomia e embasamentos para tomada de decisão.

Palavras-chave: Aprendizado de Máquina, Flebotomia, Anemia Ferropriva, Tempo de Internação.

(8)

Abstract

In medicine, the procedure of drawing blood from a patient for laboratory tests is called phlebotomy. Inpatients are submitted to phlebotomy protocols that include successive requests for tests, at rates that can reach daily extractions, in order to diagnose or monitor the evolution of their clinical conditions. However, frequent extractions expose the patient to high blood loss in a short period of time, which can trigger health problems, since the time between extractions can be insufficient for the adequate replacement of lost blood components. In order to evaluate the hypothesis of phlebotomy blood loss to be a relevant factor for the development or worsening of anemia and for an increase in hospital length of stay, this research conducted analyzes guided by retrospective clinical, laboratory and demographic data of 28,312 hospitalizations that occurred in the Hospital of Clinics at Unicamp (HC/Unicamp) between the years 2012 and 2016. In an initial phase, exploratory investigations were conducted in order to capture the main characteristics inherent to the dataset. Then, an interpretable Machine Learning (ML) approach was developed, using the Decision Tree-based techniques Gradient Boosting Machines and Random Forests for regression, binary classification and multiclass classification tasks. In order for the computational solutions produced to offer a degree of interpretability that is convenient for use in the medical-hospital setting, methods to extract interpretability of ML models were used to express the relationship between the different variables used, as well as listing the degree of their contributions to the models outputs. The results suggest a relationship between the amount of blood samples taken during hospitalization and length of stay, as well as the decrease in patients hemoglobin levels, a factor directly related to the development of anemia. The study conducted with unpublished data, to the best of our knowledge, is the first to jointly investigate relationships between phlebotomy, anemia and length of stay using ML. In addition, it deepens on existing knowledge about the problem and expands the correlated literature, since it takes into account the variables adjacent to the possibility of developing anemia in the course of hospitalization, such as blood transfusions and surgeries performed. It also offers HC/Unicamp subsidies for evaluating its phlebotomy processes and grounds for decision making.

(9)

Sumário

Introdução 11

Motivação do Problema Médico 13

Objetivo da Pesquisa 14

Perguntas de Pesquisa 15

Contribuições 15

Aspectos Éticos da Pesquisa 16

Organização do Texto 16

Fundamentação Teórica e Trabalhos Relacionados 17

Anemia ferropriva e Flebotomia 17

Aprendizado de Máquina 19

Paradigmas do Aprendizado de Máquina 21

Elastic Net 23

Logistic Regression 24

Ensemble Learning 26

Random Forests 27

Gradient Boosting Machines 28

Shapley Additive Explanations 30

Literatura Relacionada 31

Trabalhos investigando flebotomia e anemia 32

Trabalhos investigando flebotomia e tempo de Internação 34

Trabalhos investigando anemia com AM 35

Trabalhos investigando tempo de Internação com AM 36 Trabalhos utilizando as técnicas de AM da pesquisa 36

Projeto da Pesquisa e Preparação dos Dados 37

Visão Geral da Metodologia 37

Conjunto de Dados 39

Protocolo de Preparação dos Dados 42

Projeto dos Experimentos 44

Pré-Processamento dos Dados e Decisões de Implementação 46

Ambiente de Desenvolvimento 46

Pré-processamento 47

Codificação de colunas categóricas 47

Estudo e correção de assimetria de distribuições 48 Estudo e remoção de variáveis correlacionadas 49

Prevenção de vazamento de informação 49

(10)

Métodos de AM utilizados 50

Tratamento de classes desbalanceadas 52

Prevenção de sobreajuste 53

Escolha automática de hiperparâmetros 53

Métricas de avaliação 53

Experimentos e Resultados 57

Análise Exploratória dos Dados 57

Caracterização de trajetórias da internação 57

Caracterização de procedimentos hospitalares 61

Estudo de correlação entre variáveis 63

Descoberta de tendências temporais 65

Descoberta de padrões nos dados 67

Abordagem interpretável de Aprendizado de Máquina 71 Predição do nível mínimo de HGB na internação 72 Predição de aquisição ou agravamento de anemia 76 Predição da semana de encerramento da internação 81

Interpretação dos modelos de AM 86

Aplicação no cenário hospitalar 94

Conclusões e Trabalhos Futuros 100

Referências Bibliográficas 103

(11)

1. Introdução

Uma onda recente de disponibilização de dados de pacientes, principalmente em virtude da ampla adoção dos Prontuários Eletrônicos, tem permitido a condução de grande volume de análises estatísticas para validar ou descartar hipóteses relativas a problemas de saúde. Assim, estudos dirigidos por dados retrospectivos advindos de ambientes médico-hospitalares têm sido reportados em diferentes campos da Medicina como, por exemplo, para prever readmissão hospitalar [1] e riscos de doenças cardíacas [2].

Pesquisas com dados médicos são tradicionalmente conduzidas com técnicas estatísticas que necessitam de baixo poder computacional, como regressão linear ou testes de hipóteses, a exemplo do estudo conduzido em [3], que fez uso desse tipo de técnica estatística convencional para estudar doença cardíaca em infectados pelo HIV. No entanto, devido às variações demográficas e clínicas da população de pacientes, os dados advindos dos setores de internação de um hospital podem ser muito diversos e volumosos, apresentando alto número de variáveis candidatas ao processo de análise e alta heterogeneidade na natureza das variáveis (numéricas, nominais, ordinais). Assim, faz-se necessário o emprego de abordagens alternativas de análise, capazes de lidar com as características citadas de forma eficiente, ainda preservando bons níveis de acurácia.

Por fazerem uso de novos paradigmas computacionais para processamento e análise de grandes volumes de dados heterogêneos, métodos de Aprendizado de Máquina (AM) têm sido bem-sucedidos na tarefa de automatizar a exploração de um vasto espaço de hipóteses sobre relações estatísticas relevantes entre as variáveis [4], tornando-se promissores para estudos de natureza médico-hospitalar. Por exemplo, em 2016, Jabbar et al. utilizaram Random Forests , uma das técnicas de AM utilizadas nesta pesquisa, para prever doenças cardíacas, com resultados superiores aos da literatura [5].

No entanto, a dificuldade de interpretação dos resultados obtidos por AM pode inibir a ampla adoção dessas técnicas em cenários reais críticos. Isso porque, as relações entre as variáveis utilizadas e suas contribuições individuais para o

(12)

resultado obtido nem sempre estão disponíveis ou são representadas em formato inteligível. Essa dificuldade tem motivado avanços na área denominada Aprendizado de Máquina Explicável (AME) – como pontuaram Roscher et al. em 2020 [6] – culminando no surgimento de técnicas que buscam traduzir os resultados obtidos por AM em termos da importância individual das variáveis ou do processo de raciocínio utilizado na tomada de decisão dos algoritmos.

Considerando-se o contexto exposto e tendo como motivação os desafios inerentes da aplicação de AM a conjuntos de dados médicos de grandes volumes, desenvolveu-se na presente pesquisa uma abordagem interpretável de AM, aplicada ao domínio da Hematologia. O trabalho dedicou-se a estudar as consequências iatrogênicas – i.e., efeitos adversos resultantes do tratamento médico ao qual o paciente está sendo submetido – dos protocolos de flebotomia na evolução do quadro clínico de pacientes internados, especialmente no que diz respeito ao desenvolvimento e agravamento de anemia, assim como o aumento do tempo de internação. Até onde se sabe, como será detalhado no Capítulo 2, este é o primeiro trabalho que investiga, conjuntamente, relações entre flebotomia, anemia e tempo de internação utilizando técnicas de AM.

Objetivando-se alcançar um compromisso entre a acurácia dos resultados e a interpretabilidade dos modelos obtidos, buscou-se priorizar a utilização de técnicas de AM que, além de oferecer bom desempenho na resolução automática de tarefas, também oferecem clareza no processo decisório percorrido e nos resultados alcançados. Ressalta-se, portanto, que a escolha das técnicas utilizadas se deu após avaliação de diferentes classes de algoritmos de AM, ponderando-se as vantagens e desvantagem de aplicá-las a dados de natureza médica. Convergiu-se para a utilização de métodos baseados em Árvores de Decisão – Gradient Boosting Machines e Random Forests – e de interpretação de modelos de AM – SHapley Additive exPlanations . Conjuntamente, esses métodos oferecem uma visualização gráfica do encadeamento decisório percorrido nas etapas de obtenção dos resultados, tornando possível a compreensão intuitiva dos caminhos trilhados pelos algoritmos de AM até a finalização das tarefas tratadas.

Destacam-se como principais contribuições da pesquisa: (1) aplicação inédita dos métodos de AM e AME ao problema da perda de sangue por flebotomia; (2)

(13)

utilização inédita dos dados de internação e análises clínicas do HC/Unicamp para investigações de flebotomia; (3) extensão da literatura correlata pelo estudo aprofundado do problema e (4) embasamento para propostas de melhorias dos protocolos de flebotomia do HC/Unicamp.

1.1.

Motivação do Problema Médico

Sendo a saúde uma prioridade para o ser humano, iniciativas voltadas para a melhoria dos processos adotados no cenário médico-hospitalar têm estado cada vez mais em foco. Destaca-se dentre essas iniciativas o desenvolvimento de indicadores para o monitoramento da qualidade e segurança dos pacientes internados em hospitais [7].

Um componente central da prática médica atual são os exames laboratoriais, essenciais para estabelecimento de diagnósticos e acompanhamento da evolução do quadro clínico dos pacientes [8]. Especificamente, os exames de sangue provêem mensuração sobre os mais diversos aspectos da saúde humana, tornando-se vitais para o rastreamento de doenças hematológicas, metabólicas, hormonais, alterações na próstata e coração, disfunções hepáticas e renais, dentre outros problemas [9].

Em geral, pacientes internados em hospitais são submetidos a protocolos de flebotomia – procedimento de retirada de sangue de um paciente para realização de exames laboratoriais [10, 11] – que incluem coletas sucessivas de sangue. Em 1997, Zimmerman et al. analisaram o número de amostras de sangue colhidas para realização de exames laboratoriais em 42 Unidades de Terapia Intensiva (UTI) norte-americanas e constataram uma média de 12,8 amostras colhidas no primeiro dia de internação, seguido de 7,6 amostras no segundo dia [12]. Em 2003, Nguyen et al. constataram média diária de 11,7 amostras colhidas em UTI belga [13]. Por fim, em 2010, Machado et al. constataram média diária de 11,5 amostras colhidas em UTI brasileira [14].

Um problema que se identifica, todavia, é que coletas frequentes expõem o paciente a uma perda elevada de sangue em um intervalo curto de tempo, podendo desencadear consequências iatrogênicas. O desenvolvimento de anemia está entre

(14)

os efeitos adversos mais comuns nos hospitais, no que diz respeito à flebotomia, uma vez que o organismo do paciente pode não conseguir repor, entre as coletas realizadas na internação, os componentes sanguíneos perdidos, como hemoglobinas e eritrócitos [15]. Por exemplo, em 2009, Pabla et al. avaliaram o volume de sangue perdido por pacientes renais na internação, identificando que 49% necessitaram de tratamento de anemia [16].

Quando pacientes com diagnóstico de anemia se tornam sintomáticos ou quando o nível de hemoglobina no sangue é inferior a 7 g/dL, procedimentos mais drásticos como transfusão de sangue podem tornar-se necessários. Porém, transfusão sanguínea apresenta riscos, incluindo complicações infecciosas e não infecciosas [17, 18].

Nesse contexto, identifica-se a necessidade de se avançar nas investigações sobre possíveis relações entre os protocolos de flebotomia – processo decisório que expressa um encadeamento de solicitações para realização de exames laboratoriais de sangue – adotados nos hospitais e efeitos adversos como, por exemplo, o desenvolvimento ou agravamento de anemia e o aumento do tempo de internação.

1.2.

Objetivo da Pesquisa

Tendo como motivação o contexto apresentado anteriormente, esta pesquisa teve por objetivo projetar, implementar e testar uma abordagem interpretável de AM para avaliar a hipótese da perda de sangue derivada de protocolos de flebotomia ser um fator relevante para o desenvolvimento ou agravamento de quadros de anemia na internação, bem como para o aumento do tempo de permanência no hospital.

A abordagem interpretável de AM desenvolvida constitui-se de 3 estágios: (1) Predição: Oferece modelos para predizer, a partir de atributos de flebotomia, aquisição ou agravamento de anemia ferropriva por um paciente internado, o nível mínimo de Hemoglobina (HGB) atingido na internação e em qual semana a internação se encerrará;

(2) Interpretação dos Modelos: Provê entendimento aos especialistas do domínio sobre os modelos de predição obtidos e os processos decisórios inerentes às suas construções;

(15)

(3) Aplicação no cenário hospitalar: Permite o uso dos modelos e de suas interpretações para acompanhamento da evolução do quadro clínico de um paciente na internação.

1.3.

Perguntas de Pesquisa

No curso desta pesquisa, buscou-se responder às seguintes perguntas:

(1) Técnicas de AM baseadas em Árvores de Decisão são adequadas para avaliar os impactos dos protocolos de flebotomia na evolução do quadro clínico dos pacientes?

(2) As técnicas de AME utilizadas colaboram para a interpretabilidade dos resultados, fornecendo possibilidade de entendimento das etapas relativas à resolução da tarefa?

1.4.

Contribuições

Destaca-se como contribuições diretas deste trabalho:

(1) Aplicação inédita dos métodos de AM e AME ao problema médico estudado; (2) Utilização inédita das bases de dados dos setores de internação e análises clínicas do HC/Unicamp para investigações relativas a protocolos de flebotomia, trazendo à luz informação sobre os protocolos atualmente implementados no hospital;

(3) Construção de uma nova base de dados totalmente preparada para análises médico-hospitalares, composta de dados demográficos, laboratoriais e de internação;

(4) Construção de um pipeline para análise de dados e interpretação de modelos de AM;

(5) Oferecimento ao HC/Unicamp de embasamento para a formulação de propostas de melhorias e tomada de decisão sobre o processo médico-hospitalar de flebotomia;

(16)

(6) Extensão da literatura correlata, uma vez que inclui na metodologia da pesquisa outras variáveis com potencial de interferência no volume de sangue do paciente, como realização de cirurgias e transfusões de sangue na internação;

(7) Avaliação estratificada do problema, em 12 grupos e 6 cenários distintos, além do conjunto completo de dados.

1.5.

Aspectos Éticos da Pesquisa

Em 08/03/2017, o Comitê de Ética em Pesquisa da Unicamp emitiu parecer de autorização para esta pesquisa, sob número 1.953.779. A fim de proteger a privacidade dos pacientes, apenas dados históricos anonimizados foram utilizados.

1.6.

Organização do Texto

O restante deste trabalho está estruturado como segue. O Capítulo 2 apresenta conceitos relevantes para a pesquisa e a literatura relacionada. O Capítulo 3 aborda a metodologia adotada, o conjunto de dados e o projeto dos experimentos realizados. O Capítulo 4 descreve as etapas de pré-processamento dos dados e apresenta decisões tomadas nas etapas de implementação. O Capítulo 5 apresenta os resultados obtidos. O Capítulo 6 apresenta conclusões, desafios e trabalhos futuros. Finalmente, as duas seções seguintes referem-se às referências bibliográficas e anexos, respectivamente.

(17)

2. Fundamentação Teórica e Trabalhos

Relacionados

Este capítulo introduz conceitos teóricos pertinentes ao presente trabalho, bem como apresenta a literatura relacionada. Inicia-se com conceitos da Medicina, área de aplicação da pesquisa, seguindo-se por conceitos do Aprendizado de Máquina (AM), área de concentração da pesquisa dentro da Ciência da Computação. Por fim, na última subseção, apresentam-se trabalhos relacionados à pesquisa.

2.1.

Anemia ferropriva e Flebotomia

A seguir, apresentam-se três aspectos-chave da Hematologia, domínio de aplicação deste trabalho: o exame de hemograma, a anemia ferropriva e os procedimentos de flebotomia.

O campo da Medicina dedicado a estudar as causas, prognósticos, tratamentos e prevenções de doenças relacionadas ao sangue denomina-se Hematologia [19]. Três categorias de células sanguíneas compõem a base deste campo de estudo:

(1) Glóbulos vermelhos: responsáveis pelo transporte do oxigênio pelo corpo;

(2) Glóbulos brancos: responsáveis pela defesa do organismo contra agentes infecciosos;

(3) Plaquetas: responsáveis pelo processo de coagulação e prevenção de hemorragias.

Técnicas laboratoriais de análises clínicas tornam possível a detecção de anomalias e disfunções nas células sanguíneas. Dentre os exames disponíveis para esse propósito, destaca-se o hemograma, um teste amplamente requisitado pelos médicos por oferecer perspectivas de diagnóstico para um espectro abrangente de doenças [20].

O hemograma oferece um estudo quantitativo e qualitativo do sangue, por meio da avaliação dos seus componentes celulares, dentre os quais destaca-se a Hemoglobina (HGB), uma proteína dos Glóbulos Vermelhos composta por átomos

(18)

de ferro capazes de se ligar a átomos de oxigênio e transportá-los pelo sistema circulatório.

Uma doença detectável através do hemograma, pela observação de decaimento dos níveis de HGB, é a anemia ferropriva, condição decorrente da deficiência de ferro no organismo. No Brasil, os valores de referência considerados pelo Ministério da Saúde para a caracterização desse tipo de anemia são [21]:

Homem: < 13 g/dL Mulher: < 12 g/dL

A privação de oxigênio no corpo ocasionada pela deficiência de ferro – como no caso da anemia ferropriva – pode desencadear consequências relevantes para a saúde como o comprometimento do sistema imunológico, aumentando a incidência de infecções [22], aumento do risco de doenças e mortalidade em mães e recém-nascidos [23], retardo do desenvolvimento neuropsicomotor na infância [24], dificuldades de aprendizagem [25], comprometimento da capacidade cognitiva [26] e redução da produtividade [27].

O desenvolvimento de anemia como efeito adverso de tratamentos conduzidos em pacientes internados se tornou um tópico relevante na literatura médica recente. Em publicação de 2015, Martine e Scantling [28] apresentam uma informativa revisão sobre o tópico e apontam sete fatores-chave da denominada Hospital-Acquired Anemia , bem como seus respectivos riscos associados. Dentre esses fatores, a coleta de sangue para realização de exames de laboratório é destacada como sendo responsável pela maior contribuição para a aquisição de anemia ferropriva nos hospitais.

Os autores destacam ainda que as consequências podem ser exacerbadas em pacientes internados na UTI, onde a extração de sangue rotineira pode extrair 64 mg de ferro em um único dia, enquanto a ingestão normal de ferro em uma dieta típica é de 1 a 2 mg ao dia. Esse déficit torna-se mais pronunciado em pacientes que não podem realizar uma dieta oral adequada, seja por impossibilidades físicas ou restrições nutricionais [28] .

No contexto médico-hospitalar, o procedimento de extração de sangue para realização de exames laboratoriais é denominado flebotomia. Apesar do avanço

(19)

tecnológico das últimas décadas ter culminado em esforços de modernização para a melhoria dos processos gerais de flebotomia e análises clínicas, impactos negativos dos protocolos de flebotomia na internação hospitalar ainda são comumente reportados [29].

Destaca-se, portanto, que o problema médico motivador desta pesquisa é o da perda de sangue derivada de flebotomia. Em especial, sua relação com a anemia ferropriva adquirida em hospitais e o prolongamento do tempo de internação.

2.2.

Aprendizado de Máquina

Esta subseção objetiva introduzir os fundamentos da área de AM. Primeiro, apresenta-se a evolução da área de análise de dados. Em seguida, formalizam-se algumas definições e nomenclaturas da área, visando-se preparar o leitor para as partes subsequentes. Por fim, detalham-se as técnicas de AM utilizadas no desenvolvimento deste trabalho.

A análise estatística de dados data do século XVIII com os esforços de C. F. Gauss em prever a órbita de asteroides a partir de observações das suas posições anteriores. Tal empenho culminou no desenvolvimento do Método dos Mínimos Quadrados – principal característica da Regressão Estatística – que busca minimizar, para um conjunto de dados, o erro entre o valor estimado por um modelo e os dados observados [30].

Em problemas de regressão [31], supõe-se que um conjunto de vetores de entrada X = (x , ..,1 . xN) está relacionado a uma variável dependente , conhecida y como variável de interesse, por meio de uma função 𝑓 e um termo adicional ɛ:

f (x , .., ) ,  

y =   1 . xn +ɛ (1)

onde a função 𝑓 representa o conhecimento sobre como  y varia com cada combinação de valores possíveis assumidos pelos atributos de , enquanto ɛ x representa um fator de erro aleatório, de média zero, atribuído a fatores externos.

Por muito tempo, a análise estatística se desenvolveu isoladamente. No entanto, com o advento da Ciência da Computação nos anos 1950 e, mais

(20)

recentemente, de sistemas de informação capazes de processar e analisar grandes quantidades de dados, os conceitos e métodos da área passaram a ser estendidos e refinados no campo denominado Aprendizado de Máquina (AM), uma subárea da Ciência da Computação que se dedica ao projeto de algoritmos capazes de adaptar o comportamento de programas de computador de modo que estes melhorem, com a experiência, o desempenho em um conjunto de tarefas [32, 33]. Com isso, algoritmos dirigidos por dados passaram a ser projetados para automatizar a construção de modelos para tarefas de regressão, classificação de padrões e tomada de decisão.

O avanço da capacidade de computação permitiu o estabelecimento de requisitos mais ambiciosos para os modelos construídos pelas técnicas de AM. Como resultado, modelos inspirados em cérebros biológicos denominados Redes Neurais Artificiais (RNA) se popularizaram e passaram a ser usados em diversos domínios. Essa popularização se deu, principalmente, após a descrição, na década de 1980, do algoritmo Backpropagation para ajuste de parâmetros de treinamento – os quais codificam as relações entre os atributos de entrada e as variáveis de interesse – em RNAs de múltiplas camadas [34].

Embora a acurácia das predições obtidas por RNAs seja elevada quando comparada àquelas obtidas por modelos estatísticos como Regressão Linear, a grande quantidade de parâmetros e as combinações não-lineares dos atributos dificultam a interpretação das relações matemáticas aprendidas no processo de construção do modelo. Assim, um requisito passou a ser perseguido em AM: a obtenção de modelos diretamente interpretáveis, em especial por especialistas do domínio da aplicação.

Na metade da década de 1980, algoritmos para a construção automática de Árvores de Decisão (AD) foram propostos [35]. Estes modelos, como ilustra a Figura 1, encapsulam o particionamento do espaço de variáveis – ou atributos – de modo a estabelecer predições locais interpretáveis por meio de regras lógicas “ If-Then-Else ”. Assim, torna-se possível transferir o conhecimento capturado pelos modelos para especialistas do domínio. Modelos de ADs têm sido, portanto, concebidos para realização de tarefas computacionais de aplicabilidade crítica, como diagnósticos médicos [36].

(21)

Figura 1: Exemplo de Árvore de Decisão.

2.2.1.

Paradigmas do Aprendizado de Máquina

O processo de treinamento de um modelo de AM envolve alimentar um algoritmo com um conjunto de dados de treinamento para que o mesmo possa inferir padrões inerentes a esses dados e, em seguida, usar os padrões descobertos para realizar predições ou para executar outros tipos de tomada de decisão sob incerteza [37].

O artefato criado pelo processo de treinamento é denominado modelo de AM. Este processo envolve, ainda, dois aspectos essenciais para a produção de modelos acurados: hiperparâmetros e métricas de avaliação. O primeiro, refere-se a parâmetros definidos antes do início do processo de aprendizado, os quais influenciam os parâmetros aprendidos durante a fase de treinamento. Já o segundo, refere-se a funções capazes de medir a qualidade do modelo na execução da tarefa para a qual ele foi treinado.

Modelo = Dados de Treinamento + Algoritmo de Aprendizado + Hiperparâmetros Murphy [37] destaca que o campo do AM é usualmente caracterizado como Supervisionado e Não-supervisionado. A abordagem supervisionada objetiva aprender um mapeamento do conjunto de entrada  X para a saída , dado um y conjunto rotulado de pares de entrada-saída do tipo D =  {(x , )} j yj Nj=1, onde D é o conjunto de treinamento e é o número de exemplos de treinamento em . N X

(22)

Cada entrada de treinamento xj é um vetor D-dimensional de variáveis numéricas, categóricas ou ordinais (como altura, sexo e escolaridade de uma pessoa). Da mesma forma, a variável de saída yj pode ser uma variável categórica de um conjunto finito (como gênero) ou um valor numérico (como renda). Quando a saída yj é um valor numérico contínuo, o problema é conhecido como Regressão , por outro lado, quando a saída yj é uma variável categórica, denomina-se Classificação . Neste último caso, quando o conjunto de valores possíveis para a saída  y possui dois elementos apenas, y ∈ { 1 0, }  , denomina-se Classificação Binária , já quando y ∈ { 1 .0, , ..}  , chama-se Classificação Multiclasse .

No caso não-supervisionado, tem-se um conjunto de treinamento D formado por entradas D =  {x } j Nj=1, com o objetivo de descobrir padrões desconhecidos na estrutura dos dados. Como existe apenas o conjunto de entrada X , mas não existem exemplos de saídas  y para guiar a etapa de treinamento, diz-se que o conjunto é não-rotulado.

Nas subseções seguintes, apresentam-se os métodos de Regressão e Classificação utilizados nesta pesquisa. Primeiro, detalham-se os utilizados como baseline na estratégia comparativa adotada, seguindo-se dos que compõem o núcleo da abordagem interpretável de AM desenvolvida, como listado na Tabela 1:

Tabela 1: Técnicas de AM utilizadas, com respectivas tarefas e funções desempenhadas.

Técnica Tarefa Função

Elastic Net Regressão Método baseline

Logistic Regression Classificação binária

Classificação multiclasse Método baseline

Random Forests

Regressão Classificação binária Classificação multiclasse

Método principal

Gradient Boosting Machines

Regressão Classificação binária Classificação multiclasse

Método principal

SHapley Additive exPlanations Interpretabilidade de modelos

(23)

2.2.2.

Elastic Net

Um dos modelos matemáticos mais utilizados para regressão é conhecido como Regressão Linear [37], onde é adotada a suposição da saída y ser uma função linear do conjunto de entrada X = (x , ..,1 . xN). O processo de regressão se dá, nesse caso, por meio do ajuste de um modelo linear com coeficientes w  =  (w , ..,1 . wn), com o objetivo de minimizar o erro residual entre os dados observados no conjunto de entrada e as respostas previstas pela aproximação:

,   f (x , ) x   ɛ y ︿ j =   j w = ∑ n i=1 wi  ij +   (2)

onde  f (x ,j w ) é o modelo de regressão como função de n variáveis independentes. O problema de otimização associado ao modelo de Regressão Linear é o de obter o vetor ótimo de coeficientes w *=  (w , ..,* ) que minimiza uma função sobre

1 . w*n

os resíduos compostos pela diferença entre as saídas do modelo e a variável dependente. A função de erro mais utilizada no caso geral é a de soma quadrática dos resíduos, : S , , (w) S = ∑ N j=1 rj2 rj = yj ­ f(x , )  j w (3)

onde rjsão os resíduos entre as observações yj da variável dependente e as saídas estimadas do modelo de regressão, ︿yj =  f (x , )j w .

Duas estratégias conhecidas por melhorar o desempenho da regressão linear em conjuntos de dados com múltiplas variáveis independentes são denominadas Lasso e Ridge . Ambas utilizam um processo conhecido como regularização, o qual adiciona restrições na estrutura dos coeficientes lineares do problema de otimização associado. No modelo Lasso , adiciona-se um termo de penalização de norma L1 sobre os coeficientes, enquanto que no modelo Ridge Regression , o termo de penalização é de norma L2 [37]: , w S(w)Lasso = ∑ N j=1 r2j + λ|| || 1   (4)

(24)

, w S(w)Ridge = ∑ N j=1 rj2+ λ|| ||2  (5)

onde é um parâmetro real positivo que controla a influência da regularização. Para λ , os modelos equivalem a uma regressão linear. Para os modelos

λ = 0 λ→ ∞  

tendem a zerar todos os coeficientes lineares.

O modelo Lasso é capaz de realizar seleção de atributos, pois alguns coeficientes lineares são completamente zerados. Por exemplo, no caso de duas variáveis colineares, uma das variáveis pode ter o seu coeficiente zerado, enquanto a outra continua com seu coeficiente original. Esse efeito não ocorre no modelo Ridge , onde duas variáveis colineares podem apresentar coeficientes semelhantes.

A combinação dessas técnicas deu origem, em 2005, a um novo método híbrido de regressão conhecido como Elastic Net [38], capaz de equilibrar as características das regularizações L1 e L2. O modelo Elastic Net minimiza a seguinte função residual:

, S(w)ElasticN et = ∑ N j=1 r2j + λ w  

(

λ w 1|| ||1 +   2|| ||   2

)

  (6)

onde e controlam a influência dos dois tipos de regularização. λ1 λ2

2.2.3.

Logistic Regression

Assim como ocorre nos modelos de regressão linear, modelos derivados do método conhecido como Logistic Regression supõem que a variável dependente pode ser explicada por uma combinação linear das variáveis independentes. A diferença com respeito aos demais modelos se expressa na aplicação da função logística sobre o resultado da combinação linear [31] :

, com e .   f (x , ) y ︿ j =   j w = σ (u) u w,

(

xj

)

= ∑ x   ɛ   n i=1

wi  ij +   σ (u) =  1+e1­u (7)

A função logística realiza um mapeamento de um valor real no intervalo [0, 1]. Assim, a regressão logística pode ser aplicada para modelar a probabilidade de x

(25)

pertencer a uma categoria específica. Por isso, o modelo pode ser facilmente adaptado para produzir um classificador binário, ao se adicionar uma regra de limiar:

se ; , caso contrário.

x  

  j ∈ C1 yj ≥  α   xj

/

C1 

Nessa regra, α∈   0,[ 1]   representa um limiar de confiança dependente dos requisitos sobre o domínio da aplicação e C1 representa uma classe de interesse.

Com respeito ao problema de otimização associado à regressão logística, busca-se encontrar o vetor de coeficientes ótimo w* que minimiza a função de perda chamada log-loss , também conhecida como entropia cruzada:

. (y )   log y   (1 ) log (1 y ) Llog ︿  =  ­ ∑ N j=1 yj ︿j +   ­ yj ­  ︿j (8)

Quando se faz necessário classificar a pertinência de uma observação xj a classes mutuamente excludentes, entra-se no domínio de

m > 2 C1, ..., C    m

problemas multiclasses. Para esse caso, modelos de regressão logística podem ser adaptados quanto à função de saída, que passa a ser um mapeamento , em que é o número de classes. Uma generalização da função

ℝ    

  C → 0,[ 1]C C

logística conhecida como função softmax é utilizada para o caso multiclasses:

of tmax

s

(y )

c

=

 

eyc

 

C k=1 eyk

(9)

A Eq. (9) apresenta uma normalização de funções exponenciais sobre as saídas individuais do modelo. Desse modo, a função softmax produz como saída um vetor em que cada componente pertence ao intervalo unitário e cuja soma dos componentes resulta em 1. O vetor de saída pode então ser interpretado como uma distribuição de probabilidades e, assim como ocorre no caso de regressão logística binária, regras de decisão podem ser utilizadas para gerar um classificador multiclasses:

(26)

se .

x  

  j ∈ Ck* k= arg max  sof tmaxk (y )k   (10)

2.2.4.

Ensemble Learning

A escolha de um modelo a ser ajustado aos dados por meio de um processo de AM passa por uma avaliação do compromisso entre viés e variância. O primeiro refere-se a quão bem o modelo descreve os dados observados, enquanto o segundo refere-se à capacidade do modelo generalizar o que aprendeu das observações conhecidas para observações futuras desconhecidas. Modelos de baixa complexidade tendem a exibir alto viés, enquanto modelos de alta complexidade tendem a exibir baixo viés [33].

Na prática, baixo viés pode resultar em sobreajuste do modelo aos dados de entrada do treinamento. Nesse caso, o modelo consegue resolver a tarefa de regressão ou classificação satisfatoriamente ao ser avaliado no conjunto de dados utilizado para a estimação dos parâmetros e coeficientes. Por outro lado, o sobreajuste resulta em baixo desempenho quando o modelo é validado em dados que não foram utilizados no processo de treinamento, exibindo alta variância quando o desempenho é avaliado em conjuntos distintos de dados. Diz-se, nesse caso, que o modelo apresenta baixo nível de generalização. Modelos de alto viés, por outro lado, tendem a exibir baixa variância, pois embora o desempenho no conjunto de treino possa não ser satisfatório, tendem a ter desempenhos em níveis semelhantes quando validados em conjuntos de dados fora do processo de treinamento. Assim, encontrar modelos adequados para resolver uma tarefa de regressão ou classificação requer encontrar um bom compromisso entre viés e variância para que o modelo possa generalizar o bom desempenho nos dados de treinamento para os dados de validação.

Técnicas de AM denominadas ensembles têm sido utilizadas para um melhor controle do compromisso entre viés e variância nas tarefas de aprendizado. Um ensemble consiste em um grupo homogêneo de regressores ou classificadores, os quais utilizam individualmente o mesmo processo de treinamento. Cada modelo individual é conhecido como weak learner . Os modelos produzidos pelos weak learners em um ensemble são combinados para produzir um resultado final, em

(27)

geral, por média ou voto majoritário [39, 40]. Duas técnicas de ensemble se destacam em AM: bagging e boosting . Ambas consistem em utilizar subconjuntos de dados amostrados, com reposição, do conjunto de treinamento para treinar os weak learners [39].

Bagging treina os weak learners de forma paralela e independente, pois não há interdependência entre os subconjuntos de dados apresentados a cada modelo individual. Ao final do treinamento, o modelo final é escolhido tomando-se a média simples das predições individuais dos weak learners [41].

Boosting , por outro lado, executa treinamentos sequenciais, não paralelizáveis. Para cada amostra contida no subconjunto de dados apresentado a um week learner é atribuído um peso representando a dificuldade exibida pelos weak learners anteriores em realizar adequadamente a tarefa proposta. Além da ponderação no nível das amostras, a cada weak learner é atribuído um peso relacionado ao seu desempenho individual no processo geral de treinamento [39]. Os pesos dos modelos são ajustados durante o treinamento e algumas técnicas, como AdaBoost [42], impõem restrições de desempenho mínimo para manter ou não um weak learner do ensemble . Ao final do treinamento, o modelo final é escolhido tomando-se a média ponderada das predições individuais [43].

2.2.5.

Random Forests

A técnica denominada Random Forests (RF), proposta por Breiman [44], se posiciona como um ensemble composto por Árvores de Decisão (AD) como weak learners e faz uso de bagging para redução de variância e melhor generalização. Pode ser utilizada para tarefas de classificação ou regressão.

O processo de crescimento das árvores pode ser paralelizado e se beneficia de estratégias para aumentar a diversidade dos week learners no processo de treinamento individual, como, por exemplo, restrições no número de atributos a serem considerados para encontrar o melhor próximo split [39]. Com essa restrição, evita-se que atributos com elevado ganho de informação predominem nos splits iniciais dos weak learners .

(28)

Para produzir modelos com bom compromisso entre viés e variância, o ajuste de parâmetros apresenta-se como um importante mecanismo na etapa de treinamento. Dentre eles destacam-se: número de árvores, profundidade máxima das árvores, número de atributos considerados em cada split e número mínimo de amostras por folha.

O pseudocódigo a seguir descreve, em alto nível, o processo de treinamento de uma RF, por meio do ajuste simultâneo de um conjunto de ADs.

Pseudocódigo para Random Forests [39]

Seja D =  {(x ,1 y1), .., x ,. ( N yN)}   o conjunto de dados de treinamento. Seja a quantidade de ADs que compõem o ensemble . J  

Para j = 1 até J :  

1. Sorteie a partir de , com reposição, uma amostra D D1de tamanho . N

2. Utilizando D1como conjunto de treinamento, ajuste uma AD: a. Comece com todas as observações em um único nó.

b. Repita os passos abaixo recursivamente para cada nó não particionado até alcançar o critério de parada:

i. Selecione aleatoriamente m atributos do conjunto disponível de atributos.

ii. Encontre o melhor split binário dentre todos os splits binários possíveis para os atributos selecionados no passo (i).

iii. Particione o nó atual em dois nós descendentes utilizando o split do passo (ii).

Para realizar uma predição em uma nova observação , x

● ︿f (x) =  1Jy (x) , para regressão

J j=1

 ︿j

● ︿f (x) = arg maxy( y (x) ) , para classificação

J j=1

I ︿j = y

onde  ︿y (x)  j é a predição da árvore para a observação . j x

2.2.6.

Gradient Boosting Machines

Gradient Boosting Machines (GBM), técnica proposta por Friedman [45], pertencem à classe dos ensembles e podem ser utilizadas para tarefas de classificação ou regressão. No entanto, diferentemente das Random Forests , que fazem uso de bagging , utilizam estratégias de boosting para aprender as predições dos weak learners em cada etapa e, iterativamente, corrigir os erros da iteração anterior.

(29)

O algoritmo das GBMs pode ser interpretado como um problema de otimização de uma função de erro (como o Erro Médio Quadrático - EMQ) composta pelas perdas que ocorrem ao se ajustar o modelo aprendido aos dados de entrada. Para realizar a avaliação de desempenho do modelo em treinamento, constrói-se, iterativamente, uma função que aponta na direção do negativo do gradiente (um vetor que indica o sentido e a direção na qual se obtém o maior incremento possível no valor de uma grandeza). Após o cálculo da função de erro, ajusta-se um modelo à função obtida e, finalmente, atribui-se um peso ao modelo de acordo com o tamanho de passo do gradiente descendente. O peso atribuído contribuirá para guiar o processo de treinamento na iteração seguinte [46].

O algoritmo conhecido por eXtreme Gradient Boosting ( XGBoost ), formalizado por Chen e Guestrin em 2016 [47], fornece uma implementação eficiente e escalável das GBMs, tendo ganho notoriedade ao ser utilizado por diversas equipes vencedoras de competições, como Kaggle , nos últimos anos. Seu bom nível de desempenho pode ser, também, atribuído à adição de recursos de regularização na sua formalização, o que provê melhor controle de sobreajuste e maior generalização.

O pseudocódigo a seguir descreve, em alto nível, o processo de treinamento de uma GBM clássica, pelo ajuste simultâneo de um conjunto de weak learner s.

Pseudocódigo para Gradient Boosting Machines [46]

Seja D =  {(x ,1 y1), .., x ,. ( N yN)}   o conjunto de dados de treinamento. Seja M a quantidade de iterações.  

Seja I(y, )f a função de erro escolhida.

Seja h(x, )θt a função objetivo para o modelo de weak learner escolhido. Inicialize a aproximação  ︿f (x) 0 com uma constante.

Para t = 1 até   M :  

1. Compute o gradiente negativo gt(x).

2. Utilizando gt(x), ajuste a função h(x, )θt do modelo de weak learner . 3. Encontre o melhor tamanho de passo para o gradiente descendente : ρt

● ρt = arg minρ ∑ [ y , f (x ) h(x , )]

N i=1

I i  ︿t­1 i + ρ i θt

4. Atualize a estimativa da saída do ensemble : ● ︿ft(x) =  ︿ft­1(x)+ ρt *  h(x, )  θt

(30)

2.2.7.

Shapley Additive Explanations

A maior parte dos esforços de pesquisa na área de AM está na busca por técnicas que produzam modelos com maior acurácia. No entanto, principalmente por restrições impostas pelo domínio de aplicação, existe uma crescente demanda por entender os mecanismos subjacentes às decisões tomadas por modelos de AM.

Na área médica, por exemplo, para que resultados obtidos por AM possam ser incorporados à base formal de conhecimento tomada como legítima pelos especialista do domínio, um pré-requisito que se impõe é a capacidade de interpretabilidade dos modelos e entendimento dos processos decisórios inerentes às suas construções.

Nesse contexto, uma área denominada Aprendizado de Máquina Explicável (AME) está ganhando notoriedade na comunidade de AM. Em publicação recente, de Fevereiro de 2020 [48], Roscher et al. identificam seus três elementos-chave:

1. Transparência: Refere-se à possibilidade do processo interno de construção dos modelos de AM ser descrito com alto grau de clareza, incluindo os seus mecanismos de aprendizagem e definições de hiperparâmetros;

2. Interpretabilidade: Refere-se à capacidade de mapeamento explícito dos resultados do processo de aprendizagem aos atributos dos dados de entrada que guiaram as decisões de obtenção do modelo. Essa característica oferece aos especialistas do domínio o entendimento das relações subjacentes entre os dados utilizados na obtenção do modelo e o problema investigado;

3. Explicabilidade: Refere-se à obtenção de um nível de entendimento do modelo que vai além da interpretabilidade, que pode ser alcançado por meio do envolvimento de especialistas do domínio em uma etapa final de validação dos resultados, a fim de gerar consistência científica com a área de aplicação. Uma técnica que se propõe a extrair interpretabilidade dos modelos de AM é denominada SHapley Additive exPlanations (SHAP). Proposto em 2017 [49], define-se como um método unificado de mensuração de importância de atributos que foram utilizados para a estimação de um modelo de AM.

(31)

O método SHAP tem como objetivo explicar as predições realizadas por um modelo de AM ao calcular a contribuição de cada atributo na formulação das predições. Para isso, calcula os valores ótimos de Shapley , um método da Teoria dos Jogos Cooperativos que tem por objetivo atribuir lucro a jogadores que cooperam em uma coalizão, dependendo de sua contribuição para o lucro total. Assim, o valor de Shapley pode ser entendido como a contribuição marginal média de um atributo em todas as coalizões possíveis. Na prática, atributos com altos valores Shapley são considerados mais determinantes para as predições do modelo.

Além da importâncias dos atributos, o método SHAP oferece informação sobre (1) a magnitude do impacto de cada atributo nas predições do modelo, (2) a dependência entre os atributos e (3) o nível de interação entre os atributos.

2.3.

Literatura Relacionada

Esta pesquisa concentra-se em uma lacuna identificada na literatura, a qual se refere ao emprego de técnicas de Aprendizado de Máquina (AM) no estudo dos impactos da perda de sangue por flebotomia na evolução do quadro clínico de pacientes internados.

Buscas realizadas em 2020 pelos termos de interesse no título ou assunto de publicações indexadas pelo Portal de Periódicos CAPES retornaram resultados vazios para todas as combinações de interesse. As mesmas buscas foram repetidas no portal Google Scholar , também não retornando resultados compatíveis. Esse fato sugere a inexistência de trabalhos integralmente comparáveis ao apresentado nesta dissertação. As buscas realizadas são listadas a seguir:

(1) “phlebotomy” + “machine learning”;

(2) “phlebotomy” + “anemia” + “machine learning”; (3) “phlebotomy” + “length of stay” + “machine learning”;

(4) “phlebotomy” + “anemia” + “length of stay” + “machine learning”.

Partiu-se, então, para uma investigação menos restrita da literatura, dessa vez sobre o uso de AM em estudos concernentes à anemia e tempo de internação –

(32)

sem considerar o fator flebotomia. Busca por “anemia” + “machine learning” retornou apenas 43 artigos compreendendo o período de 2014 a 2020, sendo mais da metade (23 artigos) publicada durante os últimos 12 meses, sugerindo ser essa uma abordagem recente. Similarmente, busca pelos termos “length of stay” + “machine learning” retornou 42 trabalhos, sendo o mais antigo de 2006.

O contexto mencionado sugere que esta pesquisa se posiciona como pioneira em abranger os quatro aspectos ilustrados na Tabela 2 em uma única iniciativa.

Tabela 2: Posicionamento da pesquisa junto à literatura correlata.

Flebotomia Anemia Tempo de

Internação AM Literatura x x x x x x x x Abordagem interpretável de AM para investigação da perda de sangue por flebotomia na internação x x x x

Esta subseção prosseguirá, inicialmente, apresentando trabalhos relativos às categorias rotuladas como “Literatura” na Tabela 2. Por fim, apresentará trabalhos que exploram, em aplicações diversas, as principais técnicas de AM utilizadas.

2.3.1.

Trabalhos investigando flebotomia e anemia

A prevalência de anemia adquirida na internação tem sido sistematicamente apontada como um fator adverso do processo médico-hospitalar, como pontuaram Koch et al. em 2013 [50]. O estudo indicou aumento progressivo da taxa de mortalidade à medida que aumentava a severidade da anemia adquirida no hospital, tendo sido reportada taxa de mortalidade de 0,78% para pacientes sem anemia, 0,99% para pacientes com anemia leve e 4,6% para pacientes com anemia grave.

Referências

Documentos relacionados

De acordo com os dados encontrados, ficou evidenciado que a maioria, 70% dos praticantes está com a composição corporal adequada, mais da metade 53% também estão

Partindo deste princípio, e com experiência à frente dos proces- sos formativos na área de Informações e Registros em Saúde, o Labo- ratório de Educação Profissional

A participação foi observada durante todas as fases do roadmap (Alinhamento, Prova de Conceito, Piloto e Expansão), promovendo a utilização do sistema implementado e a

O objetivo desse artigo não é induzir o leitor à compra de nenhuma das câmeras expostas nesse trabalho, mas sim, sugerir alguns equipamentos fotográficos

Poderíamos, portanto, sugerir que diante de uma situação clínica onde possa existir dentina afetada por cárie em uma cavidade, a utilização do sistema adesivo

O TBC surge como uma das muitas alternativas pensadas para as populações locais, se constituindo como uma atividade econômica solidária que concatena a comunidade com os

Por último, temos o vídeo que está sendo exibido dentro do celular, que é segurado e comentado por alguém, e compartilhado e comentado no perfil de BolsoWoman no Twitter. No