• Nenhum resultado encontrado

Material Suplementar para Complexidade na Física e seu Ensino: Apresentação da Edição Especial

N/A
N/A
Protected

Academic year: 2021

Share "Material Suplementar para Complexidade na Física e seu Ensino: Apresentação da Edição Especial"

Copied!
24
0
0

Texto

(1)

1

Revista Brasileira de Ensino de Física

https://doi.org/10.1590/1806-9126-RBEF-2021-0031

Material Suplementar para “Complexidade na Física e seu Ensino:

Apresentação da Edição Especial”

Do Claustro ao Confinamento Epidêmico

Paulo Murilo Castro de Oliveira1

Universidade Federal Fluminense, Instituto de Física. Instituto Nacional de Ciência e Tecnologia – Sistemas Complexos

1. Introdução

Sistemas complexos são definidos de diversas maneiras por diferentes estudiosos. Vou me arvorar no direito de dar a definição a seguir. São sistemas dinâmicos, evoluem no tempo t. Algumas de suas grandezas evoluem segundo as famosas leis de potência, 𝑞 ∝ 𝑡𝛼, onde α é um expoente fixo e o símbolo ∝ significa “assintoticamente proporcional a” usado quando não há interesse pelo valor específico da constante de proporcionalidade. Várias grandezas de interesse decaem com o passar do tempo, caso em que α é negativo. Esta forma matemática difere qualitativa e quantitativamente da forma mais comum, a exponencial 𝑞 ∝ 𝑒𝜆𝑡 característica dos sistemas simples (em contraponto com os complexos), cujo decaimento (para λ negativo) tem duração τ = 1/|λ|. Na lei de potência o decaimento é muito mais lento, o tempo característico cresce indefinidamente para sistemas cada vez maiores. O expoente dinâmico crítico z determina a relação do tamanho (linear) L do sistema com a duração τ de seu decaimento, τ ∝ Lz. Nos decaimentos exponenciais (radioatividade, por exemplo), a duração do decaimento não depende do tamanho do sistema, tempo e espaço são variáveis separadas. Já nos decaimentos complexos em lei de potência (evolução por seleção natural, por exemplo), espaço e tempo estão emaranhados. Uma discussão mais detalhada desta comparação pode ser lida no capítulo 2 da referência [1] que trata deste aspecto da evolução por seleção natural. Os sistemas complexos também não podem ser confundidos com os sistemas caóticos. Nestes, a diferença entre as evoluções temporais de duas amostras inicialmente muito próximas entre si cresce de forma exponencial ∝ 𝑒𝜆𝑡. Portanto a

(2)

2 memória das condições iniciais também tem tempo de duração finito τ = 1/|λ|. O valor de λ é o chamado expoente de Lyapunov que caracteriza o sistema como simples (λ negativo) ou caótico (λ positivo). Portanto esta relação de finitude no tempo é válida quer o sistema seja simples ou caótico. Mas não vale para os sistemas complexos, em que λ = 0. Em outras palavras mais amenas e menos matemáticas, pode-se interpretar os sistemas complexos como sendo aqueles que jamais atingem um equilíbrio final, permanecem num eterno transiente.

2. Sistemas Críticos em Equilíbrio

Um sistema é considerado em equilíbrio quando o tempo t já passou muito do valor característico τ, portanto as grandezas macroscópicas já se estabilizaram em seus valores de equilíbrio. Não significa que não haja mais movimentações no nível microscópico, por exemplo, as moléculas de um gás em equilíbrio continuam a se movimentar caoticamente. Mas grandezas macroscópicas tais como pressão e temperatura do gás têm seus valores estabilizados. A teoria dos fenômenos críticos de sistemas em equilíbrio está bem estabelecida por meio de raciocínios que levam em conta diferentes escalas de tamanhos do sistema, comparando os observáveis correspondentes a um tamanho L com os de outro tamanho L′, a chamada renormalização. Como resultado, aparecem as chamadas leis de escala e as consequentes leis de potência. Por exemplo, a magnetização m de um bloco de metal ferromagnético varia com a temperatura T segundo a lei de potência 𝑚 ∝ (𝑇𝑐 − 𝑇)𝛽 para temperaturas abaixo de um valor crítico Tc característico do material, mas o expoente crítico β é o mesmo para diferentes materiais, e mesmo para sistemas completamente distintos. Um ferromagneto uniaxial (a magnetização aponta sempre numa mesma direção cristalina) apresenta exatamente o mesmo valor de β que a água próxima de sua temperatura crítica Tc = 374oC (ou 647K), abaixo da qual se observa a coexistência de duas fases, líquida e vapor. A diferença de densidades 𝑚 = 𝜌𝐿− 𝜌𝑉 ∝ (𝑇𝑐 − 𝑇)𝛽 varia com a temperatura da mesma forma que a magnetização do material ferromagnético, com o mesmo valor do expoente β = 0,326. Em ambos os casos, m = 0 acima da respectiva temperatura crítica Tc. O ferromagneto não apresenta magnetização acima de sua temperatura crítica característica, assim como a água não apresenta a coexistência de duas fases, apenas uma que podemos chamar gás para diferenciar de vapor. Abaixo da temperatura crítica, o ferromagneto também pode apresentar coexistência de domínios no mesmo bloco metálico, apontando em sentidos opostos, mas na mesma direção uniaxial definida pela rede cristalina. O que define a

(3)

3 coincidência do expoente são duas singelas características macroscópicas comuns: a dimensão geométrica D = 3 do bloco metálico ou da amostra d’água, e a dimensão d = 1 do chamado parâmetro de ordem m (a diferença de densidades no caso da água é uma grandeza escalar, unidimensional, e a magnetização no ferromagneto uniaxial também). Várias outras grandezas nestes dois e em vários outros sistemas apresentam esta universalidade dos expoentes críticos, que dependem apenas da dimensão geométrica D e da dimensão d do parâmetro de ordem (ou, mais genericamente, das simetrias do parâmetro de ordem, em sistemas mais sofisticados). Assim, a teoria dos fenômenos críticos de equilíbrio classifica os diversos sistemas, reais ou modelados, próximos de uma transição de fase crítica, em classes de universalidade abrangentes. Determinar os expoentes críticos de um destes sistemas significa determiná-los para todos os outros da mesma classe. É conveniente mencionar também que estes sistemas críticos apresentam interações de curto alcance entre seus componentes microscópicos, apenas a interação de cada um com seus vizinhos próximos é relevante. Outros sistemas que apresentam interações de longo alcance, como a gravitação, por exemplo, obedecem a outra lógica que não será tratada aqui.

Figura 1: Parâmetro de ordem m em função do parâmetro de controle p num sistema crítico. Perto do ponto crítico, pequenas variações da entrada p geram enormes variações na resposta m.

É impensável resolver o problema do ferromagneto uniaxial ou da água, próximos à respectiva temperatura crítica, levando-se em conta todas as complicadas interações entre átomos da amostra, o movimento translacional e rotacional de cada átomo, além de outras complicações, para determinar os expoentes críticos. Como então foi obtido o valor β = 0,326? Resposta: através do famoso modelo teórico de Ising. Neste modelo, os átomos são considerados fixos nos vértices de uma rede cristalina, o que elimina a complicação

(4)

4 do movimento de cada um. Cada átomo é representado apenas por um valor de spin que pode ser +1 ou −1, conforme o momento magnético daquele átomo aponte num sentido ou no sentido oposto, sempre na direção uniaxial definida pela rede cristalina, portanto o valor da já citada dimensão do parâmetro de ordem é d = 1. A interação entre átomos vizinhos também é muito simplificada, se os spins de dois vizinhos apontarem em sentidos opostos (um +1 e outro −1) a contribuição deste par para a energia total tem um valor fixo positivo +J, caso os dois apontem no mesmo sentido, a contribuição é −J. Muito simples, não? Pois bem, os expoentes críticos obtidos com este modelo são os mesmos do bloco ferromagnético uniaxial, que também são os mesmos da água e de qualquer outro sistema que tenha as mesmas dimensões D e d. Ainda assim, não se conseguiu até hoje resolver este modelo exatamente para dimensão geométrica D = 3. Os valores do expoente crítico β = 0,326 e outros foram determinados (com precisão bem maior do que os 3 dígitos mostrados) por simulações de Monte Carlo.

Repare o leitor que o valor β = 0,326 se situa abaixo de 1 nos exemplos anteriores, assim como em vários outros. A temperatura T é o chamado parâmetro de controle, em outros sistemas este papel cabe a outras grandezas, por exemplo a concentração p de obstáculos num problema de percolação (filtragem). Usaremos a seguir a letra p para designar este parâmetro de controle no caso geral. A Figura 1 mostra o gráfico da relação 𝑚 ∝ (𝑝𝑐− 𝑝)𝛽 , incluindo m = 0 acima do ponto crítico pc, com β = 0,326. Esta função apresenta uma singularidade matemática neste ponto (o bico da Figura 1). Por ser o expoente β menor do que 1, a parte curva é tangente (paralela) ao eixo vertical no ponto crítico. Significa que, se partirmos de um valor alto e baixarmos gradativamente o parâmetro de controle p, o parâmetro de ordem m deixa de ser nulo de repente. No ponto crítico ou um pouco abaixo, qualquer pequeníssima variação de p gera enormes variações de m. Esta é a característica principal da criticalidade. Dá origem a uma série de aplicações tecnológicas importantes. Por exemplo, um transistor é um sistema crítico. A corrente elétrica que o atravessa é controlada por uma pequena voltagem de controle aplicada externamente. Quando esta se situa abaixo de um valor crítico, a corrente que atravessa o dispositivo é alta, acima se anula (ou ao contrário, dependendo do tipo do transistor). Assim são codificados os bits 0 ou 1 em qualquer aparelho eletrônico, computadores, celulares, etc.

A singularidade no ponto crítico é característica de sistemas macroscópicos, no chamado limite termodinâmico em que o tamanho L do sistema tende a infinito. No caso do bloco ferromagnético, por exemplo um cubo de aresta 1cm, o tamanho L é medido em

(5)

5 termos da distância entre átomos vizinhos na rede cristalina, da ordem de 10−7cm, portanto L = 107 já é enorme. No entanto, se tivéssemos precisão suficiente para ampliar a região da singularidade na Figura 1, num sistema finito, verificaríamos que a singularidade é substituída por uma curva suave não singular, como na Figura 2. Quanto maior for o tamanho L do sistema finito, mais a curva de magnetização m em função da temperatura T se aproxima da singularidade. Esta figura corresponde ao mesmo modelo de Ising já citado, desta vez numa rede quadrada 𝐿 × 𝐿, portanto D = 2. Este é um dos pouquíssimos casos em que existe a solução exata no limite termodinâmico 𝐿 → ∞, correspondente à última curva que apresenta uma singularidade verdadeira.2

Figura 2: Magnetização uniaxial (d = 1) em função da temperatura para o modelo de Ising bidimensional (D = 2) em redes de tamanho finito 𝐿 × 𝐿. Os minúsculos tamanhos L = 2, 3, 4, 5 e 6, vistos de cima para baixo, ainda muito longe do limite termodinâmico 𝐿 → ∞, puderam ser resolvidos [2] exatamente (o número de configurações computadas no caso L = 6 é 236, quase cem bilhões). O tamanho seguinte, L = 32, ainda minúsculo, foi tratado através de simulações de Monte Carlo. A última curva corresponde à solução exata no limite termodinâmico, e apresenta a singularidade característica, com expoente β = 1/8.

2 O físico norueguês Lars Onsager já havia resolvido o modelo de Ising na rede quadrada, Phys. Rev. 65, 117 (1944), determinando sua função de partição. É talvez o trabalho mais importante da área de transições de fase críticas. Mas a magnetização como função da temperatura não pode ser obtida apenas da função de partição. Em 1949 o próprio Onsager apresentou a fórmula da curva da Figura 2, numa palestra. Posteriormente a fórmula foi demostrada pelo chinês Yang Chen-Ning, Phys. Rev. 85, 808 (1952). Yang recebeu o prêmio Nobel de Física em 1957 por outro trabalho. Onsager também recebeu o prêmio Nobel de química em 1968 por outro trabalho.

(6)

6 3. Dinâmica

Na Seção 2, esquecemos o tempo. Admitimos que o sistema já está em equilíbrio de antemão, portanto o passar do tempo nada altera nos aspectos macroscópicos. Esta é a premissa básica da teoria dos fenômenos críticos em equilíbrio. Como já comentado, é uma teoria completa e bem estabelecida.

No entanto, se nos importa o que acontece antes do equilíbrio ser alcançado, ou mesmo o que acontece num sistema que jamais atinge o equilíbrio, há uma lacuna teórica ainda a ser preenchida no futuro. Não existe hoje uma teoria dinâmica completa para os sistemas críticos ou complexos. Há, sim, vários avanços parciais ou em casos particulares. Conhece-se muita informação a respeito. A principal estratégia desses estudos é a mesma, considerar sistemas de tamanhos distintos e procurar leis de escala no tempo, generalizações das leis de escala de equilíbrio que não envolvem o tempo.

Para sistemas de tamanho finito, desde que não haja indução externa, mais cedo ou mais tarde o equilíbrio se estabelecerá. Mais cedo ou mais tarde? A resposta pode depender do tamanho do sistema. O tempo τ característico do decaimento ao equilíbrio em sistemas ditos simples não depende do tamanho, como é o caso do decaimento radioativo. As tabelas de vida média dos elementos radioativos não se referem ao tamanho da amostra. Uma amostra do elemento radioativo rubídio 82, por exemplo, tem sua radioatividade reduzida à metade depois de 75 segundos, independente do tamanho da amostra. Já o outro elemento radioativo plutônio 239, um dos subprodutos das usinas de energia nuclear, demora 22 mil anos para sua radioatividade cair à metade, também independente do tamanho da amostra. Apesar da disparidade dos tempos de decaimento nestes dois exemplos, são valores finitos e, portanto, são sistemas classificados como simples. Mas nos sistemas ditos complexos, como já comentado, o tempo de decaimento ao equilíbrio cresce com o tamanho da amostra segundo a relação 𝜏 ∝ 𝐿𝑧. Esta é a diferença fundamental entre sistemas simples e complexos. Portanto, sistemas dinâmicos complexos são estudados através de escalonamento de tamanhos. Amostras do mesmo sistema com tamanhos distinto são comparadas para determinar o expoente crítico dinâmico z, além de outros expoentes e outras propriedades. Note o leitor, entretanto, que o escalonamento de tamanhos finitos não é linear. Uma publicação do prêmio Nobel Phil Anderson [3], intitulada More Is Different, trata do assunto.3 A palavra More do título se refere a sistemas macroscópicos, com muitos elementos constitutivos, em direção ao

(7)

7 limite termodinâmico. A outra palavra Different informa que neste limite alguns sistemas (críticos ou complexos) se comportam de maneira distinta do que se poderia esperar pela simples extrapolação linear a partir de tamanhos pequenos. Devido à não linearidade, o todo é diferente da soma das partes. Nos sistemas complexos aparecem as chamadas propriedades emergentes, que não podem ser inferidas pelo comportamento de suas partes constitutivas separadamente.

Há duas vertentes do estudo de sistemas complexos. Uma se refere a sistemas macroscópicos grandes o suficiente para que seus tempos característicos de decaimento ao equilíbrio sejam enormes. Em geral muito maiores do que os 22 mil anos do plutônio 239, até mesmo maiores do que a própria idade do universo, o que nos permite classificá-los como aqueles que jamais atingem o equilíbrio, como se o tempo de decaimento ao equilíbrio fosse realmente infinito. A rigor, o tempo de decaimento infinito só ocorreria se o tamanho do sistema também fosse infinito, assim como as singularidades dos fenômenos críticos de equilíbrio também só aparecem no chamado limite termodinâmico, como mostra a Figura 2. O que se estuda nesta vertente é o comportamento do sistema antes de atingir o equilíbrio, que é o que importa. Em muitos destes sistemas, há uma fase que apesar de transiente dura uma quase eternidade na qual o sistema permanece com muitas de suas variáveis macroscópicas inalteradas com o passar do tempo. Como se fosse, na prática, equilíbrio. Mas não é o mesmo equilíbrio final definido pela tradicional teoria estatística de Bolzmann/Gibbs que aprendemos nas disciplinas de Mecânica Estatística nas universidades. Esta primeira vertente é então o estudo das propriedades deste novo equilíbrio, que é o que interessa nestes sistemas complexos. Há inúmeros trabalhos nesta vertente, mesmo sem termos uma teoria geral para sistemas fora do equilíbrio. Na impossibilidade de citar todos, puxo a brasa para nossa sardinha nacional citando a formulação estatística de Constantino Tsallis, revista nesta edição especial.

A outra vertente se aplica aos casos de sistemas dinâmicos complexos em que o tempo de decaimento não é tão grande, o equilíbrio é de fato atingido se o sistema for finito como tudo na vida. Mas o período anterior transiente deixa suas marcas, o sistema mantém memória da trajetória histórica pela qual passou anteriormente. Nesta vertente estudam-se as propriedades do sistema já em equilíbrio, mas com foco na influência da história pregressa. Como o tempo característico para atingir o equilíbrio depende do tamanho do sistema, esses estudos são feitos pela estratégia de comparar diferentes tamanhos, o chamado escalonamento de tamanhos finitos. É o caso dos fenômenos críticos de equilíbrio tratado na Seção 2 exemplificado na Figura 2. São sistemas já

(8)

8 equilibrados, que não são simples (expoente de Lyapunov negativo) nem caóticos (positivo). Decaem lentamente ao equilíbrio segundo leis de potência no tempo, não rapidamente como nos decaimentos exponenciais. É nesta vertente que se encaixa o modelo de contaminação que vem a seguir.

4. Uma Versão Espacial do Modelo SIR

O estudo de sistemas dinâmicos complexos é primordialmente feito através de modelagem. Talvez seja um vício dos físicos que já estudavam fenômenos críticos de equilíbrio, onde a já citada universalidade permite que modelos simples, como o de Ising, compartilhem com sistemas reais complicados, como a água e o ferromagneto uniaxial, algumas poucas características macroscópicas comuns, como as dimensões D e d exemplificadas na Seção 2. Todos na mesma classe de universalidade, portanto com o mesmo conjunto de expoentes críticos característicos da classe. Pode-se então usar o modelo simples para determinar os expoentes críticos dos sistemas reais complicados da mesma classe. Vício ou não, a estratégia se baseia na crença de que o fenômeno da universalidade bem estabelecido na teoria dos fenômenos críticos de equilíbrio se estenda também para o comportamento dinâmico destes mesmos sistemas antes de entrarem em equilíbrio. Efetivamente, há inúmeras evidências neste sentido e até alguns casos particulares rigorosamente estabelecidos, embora não haja ainda uma teoria dinâmica completa dos sistemas fora do equilíbrio.

A modelagem dos sistemas complexos, então, é uma espécie de arte por parte do pesquisador que inventa um modelo extremamente simplificado com o intuito de descrever as propriedades macroscópicas de sistemas reais complicados. A arte reside em preservar apenas as características mínimas que enquadrem o modelo na mesma “classe de universalidade” dos sistemas reais complicados que se pretende estudar. As aspas se referem ao fato de que não há ainda teoria que garanta a classificação dos sistemas complexos em classes abrangentes, como se sabe ser o caso dos fenômenos críticos de equilíbrio. É uma crença. Que, no entanto, tem dado excelentes resultados em diversos casos, apesar da crítica sempre presente de pesquisadores de outras áreas que em geral desconfiam que modelos extremamente simplificados possam espelhar propriedades de sistemas reais muito mais complicados. É comum a acusação de reducionismo. Em geral, os resultados acabam por calar estas críticas.

(9)

9 Figura 3: Evolução temporal do número de infectados. A rede quadrada 𝐿 × 𝐿 tem tamanho linear L = 201, a população total é N = 20000, a probabilidade de infecção em cada encontro de agentes é i = 0,5 e o tempo de duração da infecção é T = 20. O detalhe no quadro menor mostra o resultado para os mesmos parâmetros, com população reduzida à metade, N′ = 10000.

Apesar de simplificados, salvo pouquíssimas exceções, os modelos inventados são de difícil tratamento analítico de equações, que têm que ser resolvidas numericamente no computador. Pior, estes são ainda os casos mais fáceis, na maioria das vezes sequer o modelo se presta a ser descrito por equações, e sim por regras dinâmicas que devem então ser programadas em computador. Neste caso, não se trata de solução numérica de equações, mas de simulações computacionais. É o que ficou conhecido como modelo de agentes, numa população de unidades virtuais cada agente segue as regras estabelecidas de acordo com o estado atual dos demais agentes e do ambiente externo. Modelar é estabelecer estas regras dinâmicas. Simular é rodar a manivela do computador para que estas regras sejam seguidas à medida que o tempo passa.

O tradicional modelo SIR (suscetíveis, infectados e recuperados) [4] assim como os inúmeros modelos dele derivados são formulados através de equações diferenciais para a evolução temporal das sub populações de indivíduos S, I ou R (e outras nos modelos derivados). O tempo e as frações destas sub populações relativas à população total são considerados variáveis contínuas. Há milhares de publicações científicas com base neste modelo pioneiro. Puxando novamente a brasa para a sardinha nacional, prefiro citar aqui apenas uma excelente análise didática recebida recentemente do colega e amigo Ronald

(10)

10 Dickman [5], sobre outro assunto. Também uma singela, mas excelente dissertação de mestrado brasileira, defendida por uma então estudante da UFRJ, há 7 anos [6].

O modelo SIR e seus derivados se aplicam à difusão de uma epidemia numa população. Por exemplo, a semente de infecção num único indivíduo contamina outros indivíduos, estes contaminam outros ainda, e assim por diante numa reação em cadeia. No entanto, um indivíduo infectado pode se recuperar e, no caso mais simples, passa a ser imune à infecção. Casos de mortes também são incluídos em algumas versões do modelo, mas não vamos considerar estes casos, por simplicidade. O resultado desta dinâmica é semelhante ao que se observa nas epidemias reais pelas quais a humanidade e outras espécies já passaram, como a peste negra da Idade Média, a gripe espanhola há um século e outras mais recentes. A evolução dinâmica da prevalência da doença pode ser medida pelo número de infectados como função do tempo. O que se obtém é uma curva em forma de sino, como na Figura 3, a ser discutida adiante. A prevalência começa baixa, depois aumenta, atinge um patamar máximo e depois decai novamente. É a curva que se pretende “achatar” na atual pandemia (escrevo em maio de 2020). O crescimento inicial desta curva é uma simples consequência da reação em cadeia, um indivíduo contamina outros, que contaminam outros ainda, numa progressão exponencial em forma de árvore. Mas nesta sequência, o número de indivíduos suscetíveis diminui e o de já recuperados aumenta gradativamente, e como estes são considerados imunes à reinfecção, o ritmo de crescimento da epidemia tende a diminuir. (Numa população humana real, os cuidados crescentes que a sociedade assumir também contribuem para esta diminuição, o que pode perfeitamente ser também incluído na modelagem.) Depois do patamar máximo a própria prevalência diminui, e finalmente a epidemia é extinta. À medida em que o número de recuperados/imunizados aumenta, os encontros provocados pela movimentação de um dado indivíduo infectado ocorrerão mais frequentemente com algum imunizado em vez de um suscetível, portanto sem gerar contaminação. A frequência com que um suscetível encontra um infectado também diminui. De forma inadequada, este efeito é chamado “imunidade de rebanho”. Com aspas, porque não há imunidade alguma, apenas uma diminuição da probabilidade de infecção dos suscetíveis. Imunidade de rebanho, sem aspas, ocorre quando há vacinação de uma fração suficiente da população. Em geral as vacinas são fabricadas com cepas atenuadas do vírus, que não causam maiores problemas de saúde no indivíduo vacinado, mas servem para ativar seu sistema imunológico contra o vírus verdadeiro quando a ele for exposto. O indivíduo vacinado é imune à doença. Mas este vírus atenuado também é um vírus, pode permanecer no organismo. Assim como no

(11)

11 caso do vírus que causa a doença, o indivíduo vacinado também pode “contaminar” outro indivíduo suscetível com este vírus atenuado, e, portanto, este também se torna imune à doença sem ter sido pessoalmente vacinado. Assim é a imunidade de rebanho, sem aspas. Há, no momento em que escrevo, uma enxurrada de artigos científicos em que a curva de prevalência da atual pandemia em diferentes regiões do planeta é ajustada por diferentes formas matemáticas, na tentativa de prever quando ocorrerá (se ainda não tiver sido atingido) o citado patamar máximo e também propor medidas eficientes para achatar a curva. Novamente puxando a brasa para a sardinha nacional, cito três dessas publicações [7, 8, 9]. Outra frente é a física envolvida nas gotículas contaminadas no ar ou em superfícies [10].

A razão para esta tentativa de achatamento da curva de prevalência é fazer o patamar máximo atingido ser o menor possível, porque representa indivíduos que precisarão de cuidados médicos intensivos que demandam infraestrutura hospitalar, equipamentos, médicos, enfermeiros e demais agentes de saúde que podem estar acima da capacidade instalada na região. A receita básica para a tentativa de achatar a curva, de preferência bem antes de atingir o patamar máximo, na ausência de vacina, é o isolamento social epidêmico, o “fique em casa”, que evidentemente diminui a taxa de novas infecções e tende a achatar a curva. Naturalmente também cria outros problemas sociais e econômicos que precisam ser levados em conta no planejamento governamental de enfrentamento da epidemia. No entanto, o isolamento social epidêmico é o único mecanismo efetivo para este enfrentamento, na ausência de vacina, secundado por medidas profiláticas tais como o uso de máscaras, álcool gel, lavagem frequente das mãos, etc. Obviamente, o isolamento não pode ser total, uma fração da população tem que continuar a exercer suas atividades essenciais, por exemplo o setor de produção e distribuição de alimentos. A fração da população isolada em casa, relativa à população total, é o índice de isolamento. Qual é o valor mínimo deste índice compatível com o objetivo de achatar a curva? Esta é a questão que trataremos neste texto, usando um modelo introduzido recentemente [11].

Antes, porém, vamos tratar da difusão da epidemia numa região geográfica uniforme em que todos os indivíduos se movimentam sem restrições. É um ingrediente adicional do modelo SIR, a geografia da região. Para tanto, vamos passar da versão de solução analítica ou numérica de equações diferenciais para a versão modelagem/simulação em que não há equações envolvidas, mas regras a serem seguidas na simulação em computador. Consideramos uma rede quadrada 𝐿 × 𝐿 como a região

(12)

12 onde a epidemia se propaga, um ou nenhum agente por sítio, sem superposições. (Nenhuma relação com o termo “em Rede” do título da dissertação citada [6] que se refere à árvore de contaminações de um indivíduo a outros, não ao posicionamento geográfico dos indivíduos.) Esta geometrização é a primeira diferença do atual modelo para o SIR original. A população total N de agentes (indivíduos virtuais) é um número menor do que a quantidade L2 de sítios disponíveis, de forma que sobram sítios vazios. A configuração inicial é sorteada, um sítio aleatório para cada agente. Um destes agentes, também sorteado aleatoriamente, é a semente de infecção, os demais são todos suscetíveis. Um passo de tempo corresponde a percorrer a lista de agentes, um de cada vez, e aplicar as regras a seguir. O agente se encontra em um dado sítio da rede, com quatro sítios vizinhos à sua esquerda, à direita, acima e abaixo. O agente tenta se movimentar para um destes sítios vizinhos também sorteado aleatoriamente. Há duas possibilidades: I) o sítio vizinho sorteado está vazio, neste caso o movimento é implementado e o sítio original fica vazio; II) Há outro agente a ocupar o sítio sorteado, neste caso o movimento não é implementado. Entretanto, no caso II considera-se que houve um encontro entre dois indivíduos e pode haver contaminação. Se o agente que tentou e não conseguiu se movimentar estiver infectado, e o outro agente que ocupa o sítio sorteado for suscetível, então este último se torna infectado com probabilidade i, um primeiro parâmetro do modelo. Um segundo parâmetro, fora da definição original do modelo SIR, é a duração T da infecção, o tempo que um agente infectado permanece neste estado antes de se tornar recuperado. Um terceiro parâmetro seria a probabilidade de um infectado morrer a cada passo de tempo, no entanto a implementação desta possibilidade com probabilidade suficientemente pequena se mostrou irrelevante nos resultados, e, portanto, este parâmetro não será tratado neste texto. Não há mortes de infectados, todos acabam por se tornar recuperados.4

Os parâmetros i e T estão relacionados com o fator multiplicativo Ro da infecção, geralmente adotado como indicador de sua intensidade em função do tempo. É o número médio de contaminações que um dado indivíduo infectado origina em seus encontros, antes de se recuperar. Enquanto este número médio for maior do que 1, a epidemia aumenta. Quando este mesmo número médio abaixa e se torna menor do que 1 a epidemia está a se extinguir.5

4 O leitor que estiver interessado em investir nesta possibilidade poderá me mandar um e-mail e eu respondo enviando o programa em C que deu origem à figura.

(13)

13 A Figura 3 mostra um caso típico da evolução do número de infectados I em função do tempo t. A característica curva de prevalência que sobe e desce é do mesmo tipo para diversos conjuntos de parâmetros diferentes deste mostrado na Figura 3, e também do mesmo tipo observado nas epidemias reais. Desde que a densidade espacial da população seja considerável, da ordem de 𝑁/𝐿2 = 50%. Para densidade populacional mais baixa, o número de infectados é apenas residual comparado com a população total, evolui erraticamente no tempo em vez da característica curva sobe/desce, ou seja, a epidemia é muito mais amena e acaba mais rápido. “Evite aglomerações”. É o caso do detalhe menor na Figura 3, assim como é o caso de epidemias reais quando se trata de cidades pequenas e regiões rurais, nas quais a difusão da epidemia não é tão grave quanto nas grandes cidades. Este é um primeiro resultado da atual versão do modelo SIR espacial, que o distingue do original onde a geografia e a densidade populacional estão ausentes.

5. Claustros

Eu não sou historiador, mas posso inferir que durante a peste negra da Idade Média na Europa houve confinamento de religiosos, nobres e senhores feudais em seus claustros. Essas classes privilegiadas tinham seus aposentos privados dentro de claustros. Imagine o leitor uma cidade ou uma vila com um grande quadrado central onde os muito mais numerosos membros das classes populares não tinham acesso. Assim eram os claustros, que ainda hoje sobrevivem em alguns conventos religiosos. O “povão” ficava amontoado do lado de fora. Com a epidemia da peste negra, os membros das classes privilegiadas se isolavam nestes claustros para evitar a contaminação. Não muito diferente do que ocorre agora no século XXI.

(14)

14 Para simular esta situação, vamos considerar o quadrado 𝐿 × 𝐿 da Seção 4 anterior com um sub quadrado menor ℓ × ℓ em seu interior, o claustro, como na Figura 4. A divisão é feita em áreas iguais, para se escrutinar o maior número possível de configurações no posicionamento dos indivíduos nas duas regiões, claustro e fora. A população total N é distribuída segundo o índice de isolamento ou confinamento C que se pretende testar, isto é, a razão entre o número de habitantes do claustro e a população total. Com C = 0 todos os agentes se encontram fora do claustro, C = 1 corresponde a todos dentro. Para varrer todo o intervalo entre estes dois extremos, a população total fixa é limitada ao número de sítios da rede dentro do claustro, ou fora, ou ainda metade do número total de sítios na rede toda. Quem está dentro do claustro não sai, quem está fora não entra. A regra dinâmica é a mesma da Seção 4, cada agente tenta se mover para um sítio vizinho aleatoriamente escolhido, etc. Estes movimentos ocorrem para as duas partes da população, os de dentro e os de fora do claustro, com a restrição de uns não passarem para o espaço dos outros. Mas pode haver contaminação quando um indivíduo infectado que esteja num sítio próximo à fronteira entre estes espaços sortear um sítio vizinho do outro lado da fronteira. O movimento não ocorrerá, mesmo que o sítio vizinho sorteado esteja vazio. Mas se estiver ocupado poderá haver contaminação com uma probabilidade reduzida por um fator b, isto é, com probabilidade b.i onde i continua sendo a probabilidade de contaminação num encontro que não envolva a fronteira do claustro. O novo parâmetro fixo b, entre 0 e 1, é o fator de blindagem do claustro.

Nesta seção vamos considerar a semente inicial de infecção num agente fora do claustro. A pergunta a ser respondida é: qual é a probabilidade P de que a infecção atinja o interior do claustro, a probabilidade de invasão? Para medir esta probabilidade, roda-se a manivela do computador uma vez até quando houver esta invasão, ou a epidemia acabe sem que o claustro seja invadido. Repetindo várias vezes com sementes aleatórias diferentes, com os mesmos parâmetros, contam-se quantas vezes houve invasão e divide-se este número pelo número total de repetições, assim determinando P. Para cada conjunto de parâmetros, usamos um total de 10000 repetições. Estas são divididas em 100 conjuntos de 100 repetições para determinar as barras de erro, que se mostraram suficientemente pequenas (menores do que os símbolos mostrados nas figuras a seguir.

A Figura 5 mostra os resultados para diferentes valores da população total. Os parâmetros adotados nestes casos são i = 0,5 (probabilidade de infecção em cada encontro), T = 20 (tempo de duração da infecção em cada agente) e b = 0,1 (fator de

(15)

15 redução de infecção na fronteira do claustro). Para outros valores o resultado é equivalente. Passemos a comentar este resultado nos quatro parágrafos seguintes.

Figura 5: Probabilidade de invasão do claustro, a partir de infecção externa, em função do índice de confinamento. O tamanho linear da rede é L = 201, com ℓ = 142, em todos os casos. Da esquerda para a direita a população total correspondente a cada curva é N = 8000, 10000, 12000, 14000, 16000, 18000 e 19881. Esta última é a maior população possível para este tamanho de rede, compatível com o intervalo da variável C entre 0 e 1, e corresponde ao pior dos casos com maior densidade populacional possível 𝑁/𝐿2 = 50%.

Primeiro, nota-se que a probabilidade de invasão P se anula nos dois extremos, C = 0 e C = 1. No primeiro caso a explicação é trivial porque a população isolada é nula, e sem ninguém dentro no claustro não há como a infecção penetrar. Observa-se, no entanto, que nas proximidades de C = 0 a probabilidade de invasão cresce rapidamente e atinge 100% à medida em que se aumenta a população total. Fora esta característica, o lado esquerdo das curvas não apresenta interesse algum. No outro extremo à direita da figura, aí sim, nota-se um efeito interessante. A probabilidade de invasão se anula antes do confinamento total da população C = 1, inatingível na realidade porque setores essenciais da população não podem permanecer confinados. Significa que, mesmo com densidade populacional alta, a estratégia do isolamento epidêmico funciona. Ou seja, se o grau de isolamento for alto o suficiente ainda assim deixando uma parte da população não confinada, consegue-se proteger da infecção os indivíduos confinados. No caso da Figura

(16)

16 5, considerando o pior dos casos na curva à direita, um índice de isolamento da ordem de 70% é suficiente para proteger a população confinada.

Segundo, se a densidade populacional é baixa, como na curva à esquerda, a evolução da epidemia é amena, como já havíamos visto no detalhe menor da Figura 3. Neste caso, mesmo com fraco índice de isolamento epidêmico a probabilidade de invasão no claustro não chega a atingir os 100%. No entanto, com fraco isolamento epidêmico a invasão do claustro se torna certa para maiores densidades populacionais, como nas quatro últimas curvas à direita. Nesses casos a adoção de isolamento epidêmico com índice suficientemente alto se torna imprescindível.

Terceiro, o índice de isolamento necessário, C ≈ 70% no pior dos casos da Figura 5, depende da probabilidade de infecção em cada encontro, neste caso i = 0,5, ou seja, a infecção é transmitida na metade dos encontros de um infectado que tentou se mover para o sítio ocupado por um suscetível. Mesmo exagerando esta probabilidade para i = 1 em que todos os encontros geram contaminação (não mostrado), este índice aumenta para C ≈ 80%, deixando ainda margem para que parte da população possa permanecer não confinada, com os confinados protegidos. Se diminuirmos a probabilidade de infecção i em cada encontro, o índice de confinamento mínimo compatível com a proteção dos confinados também abaixa (não mostrado) [12]. Pequenas variações do parâmetro T têm efeito similar.

Quarto, o índice de isolamento mínimo para que a população confinada esteja protegida depende muito pouco do fator de blindagem b, desde que seja pequeno como no caso b = 0,1 da Figura 5. Um pouco mais um pouco menos não muda grandes coisas (não mostrado).

Vamos nos concentrar de agora em diante no pior dos casos de alta densidade populacional 𝑁/𝐿2 = 50%, curva à direita na Figura 5. Como se modifica esta curva quando se varia o tamanho L do sistema? Será que ocorre o mesmo que se observa para as transições de fase de equilíbrio? Como no modelo de Ising da Figura 2? Estaremos diante de uma transição de fase dinâmica com as mesmas características das transições de fase de equilíbrio?

A Figura 6 mostra o resultado para diferentes tamanhos do sistema, mantidos todos os demais parâmetros, i = 0,5, T = 20 e b = 0,1. A semelhança com a Figura 2 não é mera coincidência, trata-se de uma transição de fase no limite termodinâmico 𝐿 → ∞. Há um índice de confinamento crítico 𝐶𝑐 ≈ 70% acima do qual o claustro não é invadido pela infecção (a probabilidade de invasão é nula no limite termodinâmico), abaixo do qual

(17)

17 a probabilidade de invasão se aproxima rapidamente de 1. Da comparação com a Figura 2, falta apenas a solução exata no limite termodinâmico, que deixamos como exercício para o leitor (que provavelmente ganhará algum prêmio internacional importante se conseguir). O resultado será uma relação do tipo 𝑃 ∝ (𝐶𝑐 − 𝐶)𝛽 para índices de isolamento menores do que o crítico, e P = 0 a partir deste ponto. A singularidade no ponto crítico aparecerá como nas Figura 1 ou Figura 2. Mesmo na ausência desta solução exata, no entanto, há métodos para determinar o índice crítico Cc com boa precisão assim como o expoente crítico β. Não vamos nos meter nessa seara, porque nosso objetivo aqui é meramente qualitativo. A conclusão importante é que há sim uma transição dinâmica crítica para a probabilidade de invasão do claustro, nula acima de um certo índice mínimo de isolamento da população. E que este índice crítico se situa abaixo do isolamento total,

Cc < 1. Portanto, a estratégia do isolamento epidêmico funciona, é possível confinar apenas parte da população, deixando a outra parte não confinada, e ainda assim controlar a epidemia.

Figura 6: Mesma curva à direita da Figura 5 com L = 201 e ℓ = 142, a ser comparada com outras duas, uma com rede de tamanho linear três vezes menor com L = 67 e ℓ = 48, e outra três vezes maior com L = 603 e ℓ = 424. As populações se escalam com um fator nove (quadrado de três), N = 2209, N = 19881 e N = 178929. O leitor esperto saberá facilmente reconhecer qual é o caso de cada uma das 3 curvas.

Uma observação jocosa e deprimente é a estupidez de algumas autoridades governamentais. As curvas da Figura 6 são muito próximas de um degrau, queda quase brusca de 1 a 0 no ponto crítico. Por ser a versão de tamanho finito de um sistema crítico,

(18)

18 não há exatamente uma parede vertical quando se diminui o índice de isolamento C, vindo da direita para a esquerda na Figura 6, mas de qualquer maneira há uma subida brusca na probabilidade P de invasão. É de se esperar que o cenário não seja muito diferente numa epidemia real. A referida estupidez é daqueles cujo raciocínio linear é primário, então acham que se pode tolerar um índice de isolamento um pouco menor do que o recomendado pelas medições dos cientistas, acreditando que a piora provocada no quadro da propagação da epidemia também será pequena. É preciso que sejam informados de que existem transições de fase, e que é justamente esse o caso do índice mínimo de isolamento epidêmico necessário para proteger a população. (Recomendação ao leitor: releia a legenda da Figura 1.)

6. Isolar a Infecção

Nesta seção vamos continuar com o paradigma do claustro medieval. Desta vez, a semente de infecção é colocada num agente dentro do claustro, e o que se quer investigar é a probabilidade de escape para fora. Quão efetiva é a estratégia de isolar uma região onde há infecção para que esta não se espalhe para fora dali? Não se trata do claustro medieval propriamente dito, este é apenas um paradigma. Num caso atual, a região de Hubei na China, onde está situada a cidade de Wuhan, considerada como foco inicial da pandemia, foi isolada pelas autoridades chinesas com o intuito de controlar a epidemia. Aeroportos, estradas e linhas férreas foram fechados, ninguém saía de lá. Tardiamente, segundo os relatos, porque já havia poucos casos de infecção fora dali. O governo regional é acusado de ter escamoteado a epidemia até aquele isolamento, e o governo central chinês é elogiado pela aplicação posterior do isolamento radical da região e do fechamento de locais menores onde a epidemia se alastrou no interior da própria região. A se acreditar nos números divulgados pelas autoridades chinesas, muito menos impactantes do que em outras regiões do planeta, essa estratégia de isolamento de toda uma região e de sub regiões específicas em seu interior parece ter funcionado.

Voltemos à Figura 4. Com uma semente posicionada aleatoriamente dentro do claustro, roda-se a manivela do computador até que a infecção escape do claustro e atinja a periferia da rede 𝐿 × 𝐿, ou até que a epidemia termine sem que esta periferia seja atingida. Repete-se o processo várias vezes com os mesmos parâmetros, mas com outras sementes, e conta-se o número de vezes em que a periferia foi atingida. Divide-se esta contagem pelo número de repetições para determinar a probabilidade P. A Figura 7,

(19)

19 semelhante à Figura 6 corresponde aos mesmos parâmetros, tamanhos de rede e populações totais. Dessa vez nota-se que aparecem duas transições.

Figura 7: Probabilidade de a infecção originada dentro do claustro escapar e atingir a periferia 𝐿 × 𝐿 da rede.

À esquerda na Figura 7, para baixos índices de isolamento C (poucos agentes dentro do claustro, muitos fora) a probabilidade P é nula porque a infecção sequer consegue escapar do claustro e, portanto, não atinge a periferia da rede. Quando se aumenta o índice de isolamento C a probabilidade P cresce de repente em torno de 𝐶𝑐 ≈ 30% num processo semelhante ao da Figura 6, agora espelhado da direita para a esquerda. É também uma transição crítica. No limite termodinâmico 𝐿 → ∞ a probabilidade P é nula antes de Cc. Observa-se que as curvas para tamanhos finitos crescentes da rede se aproximam cada vez mais de P = 0 antes deste ponto crítico. A solução exata do modelo nos daria P = 0 antes do ponto crítico e uma relação 𝑃 ∝ (𝐶 − 𝐶𝑐)𝛽 depois.

À direita na mesma Figura 7 observa-se outra transição de fase. Depois de atingir o valor máximo possível P = 1 quando a infecção certamente atinge a periferia da rede esta probabilidade P cai novamente depois de um outro ponto de transição 𝐶𝑡 ≈ 70%. Mas note o leitor que a situação é qualitativamente diferente da queda apresentada na Figura 6. Para redes cada vez maiores, a queda é brusca, de P = 1 diretamente para P = 0 quando se ultrapassa o ponto de transição. Desta vez não se pode concluir que há uma transição crítica em que apesar da singularidade (o bico das Figura 1 ou Figura 2) a curva é contínua. No caso presente a transição aparenta ser o que os físicos chamam de transição de primeira ordem, descontínua, quando o parâmetro de ordem apresenta um pulo finito, não apenas a singularidade do bico. Há maneiras de se definir esta questão, mas

(20)

20 novamente não vamos nos meter nesta seara. Não há expoentes críticos numa transição descontínua de primeira ordem, assim como não há universalidades. Por conta desta característica, as transições contínuas como as anteriores, ditas de segunda ordem ou críticas, são muito mais interessantes e muito mais estudadas pelos físicos. De qualquer maneira, temos uma transição de fase com queda brusca de P = 1 para P = 0 num ponto de transição Ct.

Do ponto de vista epidemiológico, podemos concluir que há um índice de isolamento mínimo Ct < 1 (portanto abaixo do isolamento total) para que a infecção não atinja a periferia da rede. Mesmo tendo escapado do claustro, a infecção se extinguirá antes de atingir a periferia da rede se o índice de isolamento for maior que Ct.

7. Isolamento nas Cidades

A Figura 8 é o esquema de uma cidade com suas residências onde a parcela confinada da população mora, representadas pelos pequenos quadrados. Entremeadas às residências estão as ruas onde a outra parcela da população presta serviços essenciais, como a entrega de alimentos e medicamentos em domicílio. É o “fique em casa”.

Figura 8 – Cidade moderna com suas residências e as ruas entre elas.

A Figura 8 também serve como ilustração de uma rede de Bravais, se os quadrados forem repetidos indefinidamente para o lado esquerdo, o lado direito, para cima e para baixo. Redes de Bravais são conceitos matemáticos adotados no estudo de redes cristalinas. Uma rede de Bravais é infinita, mas tem sua célula primitiva finita que é a porção que se for repetida indefinidamente para todos os quatro lados (em duas dimensões) gera a rede de Bravais completa. No caso da Figura 8, a célula primitiva é a rede quadrada 𝐿 × 𝐿 da Figura 4. Para simular o “fique em casa” numa cidade, teríamos que aumentar muito o tamanho computacional do problema. Mesmo para uma cidade

(21)

21 pequena com apenas 16 residências como na Figura 8, comparada com as simulações das seções anteriores teríamos um problema computacional 16 vezes maior e 16 vezes mais lento (cada ponto dos gráficos da Figura 6 ou Figura 7 é obtido depois de aproximadamente uma hora e meia de processamento para a maior rede simulada). Assim sendo, vamos continuar nossas simulações com redes quadradas 𝐿 × 𝐿 de tamanhos lineares L = 67, 201 e 603 como nas duas seções anteriores, adotando o truque sujo a seguir. (Pesquisadores também cometem suas falcatruas).

A questão que se pretende investigar é a seguinte. A semente inicial de infecção se situa numa das residências da cidade (o claustro de uma dada célula primitiva da rede de Bravais, como na Figura 4). Qual a probabilidade de a infecção escapar desta residência específica e penetrar em outra residência vizinha? Inicia-se o processamento igual ao que já foi feito na Seção 6, com uma única célula primitiva como na Figura 4. Caso a infecção atinja a periferia desta célula, como na Seção 6, para-se o processamento. Agora, não. Assim que a infecção atinge a periferia desta célula, considera-se que a infecção passou para a célula vizinha onde não havia ainda nenhum agente infectado. Deste ponto em diante, a simulação passa a ser processada apenas nesta célula vizinha, com semente de infecção no ponto da periferia em que foi atingida. Como as células são todas iguais, usa-se de novo a mesma usada até então, com os agentes nas mesmas posições, agora com todos considerados suscetíveis, menos a semente que se encontra na periferia, vindo da célula original. O processamento continua a partir desta configuração, até a infecção invadir o novo claustro ou se extinguir antes disto. Repete-se o processamento diversas vezes com sementes distintas e conta-se quantas vezes houve esta invasão. Dividindo esta contagem pelo número de repetições determina-se a probabilidade de a infecção passar de uma residência para outra vizinha (e daí inexoravelmente para outras). É um truque sujo, como confessei desde o início, porque, entre outras caraterísticas, desconsidera-se a possibilidade do primeiro infectado que atravessar a periferia da rede quadrada 𝐿 × 𝐿 não causar infecção na nova residência, mas o segundo infectado a atravessar a periferia, sim. Ou o terceiro, etc. Mais a respeito deste detalhe adiante.

O resultado é o que mostra a Figura 9, semelhante às Figs. 6 e 7. A primeira transição à esquerda na Figura 9 é a mesma que a da Figura 7 e se refere à probabilidade de a infecção escapar do claustro independente de atingir ou não a periferia da rede, ou ainda independente de invadir ou não o claustro da célula vizinha, como se mostrará mais tarde. Se refere ao simples escape da infecção para fora do primeiro claustro. Quando este

(22)

22 evento não acontece, como é o caso de pequenos índices de isolamento, naturalmente a infecção também não atinge a periferia da rede 𝐿 × 𝐿, muito menos invade o claustro da célula vizinha. Mas a segunda transição à direita na Figura 9, diferente da Figura 7, é novamente contínua, de segunda ordem como na Figura 6 que, no entanto, não apresenta duas transições. Esta segunda transição no isolamento crítico 𝐶𝑐 ≈ 70% também parece ser a mesma que na Figura 6. Será? Candidatos a testar esta hipótese podem me mandar um e-mail, e eu respondo enviando o programa das simulações que geraram estes gráficos.

Figura 9 - Probabilidade de transmissão de uma residência para outra, numa cidade

moderna. Ou de um município para outro, etc.

Finalmente a Figura 10 compara a transmissão da infecção residência a residência (Figura 9) com a probabilidade de atingir a periferia da rede 𝐿 × 𝐿, vinda do claustro (Figura 7). No primeiro caso, houve um truque sujo no processamento, ao se levar em conta apenas o primeiro agente infectado a atingir a periferia da rede 𝐿 × 𝐿. Ao desprezar a contribuição dos demais agentes infectados, a transmissão da infecção entre residências é sub notificada. Por outro lado, a probabilidade desta transmissão não pode ultrapassar a de atingir a periferia. Portanto, há uma transição verdadeira entre as duas, e certamente o índice mínimo de isolamento desta transição é menor do que o isolamento total. Pode-se concluir que o isolamento epidêmico de apenas uma fração da população total funciona se for adotado em um grau rigoroso o suficiente. Uma fração alta o suficiente de agentes confinados, mas não todos. No lado esquerdo da Figura 10 a coincidência das curvas

(23)

23 mostra que a transição da Figura 7 é realmente a mesma da Figura 9, ou seja, se refere apenas ao escape da infecção de um claustro.

Figura 10 - Comparação das probabilidades de transmissão da infecção de uma residência para outra numa cidade moderna (ou entre municípios ou ainda regiões, curva interna), com a probabilidade de que a infecção atinja a periferia da rede 𝐿 × 𝐿 (curva externa). O tamanho linear é L = 603 nos dois casos. A curva interna é na verdade um limite inferior para a transição residência a residência, enquanto a curva exterior é um limite superior. Portanto, a transição verdadeira deve se posicionar entre as duas. Será uma transição descontínua (de primeira ordem) ou contínua (de segunda ordem)?

8. Conclusões

Foram apresentadas diversas versões do mesmo modelo básico que é uma combinação do tradicional modelo epidêmico SIR com posicionamento geográfico dos indivíduos, suas movimentações e encontros contagiosos. Pode-se então estudar os efeitos de diversos graus de confinamento epidêmico de parte da população. Observam-se várias transições de fase, escrutinadas com tamanhos variáveis da rede simulada. A estratégia do confinamento de parte da população sempre funciona no sentido de proteger os indivíduos confinados, desde que o índice de isolamento (fração confinada da população total) seja suficientemente alto, ainda assim menor do que o confinamento total, dando margem para deixar fora do confinamento indivíduos que prestam serviços essenciais.

(24)

24 O objetivo não é prover previsões quantitativas para epidemias reais, mas apenas exibir transições de fase dinâmicas para um público primordialmente de estudantes de pós graduação em Física ou mesmo de graduação.

Agradeço a Suzana Moss, Daniel Stariolo e Silvio Ferreira que leram o texto e me repassaram sugestões.

REFERÊNCIAS

[1] D. Stauffer, S.M. Oliveira, P.M.C. Oliveira e J.S. Sá Martins, Biology, Sociology,

Geology by Computational Physicists (Elsevier, Amsterdam, 2006).

[2] P.M.C. Oliveira, Computing Boolean Statistical Models (World Scientific, Singapura, 1991).

[3] P.W. Anderson, Science 177, 393 (1972).

[4] W.O. Kermack e A.G. MacKendrick, Series A 115, 700 (1927).

[5] R. Dickman, medRxiv preprint.https://doi.org/10.1101/2020.08.06.20169557.

[6] A.G. Troyo, Modelo SIR em Rede e com Parâmetro de Infecção que Depende

Periodicamente do Tempo. Dissertação de Mestrado, Universidade Federal do Rio de

Janeiro, Rio de Janeiro, (2013).

[7] G.S. Costa, W. Cota e S.C. Ferreira, medRxiv preprint, https://doi.org/101101/2020.05.06.20093492.

[8] N. Crokidakis, Chaos, Solitons & Fractals 136, 109930 (2020). [9] C. Tsallis e U. Tirnakli, Frontiers in Physics 8, 217 (2020). [10] D. Stariolo, https://arxiv.org/abs/2004.05699.

[11] P.M.C Oliveira, Physica A 561, 125287 (2020).

Referências

Documentos relacionados

Este trabalho buscou, através de pesquisa de campo, estudar o efeito de diferentes alternativas de adubações de cobertura, quanto ao tipo de adubo e época de

Realizar a manipulação, o armazenamento e o processamento dessa massa enorme de dados utilizando os bancos de dados relacionais se mostrou ineficiente, pois o

Neste tipo de situações, os valores da propriedade cuisine da classe Restaurant deixam de ser apenas “valores” sem semântica a apresentar (possivelmente) numa caixa

Apesar de todos os aspetos positivos acima enumerados, os sistemas adesivos também possuem desvantagens. Para que a adesão entre substratos ocorra de forma eficiente, é

A acção do assistente social não se fundamenta em intuições ou suposições sobre a leitura e diagnóstico do problema em análise /estudo, suporta-se no método que orienta

O caso de gestão estudado discutiu as dificuldades de implementação do Projeto Ensino Médio com Mediação Tecnológica (EMMT) nas escolas jurisdicionadas à Coordenadoria

To demonstrate that SeLFIES can cater to even the lowest income and least financially trained individuals in Brazil, consider the following SeLFIES design as first articulated

O presente inquérito por questionário enquadra-se num projecto de Dissertação de mestrado em Política Social e destina-se a recolher a informação necessária á