6. Métodos Quantitativos em Neuroeconomia
6.3 Modelos em Neuroeconomia
6.3.2 Um Modelo para o Sistema Dopaminérgico
Em Neuroeconomia, devido ao complexo sistema que envolve o funcionamento do cérebro conducente à tomada de decisões, os modelos que são baseados em axiomas têm-se apresentado como uma boa opção para o desenvolvimento de pesquisas nesta área. Entretanto ainda é cedo para saber sobre as possibilidades reais deste tipo de metodologia.
Veja-se a propósito desta problemática, um exemplo muito interessante sobre o método axiomático aplicado num estudo sobre o sistema dopaminérgico que permite proceder a uma análise das várias situações resultantes de pesquisa neste campo. Alguns estudos em Neuroeconomia permitem relacionar a liberação de dopamina aquando da existência de estímulos externos, isto é, o facto de que, ao esperar a recompensa proporcionada por um estímulo, também é liberada dopamina no organismo. Para Caplin e Dean (2007, p. 17) essa abordagem, ao fornecer evidências convincentes de que a dopamina é digna de um estudo mais aprofundado, não é, no entanto, a melhor maneira de testar a hipótese dopaminérgica.
Para o comprovar, os autores aplicaram o que chamam de “modelos axiomáticos em Neuroeconomia”. Para descrever o modelo de RPE (Reward Prediction Error) e sua base axiomática, definem alguns termos-base como:
Prémio: Uma das recompensas que o tomador de decisões pode receber quando a incerteza é resolvida.
Loteria: A distribuição de probabilidade dos prémios.
Espaço de Resultados: O conjunto de prémios que se pode, potencialmente, receber a partir de um sorteio e respectivas probabilidades.
Chama-se Loteria Degenerada à loteria com uma probabilidade de 100% de ganhar um único prémio.
Caplin e Dean (2007) desenvolvem a hipótese de DRPE (Dopamine Reward Prediction Error) para uma situação para a qual as probabilidades são objectivas e as respostas dopaminérgicas resultam de realizações de loterias sobre os prémios finais.
Para modelar uma situação como a que pretendemos analisar, os autores consideram um cenário em que um determinado agente é dotado ou escolhe uma loteria específica para a qual há um prémio em jogo. O ato inicial de escolha entre loterias é observado assim como a resposta dopaminérgica quando o prémio sai. A definição 1 estabelece os vários conjuntos de prémio e loteria estudados no modelo assim como a medida idealizada da taxa de resposta de dopamina.
Temos então:
Definição 1
O conjunto de prémios é um espaço métrico compacto8,9 Z com elemento genérico z ∈ Z. O conjunto de todas as loterias simples (loterias com espaço de resultados finito) mais Z é denotada Λ, com elemento genérico 𝑝 ∈ Λ. Definimos 𝑒𝑧 ∈ Λ como a loteria degenerada que
atribui probabilidade 1 para um prêmio 𝑧 ∈ 𝑍 e o conjunto Λ(𝑧) o conjunto de todas as loterias com prémio 𝑧 no seu espaço de resultados,
8
Chama-se espaço métrico a um espaço matemático em que está definida uma distância d com as seguintes propriedades:
o d(z,z)=0 o d(z,w)=d(w,z)
o d(z,w)≤d(z,x) + d(x,w) (desigualdade triangular), quaisquer que sejam x,w,z pertencentes ao espaço.
9
Um espaço matemático diz-se compacto se qualquer sucessão infinita de pontos do espaço pode eventualmente tornar-se arbitrariamente próxima de algum elemento do espaço.
Λ(𝑧)={𝑝 ∈ Λ|𝑝𝑧> 0} (38). ∎
A função 𝛿(𝑧, 𝑝) definida em 𝑀 = {(𝑧, 𝑝)|𝑧 ∈ 𝑍, 𝑝 ∈Λ(𝑧)} identifica a função do órgão relativamente à liberação de dopamina, 𝛿: 𝑀 → ℝ. A função 𝛿 corresponde à função de resposta de dopamina10 idealizada (DRF).
A hipótese de erro de previsão de recompensa dopaminérgica (DRPE) depende da existência de uma função para definir a recompensa “esperada” e a “experimentada” associadas ao recebimento de cada possível prémio de qualquer loteria dada. Supondo, como é óbvio, que a recompensa esperada de uma loteria degenerada é igual à recompensa experimentada desse prémio, o que se procura é uma função de recompensa dopaminérgica 𝑟:Λ → ℝ, que define tanto a recompensa esperada associada a cada loteria como a recompensa experimentada associada a cada prémio. Um pressuposto básico é que esta função de recompensa contém toda a informação que determina a liberação de dopamina.
Definição 2
Uma função 𝑟:Λ → ℝ representa integralmente uma função DRF 𝛿: 𝑀 → ℝ se existe uma função Ε: 𝑟(𝑍) × 𝑟(Λ) → ℝ, tal que, dado (𝑧, 𝑝) ∈ Μ, 𝛿(𝑧, 𝑝) = Ε (𝑟(𝑒𝑧), 𝑟(𝑝)), em que
𝑟(𝑍) representa todos os valores 𝑟(𝑒𝑧) ao longo das loterias degeneradas, e 𝑟(Λ)
identifica o intervalo que percorre todas as loterias. Neste caso, diz-se que𝑟 e Ε representam o DRF. ∎
A função de “loteria degenerada” é11
,
𝑟(𝑍) = {𝑟(𝑝) ∈ ℝ|𝑝 = 𝑒𝑧, 𝑧 ∈ 𝑍) (39). Mais detalhadamente,
Definição 3
A função de liberação de dopamina 𝛿: 𝑀 → ℝ, admite um erro de previsão de recompensa dopaminérgica (DRPE) se existe uma função de recompensa 𝑟: Λ→ ℝ e uma função 𝐸: 𝑟(𝑍) × 𝑟(Λ) → ℝ que
Representem a DRF:
(𝑧, 𝑝) ∈ 𝑀 ⟹ 𝛿(𝑧, 𝑝) = 𝐸(𝑟(𝑒𝑧), 𝑟(𝑝)) (40).
Respeitem o domínio dopaminérgico:
10 DRF - dopamine response function.
𝐸 é estritamente crescente em seu primeiro argumento e estritamente decrescente em seu segundo argumento.
Satisfizerem a propriedade da constância da surpresa:
𝑥, 𝑦 ∈ 𝑟(𝑍) ⇒ 𝐸(𝑥, 𝑥) = 𝐸(𝑦, 𝑦) (41). ∎
Há 3 axiomas que, numa abordagem de bom senso, são necessários para que 𝛿: 𝑀 → ℝ admita um DRPE:
O primeiro assegura a coerência entre as respostas dopaminérgicas e os prêmios: se um prémio é uma surpresa mais positiva do que outro, quando recebido de alguma loteria, então isso acontece para qualquer outra loteria,
O segundo é uma condição análoga no que diz respeito às loterias: se um resultado 𝑧 conduz a uma maior liberação de dopamina quanto obtido de uma dada loteria do que de alguma outra loteria, o mesmo deve ser verdadeiro para qualquer outro resultado que esteja no espaço de resultados de ambas as loterias,
O terceiro caracteriza a função de dopamina como tendo valor equivalente ao longo da bissectriz dos quadrantes ímpares,
que são:
Axioma 1 (A1: Coerência de Dominância de Prémio)
(𝑧, 𝑝), (𝑧,, 𝑝,), (𝑧,, 𝑝), (𝑧, 𝑝,) ∈ 𝑀 ⇒
(𝛿(𝑧, 𝑝) > 𝛿(𝑧,, 𝑝) ⇒ 𝛿(𝑧, 𝑝,) > 𝛿(𝑧,, 𝑝,)) (42). ∎
Axioma 2 (A2: Coerência de Dominância de Loteria)
(𝑧, 𝑝), (𝑧,, 𝑝,), (𝑧,, 𝑝), (𝑧, 𝑝,) ∈ 𝑀 ⇒ (𝛿(𝑧, 𝑝) > 𝛿(𝑧, 𝑝,) ⇒ 𝛿(𝑧,, 𝑝) >
𝛿(𝑧,, 𝑝,)) (43). ∎
Axioma 3 (A3: Equivalência da Não Surpresa)
𝑧, 𝑧,∈ 𝑍 ⇒ 𝛿(𝑧,, 𝑒
𝑧,) = 𝛿(𝑧, 𝑒𝑧) (44). ∎
Embora necessários, os 3 axiomas referidos não são suficientes para uma representação da DRPE, devido ao facto de o domínio da função dopamina diferir ao longo do espaço dos prémios. Estas diferenças de domínio permitem que A1, A2 e A3 sejam consistentes com os
ciclos de aparente dominância dopaminérgica, e com outras condições inconsistentes com o DRPE (ver Caplin e Dean, 2007).Nesse artigo, os autores referem que as seguintes condições de continuidade são suficientes para estabelecer a viabilidade da representação:
A função 𝛿: 𝑀 → ℝ é uniformemente contínua na topologia adequada. ∎
Axioma 5 (A5: Separação)
𝛿(𝑧, 𝑝) ≠ 𝛿(𝑧,, 𝑝) ⇒ inf
{𝑝,∈Λ; (𝑧,𝑝,),(𝑧,,𝑝,)∈𝑀}|𝛿(𝑧, 𝑝,) − 𝛿(𝑧,, 𝑝,)| > 0 (45). ∎
Teorema
Se se verificam A4 eA5, a DRF 𝛿: 𝑀 → ℝ admite uma representação DRPE se e só se satisfaz
A1, A2 e A3. ∎