• Nenhum resultado encontrado

A palavra “entropia” tem origem grega, a primeira parte advém de energia e a segunda parte “tropos” que significa evolução. A entropia é um conceito oriundo da física, introduzido por Clausius em 1865 como caracterização da Segunda Lei da Termodinâmica: “a energia do universo é constante e a sua entropia está a aumentar continuamente”. Clausius demonstrou que a alteração da entropia de um sistema é obtida através da injecção de pequenas quantidades de calor nesse mesmo sistema, dividido pela temperatura absoluta durante a absorção de calor [in Petz (2001)]:

Entropia = energia potencial

temperatura absoluta. (2.1)

Segundo a Primeira Lei da Termodinâmica, não há destruição da energia global, há sim, de acordo com a Segunda Lei, uma diminuição do nível da sua qualidade, logo uma diminuição daquela que é disponível ou utilizável. Segundo Peixoto (1984), há uma dissipação e degradação de energia o que é equivalente a um aumento de entropia.

Apesar do conceito de entropia ter sido introduzido por Clausius, a verdade é que na altura o argumento heurístico como suporte da Segunda Lei da Termodinâmica foi considerado incompleto. Mais tarde, Boltzmann clarificou o conceito de entropia, através de um programa científico para analisar a conexão entre calor e probabilidade [Petz (2001)].

O primeiro livro compreensível sobre formalismo matemático e quântico foi publicado em 1932 por Johann von Neumann, cujo título é: “Mathemetische Grundlagen der Quantenmechanik ”. Johann von Neumann associou a entropia com um operador estatístico no sentido de analisar determinadas propriedades da termodinâmica e desenvolveu matematicamente o conceito, chegando a uma solução que actualmente é chamada de estado de Gibbs [Petz (2001)].

1São de realçar vários trabalhos realizados à luz da física e cujo objecto de estudo são os mercados financeiros.

Para uma informação mais detalhada ver por exemplo Philippatos e Wilson (1972), Dacorogna (1999), James (1999), Farmer (1999), Fernholz (1999) e Stanley et al. (2001).

Após von Neumann, Shannon iniciou a análise e interpretação da quantidade −Ppilog pi,

sendo pi a probabilidade de ocorrência do evento i, como uma “medida de incerteza” ou “medida

de informação”. Shannon criou a teoria da informação em 1948, e colocou o seguinte problema [in Petz (2001, p. 6)]:

“Suppose we have a set of possible events whose probabilities of occurence are p1, ..., pn. These

probabilities are known but that is all we know concerning which event will occur. Can we find a measure of how much ’choice’ is involved in the selection of the event or how uncertain we are of the outcome? ”

Shannon (1948) listou quatro pressupostos para que a medida H = −Ppilog pi fosse conside-

rada uma medida de incerteza, nomeadamente: continuidade, simetria, recursividade e aditividade. Esta medida foi utilizada e interpretada como incerteza, informação e entropia. Algum tempo mais tarde Shannon disse [in Petz (2001, p. 6)]:

“My greatest concern was what to call it. I thought of calling it ’information’, but the word was overly used, so I decide to call it ’uncertainty’, When I discussed it with John von Neumann, he had a better idea. von Neumann told me, ’You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage.”

A entropia pode ser encarada como medida de incerteza, de dispersão, de desordem, de surpresa e de diversificação. Uma forma de definir a entropia é em termos do número de microestados (configurações possíveis de um sistema) numa determinada situação [Georgescu-Roegen (1971)]. A desordem surge porque não se consegue saber qual o microestado em que o sistema se encontra no instante da observação, por isso, a entropia é um índice de desordem molecular [Peixoto (1984)].

Como propriedade da matéria que mede o grau de desorganização interna a nível molecular, a entropia tende a aumentar continuamente até atingir um valor máximo num sistema isolado. Seja E a energia, H a entropia de um sistema e T a temperatura, então a entropia apresentada na equação (2.1) pode ser representada da seguinte forma [Reis (2001)]

∆H = ∆E

T ⇔ T =

∆E

∆H. (2.2)

A temperatura absoluta é expressa pela quantidade de energia que se deve fornecer a um sistema para que a sua entropia aumente uma unidade, logo, o aumento de entropia de um sistema acom- panha o aumento de energia a ele fornecido. No “Zero Absoluto”, ou seja, no estado em que existe

disposição perfeita, não há incerteza quanto às posições das moléculas, logo a entropia é nula - Terceira Lei da Termodinâmica.2

Uma das propriedades da entropia é a aditividade, dado que a entropia de um sistema composto é igual à soma das entropias dos seus subsistemas [Shannon (1948), Georgescu-Roegen (1971)]. Outra propriedade importante prende-se com o facto de que numa sucessão de estados dum sistema, a entropia aumenta continuamente.

Os processos geradores de entropia são por natureza irreversíveis, dado que apenas há uma ordem natural de aumento da entropia na sucessão de estados de um sistema. Se não se verificar um aumento da entropia, mas sim uma invariância, teoricamente, pode-se considerar o processo reversível. Como exemplo deste tipo de processo pode apontar-se um processo quase estático:

(i) ∆H > 0, processo irreversível;

(ii) ∆H = 0, processo reversível;

(iii) ∆H < 0, processo impossível.

Se se detectar uma diminuição da entropia de um estado para o outro, significa que apenas se está a considerar uma operação parcial de um determinado processo e não o processo global, nem o sistema global e sua vizinhança. Segundo Peixoto (1984), as transformações físicas ou químicas evoluem de forma natural de estados de maior organização para outros de menor organização, a não ser que se contrarie o “processo natural” com dispêndio de energia.

É o que acontece nas organizações ao actuarem como sistemas fechados, verificando-se um au- mento da entropia para níveis máximos, só abrandado, ou até recuando com a injecção de recursos, sendo de salientar a informação como o principal recurso (energia vital) para combater a entropia numa qualquer organização que não seja um sistema isolado. Por este motivo se prende a cada vez maior importância dos sistemas de informação nas organizações, exigindo maiores preocupações com o sistema de informação orgânico, genético e funcional como forma de possibilitar a minimização da entropia.

As configurações de maior desordem são também as de maior probabilidade, uma vez que em qualquer sistema a entropia tem tendência a aumentar até atingir um valor máximo [Georgescu- Roegen (1971)]. Neste sentido o conceito de probabilidade é perfeitamente aceite, podendo a entropia ser definida em termos de probabilidade, pois o aumento de entropia que ocorre durante um processo irreversível pode associar-se à transição de um estado menos provável para um estado de maior probabilidade.

Esta definição implica que quanto menos provável for uma dada distribuição de moléculas ou de átomos num sistema, menor será a entropia desse mesmo sistema. Quanto maior for a desorganização maior será a entropia. À luz da Segunda Lei da Termodinâmica, ao se considerarem os processos físicos, químicos e biológicos, verifica-se que a energia livre, dos processos naturais tende a diminuir e a entropia a aumentar. O Universo tende assim para um estado de cada vez maior desorganização.