• Nenhum resultado encontrado

A estrutura de dados vectorial usa os pontos (ou nós), linhas (ou arcos) e os polígonos como forma de representar o mundo real ou, no caso específico dos SIG, um objecto ou particularidade à superfície da terra. Isto pressupõe que cada ponto, seja isolado ou parte de uma linha ou polígono, tem perfeitamente definidos os seus atributos e contém toda a informação necessária ao seu correcto posicionamento. Das várias características que distinguem a estrutura vectorial, referimos apenas um suposto maior rigor na representação e medição do mundo real, bem como uma dificuldade acrescida na aquisição dos dados e na sua edição (nomeadamente no que se refere à topologia).

Por outro lado, a estrutura raster está associada ao conceito de grelha (grid) e de célula (pixel), em que um conjunto relativamente grande de células, ordenadas de forma cartesiana (segundo dois eixos perpendiculares) permitem associar um certo valor absoluto do pixel a uma parte discreta

da superfície da terra. A complexidade do modelo é pois inversamente proporcional ao tamanho do pixel e ao número de camadas separadas (layers) que podemos ter com informação distinta mas sobreposta do mesmo local geográfico.

Não cabe aqui uma análise das vantagens e inconvenientes de cada um dos modelos, que têm muitas vezes a ver mais com a capacidade computacional e de armazenamento do hardware disponível do que das capacidades intrínsecas dos modelos. Enquanto o modelo vectorial é tido como mais fiel representante da realidade geográfica e de maior facilidade de operação em tarefas de medição, o modelo raster é tido como tendo maior potencial em operações de análise espacial e tem a enorme vantagem de incorporar de forma directa as novas e mais expeditas formas de aquisição de dados: a detecção remota nas suas várias formas, e os processos de digitalização por scanner. Na prática, as vantagens de um e outro modelo, agora que as capacidades do hardware disponível (a preço acessível) nos parece enorme, depende mais da disponibilidade e do custo dos dados e, eventualmente, dos resultados que se pretendem obter, do que das qualidades e inconvenientes de cada abordagem.

Grande parte dos sistemas pioneiros foram, no entanto desenvolvidos segundo o modelo raster. Vimos anteriormente que o sistema canadiano (CGIS), embora tivesse também funções vectoriais, adquiria muitos dos seus dados de forma raster, por digitalização de mapas. Os sistemas iniciais nos Estados Unidos foram também raster: o Minnesota Land Management System (MLMIS) entre 1967 e 1971, o Land Use and Natural Resources Inventory of New York State (LUNR), o Oak Ridge Regional Modeling Information System (ORRMIS) são bons exemplos de grandes sistemas de informação baseados em tecnologia “rudimentar” raster (Faust, 1998).

Por outro lado, vimos também como as pesquisas do Harvard Lab, um dos berços da tecnologia SIG começou por desenvolver software raster como o SYMAP, que considerámos como o primeiro programa comercial de informação geográfica. As capacidades limitadas de análise espacial do SYMAP conduziram ao desenvolvimento do GRID (e mais tarde do IMGRID), num processo que abordámos na secção relativa às universidades americanas. O IMGRID foi o percursor dos modernos programas raster (Faust, 1998), tendo nascido da revolta estudantil ocorrida em Harvard contra as dificuldades impostas pela utilização de complexas rotinas de processamento em FORTRAN, para uso no então GRID no mainframe da escola.

O IMGRID foi escrito por Davis Sinton, sob a direcção de Carl Steinitz, mas os estudantes de Harvard que depois obtiveram posições de destaque na indústria SIG americana, usaram o programa como base para o desenvolvimento dos seus produtos comerciais. Assim, não é de estranhar que muitas das funções hoje encontradas em códigos recentes sejam idênticas ou muito semelhantes às dessa época (Faust, 1998).

Não será demais sublinhar que este tipo de abordagem seguia os princípios enunciados por Ian McHarg (1971), usando a sobreposição de várias camadas e o uso de métodos “fotográficos” para a obtenção de complexas análises espaciais.

Novas melhorias ao IMGRID forma entretanto introduzidas pelos estudantes de Harvard, incluindo Tomlin e Berry, dando origem a um novo programa de nome MAP, um programa em princípio mais fácil de manusear. Tomlinson e Marble desenvolveram entretanto, no âmbito de um projecto para uma agência governamental, um programa de nome MOSS que, algum tempo depois seria melhorado e vendido comercialmente com o nome de MAS (Faust, 1998).

torna mais feroz. O Harvard Computer Graphics Lab desenvolve o ODYSSEY, como vimos anteriormente, enquanto Dangermond e Morehouse, na ESRI, desenvolvem um sistema vectorial, o PIOS, que viria a ser a base do ARC/INFO lançado pela ESRI no início dos anos 80, ainda hoje uma referência líder de mercado nas suas versões mais actuais. David Sinton continua a trabalhar na Intergraph (na altura chamada M & S Computing) desenvolvendo o programa vectorial que tornou essa empresa uma enorme concorrente da ESRI (Faust, 1998).

Quando tudo parecia apontar para a prevalência, pelo menos ao nível dos sistemas comerciais, do modelo vectorial, os sistemas baseados em pixel receberam um impulso forte e inesperado. Em 1972 foi lançado o primeiro satélite de aquisição de imagens da terra (ERTS, mais tarde chamado de Landsat), o que veio despertar a comunidade científica para a possibilidade de obter dados da superfície terrestre de relativamente boa resolução a intervalos curtos e a custo acessível (Faust, 1998). A tomada de consciência por parte da comunidade da importância de gerir e preservar cuidadosamente os recursos naturais da terra terá naturalmente contribuído para o clima propício ao sucesso destas tecnologias de detecção remota. Cada imagem pode ser constituída por várias camadas de informação, quer analógica, quer digital, mas sempre referidas a uma célula com determinado valor de reflectância, o que torna este sistema particularmente adequado ao processamento por sistemas raster. Os princípios são, no essencial, os mesmos. Este era o impulso que faltava para implantar de modo definitivo as qualidades do processamento de imagens.

As investigações no uso de imagens e as técnicas que foram desenvolvidas para a sua análise e tratamento remontam, no entanto, à década de 60, quase sempre desenvolvidas por organizações coordenadas ou financiadas pela NASA. As primeiras investigações foram orientadas para os estudos agrícolas, sendo o primeiro caso conhecido com relevo o estudo realizado pelo Environmental Research Institute of Michigan (ERIM), que desenvolveu um scanner multiespectral que foi usado, com sucesso na detecção e acompanhamento de uma doença infestante que atingiu os campos de milho nos estados unidos nessa altura (Hoffer, 1998). Entretanto, na universidade de Purdue, era desenvolvido um software de análise de imagens que viria a ser chamado de LARSYS e que foi usado neste programa de acompanhamento da doença. Muitas das funções actuais dos programas de análise de imagens raster provêm ainda deste primeiro sistema. Um dos conceitos importantes respeitam ao facto de considerarem cada pixel como uma unidade independente e, embora o cálculo das médias e variâncias fosse feita previamente, a classificação da imagem era feita no pressuposto da independência de cada pixel face a todos os outros pixels da imagem (Faust, 1998).

Com o advento dos minicomputadores e a sua maior capacidade de cálculo e, sobretudo, de interactividade, foram sendo desenvolvidos novos produtos de análise e tratamento de imagem, dos quais nomeamos a título de referência: o Multispectral data Analysis System (MDAS), da Bendix Corporation; o Image 100, da General Electric; o VICAR/IBIS, do Jet Propulsion Lab da NASA; o Interactive Digital Image Manipulation System (IDIMS), da ESL, Inc. Todos tinham em comum o conceito de análise independente e separada dos valores de cada pixel, permitindo a análise de conjuntos de dados relativamente grandes mesmo em pequenos computadores (Faust, 1998).

Em 1980 a ERDAS desenvolveu o primeiro sistema de análise de imagem e sistema de informação geográfica num minicomputador, estabelecendo uma nova forma de integrar ambos os campos num único e proveitoso ambiente computacional. Esta integração abriu as portas a um novo conceito de SIG, baseado na aquisição remota dos dados, e uma excitante possibilidade de análise

espacial da imagens obtidas pelos satélites da época (Faust, 1998). A melhoria dos sensores lançados no espaço faria o resto.

Os recentes anos trouxeram a todos os software de SIG a necessidade de oferecer funcionalidades que misturam capacidades vectoriais com a integração e análise de imagens raster. Esta capacidade de ter funções vector e raster totalmente integradas está ainda na sua infância (Faust, 1998). Um verdadeiro sistema integrado será capaz de promover análises com os dois métodos de forma transparente, sem necessidade de executar operações preparatórias no outro sistema. Por outro lado, o aparecimento no mercado de imagens de muito alta resolução, a partir de sensores baseados em satélites, abre novas perspectivas ao uso da detecção remota como fonte primária de dados para os SIG modernos, baixo custo e com enormes capacidade de actualização, prevendo-se já aplicações ao nível da monitorização urbana e do edificado, de um modo integrado com dados e resultados vectoriais, esbatendo as diferenças e vantagens de cada um dos modelos de dados.