• Nenhum resultado encontrado

UTILIZAÇÃO DE TÉCNICAS DE GENERALIZAÇÃO CARTOGRÁFICA DE FEIÇÕES LINEARES NO RIO CAPIBARIBE, PERNAMBUCO, BRASIL

N/A
N/A
Protected

Academic year: 2021

Share "UTILIZAÇÃO DE TÉCNICAS DE GENERALIZAÇÃO CARTOGRÁFICA DE FEIÇÕES LINEARES NO RIO CAPIBARIBE, PERNAMBUCO, BRASIL"

Copied!
5
0
0

Texto

(1)

II Jornadas Lusófonas-Ciências e Tecnologias de Informação Geográfica-CTIG2017 p. 175-179

UTILIZAÇÃO DE TÉCNICAS DE GENERALIZAÇÃO

CARTOGRÁFICA DE FEIÇÕES LINEARES NO RIO

CAPIBARIBE,

PERNAMBUCO, BRASIL

PHABLO DA COSTA NÓBREGA BENÍCIO

CLÉRISTON SILVA DOS ANJOS DANIEL QUINTINO SILVA JOSÉ PAULO DE SANTANA NETO

ALEX DA SILVA ARAÚJO ANDERSONN MAGALHÃES DE OLIVEIRA Universidade Federal de Pernambuco - UFPE

Centro de Tecnologia e Geociências - CTG

Pós-Graduação em Ciências Geodésicas e Tecnologias da Geoinformação, Recife - PE

phablo.benicio@gmail.com; cleriston.anjos@gmail.com; d.quintino@hotmail.com; jpaulo32@gmail.com; alex2012ufpe@gmail.com; amagalhaes.eng@gmail.com

RESUMO - No presente artigo estarão descritas as metodologias utilizadas para se comparar resultados de funções de simplificação cartográfica. A generalização cartográfica, como também é conhecida, é uma operação matemática aplicada a um documento cartográfico sendo este composto por feições planares, pontuais e lineares. Neste trabalho estaremos interessados não na estrutura ou na elaboração de um algoritmo simplificador, mas sim nos resultados de deferentes algoritmos aplicados a uma mesma feição linear para diferentes escalas e tolerâncias. Para tanto serão utilizados arquivos vetorial no format shapefile do tema de hidrografia obtidos através do site do IBGE (Instituto Brasileiro de Geografia e Estatística) onde um determinado trecho foi selecionado e simplificado por dois simplificadores diferentes: Point Remove, de Douglas-Peucker, e o Bend Simplify, de Wang. A feição foi simplificada consecutivamente com diferentes fatores de tolerância para os dois métodos. Estas tolerâncias são critérios importantíssimos nos resultados das feições trabalhadas visto que cada algoritmo será diretamente influenciado de acordo com o valor da tolerância inserida pelo usuário.

Palavras chave: Generalização, ArcGis, Simplificação, Recife.

ABSTRACT - In this article we will describe the methodologies used to compare the results of cartographic simplification functions. The cartographic generalization, as it is also known, is a mathematical operation applied to a cartographic document that consists of planar, punctual and linear features. In this work we will be interested not in the structure or the elaboration of a simplifying algorithm, but in the results of different algorithms applied to the same linear feature for different scales and tolerances. To do so, we will use vector files in the shapefile format of the hydrography theme obtained through the IBGE (Brazilian Institute of Geography and Statistics) website, where a certain section was selected and simplified by two different simplifiers: Douglas-Peucker's Point Remove Bend Simplify, by Wang. The feature was simplified consecutively with different tolerance factors for the two methods. These tolerances are very important criteria in the results of the worked features since each algorithm will be directly influenced according to the value of the tolerance entered by the user.

Key words: Generalization, Arcgis, Simplify, Recife.

1 INTRODUÇÃO

Ao se exibir informações o SIG faz uso de recursos de representação de feições básicas sendo estas pontuais, planares e lineares em escala reduzida adequada a cada tipo de produto final que se deseje obter segundo a sua natureza física ou semântica. Por muitas vezes é necessário que as feições contidas em uma determinada

região devam ser simplificadas, seja por sua escala de representação, seja pela grande quantidade de dados a serem armazenados. Em ambos os casos a generalização cartográfica é uma ferramenta de grande estima, pois permite ao usuário transformar uma determinada feição complexa por uma similar, transformada a partir de algoritmos simplificadores tornando a feição mais simples

(2)

II Jornadas Lusófonas-Ciências e Tecnologias de Informação Geográfica-CTIG2017 e com uma quantidade de detalhes adequada a escala de

representação dos dados a serem armazenados.

Na Cartografia, em ambiente SIG, existem algoritmos simplificadores que são amplamente utilizados em processos de generalização cartográfica. Segundo LOPES (2005), o processo de generalização cartográfica pode ser definido como um ajustamento do conteúdo gráfico, com a finalidade de melhorar a utilização de dados geográficos a um nível mais elevado da percepção visual de entidades espaciais e temporais assim como as suas relações. Podemos concluir que a transformação de escala é um dos principais fatores para se generalizar uma feição, fator este que pode levar até a exclusão de certas informações.

Segundo Houaiss (2009) um algoritmo pode ser definido como uma sequência finita de regras, raciocínios ou operações que, aplicada a um número limitado de dados, permite solucionar classes semelhantes de problemas. Um algoritmo não é necessariamente um programa computacional, mas sim a formulação dos passos necessários para realizar uma determinada tarefa. Diferentes tipos de algoritmos podem resolver a mesma tarefa utilizando várias instruções em diferentes intervalos de tempo, onde alguns podem ser mais rápidos e eficazes que outros, dependendo da complexidade computacional de cada um deles. Em cartografia vários algoritmos foram utilizados ao longo dos anos para obter resultados aceitáveis para simplificações de entidades lineares e planares, entre estes o que mais se destaca até a presente data de publicação deste artigo é de Douglas-Peucker que será comparado com o algoritmo de Wang-BENDSIMPLIFY.

O algoritmo de Douglas-Peucker foi desenvolvido por Douglas e Peucker em 1976. Dutton (1999) afirma que o este algoritmo é o mais utilizado para generalização de feições lineares em cartografia. Ao longo do tempo esse algoritmo foi utilizado pelos diversos profissionais que trabalham com generalização cartográfica. Este algoritmo realiza as seguintes considerações: denomina como âncora o primeiro ponto e como flutuante o último ponto de cada linha de base, definida a linha de base ele faz uma busca por pontos críticos que são aqueles com maior distância perpendicular a linha de base para a análise, os pontos críticos serão comparados com uma determinada distância perpendicular que é a tolerância, parâmetro comparativo na eliminação de pontos na linha de base. Segundo SONG, SHEN e YOON (2006), os pontos que obtiverem uma distância perpendicular maior do que a tolerância escolhida serão mantidos. Caso contrário, a linha é dividida em segmentos menores, a fim de adquirir o valor que não atinja o máximo de distância determinado pela tolerância. O algoritmo de WANG faz uma varredura pelas curvas (bends) após o seu reconhecimento ele analisa suas características e elimina as curvas desnecessárias. WANG (1996) afirma que uma feição linear pode ser composta por uma série de curvas definidas por um sinal positivo ou negativo para os ângulos de inflexão e seus consecutivos vértices. Em feições lineares digitalizadas da esquerda para a direita, os

vértices são positivos quando a inflexão da linha segue o sentido anti-horário.

2 METODOLOGIA DO TRABALHO Local da Área de Estudo

O rio Capibaribe é um rio que tem cerca de 248km de extensão e que corta o estado de Pernambuco até o Oceano Atlântico, nascendo no município de Porção localizado no agreste pernambucano, distante aproximadamente 244km da capital, como mostra a Figura 01.

Figura 1 - Localização do Rio Capibaribe

O trecho do rio Capibaribe onde foi realizada a generalização compreende os municípios de Santa Cruz do Capibaribe e Brejo da Madre de Deus. O critério usado na seleção da área de estudo foi o de privilegiar áreas com feições geográficas representadas por linhas sinuosas. Base Cartográfica

As bases cartográficas, aqui listadas, tem a finalidade de subsidiar a elaboração do trabalho. Elas vão compor a base de dados, o qual será utilizado para os estudos. Os dados e informações utilizados foram catalogados segundo suas fontes e homogeneizados, definindo-se uma unidade de trabalho: metro; sistema geodésico de referência SIRGAS2000 e Sistema de Projeção Universal Transversa de Mercator (UTM). Arquivos

Os arquivos em formato shapefile (shp), básicos para desenvolvimento do trabalho adquiridos junto a órgão público, podem ser observados na Tabela 01. Os arquivos estão disponibilizados no site ftp://geoftp.ibge.gov.br/.

Tabela 2 – Arquivos utilizados Tema Escala Fonte Hidrografia

1:250.000 IBGE (2013) Limites

(3)

II Jornadas Lusófonas-Ciências e Tecnologias de Informação Geográfica-CTIG2017 ArcGis

O ArcGis apresenta na sua estrutura de generalização cartográfica os dois algoritmos que serão analisados o Point to Remove do Douglas-Peucker e o

Bend Simplify do Wang. Na aplicação da metodologia

proposta, foi definido a classe de feição a ser generalizada, no caso a hidrografia na escala de 1:250.000. Aplicou-se o modelo de generalização sequencial, como pode ser observado na tabela 02. Para tanto, criou-se uma regra relacionada com o padrão de exatidão cartográfica – PEC e foi definido o valor de 0,5mm na escala do mapa para ser usado como valor de tolerância nesta pesquisa (VASCONCELOS, 2012).

Tabela 2 – Escalas utilizadas Escala Tolerância (m) 1:500.000 250 1:1.000.000 500 1:1.500.000 750 1:2.000.000 1000 1:5.000.000 2500 1:10.000.000 5000 1:15.000.000 7500 1:20.000.000 10000

Para analisar de forma quantitativa o grau de simplificação atingido por cada valor de tolerância testado, foram analisadas as seguintes situações:

Máxima Distância de Variação

Nesta situação, a ideia é a identificar no trecho trabalhado, qual o ponto em que se obteve uma maior variação do dado simplificado em relação ao valor original. Para isso, foi utilizado o seguinte procedimento:

Utilizando a ferramenta “Feature Vertices to

Point”, a linha original foi convertida em um seguimento

de pontos, estes sendo gerados dos vértices da linha original.

Utilizando-se da ferramenta “Near”, foi calculada a distância de cada ponto (trecho original) para a linha simplificada. Com isso, foi gerada uma tabela informando todas as distâncias entre cada ponto e a linha. A partir dessa tabela foi identificado em qual ponto se obtinha a maior distância, sendo considerado este como local de maior variação entre o trecho original e o trecho simplificado. A Figura 02 dá exemplo da operação realizada onde podem ser vistos os pontos gerados bem como a linha simplificada e a máxima distância.

Figura 2 - Exemplo de máxima distância entre trecho original e trecho simplificado

Vértices com Alteração Significativa

Nesta situação, a ideia para análise dos resultados, foi quantificar os vértices do trecho original que após a simplificação apresentaram uma alteração significativa (deslocamento em relação ao original).

Para isso, foi utilizada a seguinte metodologia: A partir da tabela gerada pela função “Near” (citada no item anterior), foram identificados e quantificados apenas os vértices que possuíssem valores acima de 1 metro, considerando como valor mínimo de deslocamento nesta análise. Na Figura 03 temos o exemplo descrito.

Figura 3 - Exemplo de vértices com alteração significativa 3 RESULTADOS E DISCUSSÃO

Como resultados do trabalho, foram geradas figuras comparativas dos dois métodos utilizados, que possibilitaram análises visuais, além de um quadro com os valores obtidos nas análises quantitativas referente à cada valor de tolerância testado.

Análise Visual

Na Figura 04, pode ser visto a comparação do comportamento do trecho utilizado, antes e depois da

(4)

II Jornadas Lusófonas-Ciências e Tecnologias de Informação Geográfica-CTIG2017 aplicação dos valores de tolerância, utilizando o algoritmo

Point Remove (Douglas-Peucker).

Já na Figura 05 temos como resultado a mesma feição utilizado os mesmos valores de tolerância, mas desta vez utilizando o algoritmo Bend Simplify (Wang).

Baseado na análise visual, o que pode ser observado é que no algoritmo Point Remove, desde as primeiras tolerâncias testadas, nota-se uma variação considerável dos trechos gerados, comparados com o original. Já no algoritmo Bend Simplify, nos valores de tolerâncias mais baixos, não foram observados grandes alterações, pelo contrário, o trecho original permaneceu quase que inalterado.

Figura 4 - Simplificação cartográfica digital com o algoritmo

Point Remove

Figura 5 - Simplificação cartográfica digital com o algoritmo

Bend Simplify

Análise Quantitativa

Após o cálculo dos valores de Máxima Distância de Variação e Vértices com alteração significativa, os dados foram organizados e dispostos de maneira resumida. As diferenças encontradas nos dois algoritmos e nas tolerâncias aplicadas podem ser vistos na Tabela 3 a seguir.

Tabela 3 – Valores encontrados para os algoritmos utilizados

Serão agora realizadas considerações sobre cada coluna da tabela, considerando as várias tolerâncias utilizadas.

Distância Máxima – Point Remove e Bend Simplify Ao analisar os valores obtidos nesta comparação, observou-se um crescimento relacionado ao aumento gradual do valor da tolerância, sendo que no algoritmo Point Remove o valor obtido foi consideravelmente superior ao obtido no Bend Simplify, o que significa que no primeiro algoritmo desenvolvido por Douglas Peucker existe uma variação obtida em algum ponto do trecho trabalhado que, em alguns casos, chega a quase 4x o valor encontrado no algoritmo desenvolvido por Wang.

Outro resultado observado que pôde ser quantificado e visualizado na tabela, é que a partir de determinado valor de tolerância, o trecho simplificado não apresentou novas variações. Isso se deu em ambos os algoritmos, quando para as tolerâncias 0, 05 – 0, 075 e 0,1 a distância máxima obtida não sofreu nenhum tipo de alteração.

Vértices com alteração significativa – Point Remove e

Bend Simplify

Na tabela 3 foi calculada a porcentagem de vértices que sofreram alteração significativa em relação ao trecho original. Assim, observou-se que para o algoritmo Point Remove, desde os primeiros valores de tolerâncias estabelecidos, observou-se que mais de 93% dos vértices foram alterados, enquanto que no Bend

Simplify, a quantidade de vértices alterados se comporta

de maneira mais tímida, destacando-se que no valor de tolerância entre 0, 0025 apenas 4 dos 392 vértices, ou seja (1%), foram identificados nesta situação. Assim, esta forma de análise, permitiu concluir que o algoritmo Point Remove age em quase todos os vértices independentemente da tolerância aplicada, alterando assim todo o trecho estudado. Enquanto no algoritmo

Bend Simplify, para baixos valores de tolerância, uma boa

parte do trecho permanece igual ao da feição original. 4 CONCLUSÕES

A generalização cartográfica pode ser considerada como uma fase deveras importante na produção de dados

(5)

II Jornadas Lusófonas-Ciências e Tecnologias de Informação Geográfica-CTIG2017 cartográficos, pois o processo está a qualidade dos dados

necessária para cada escala de visualização, colaborando para a generalização de um produto final (mapa) mais claro.

O trabalho apresentou o uso da generalização cartográfica de feições lineares em ambiente digital, empregando dois algoritmos de simplificação, Douglas-Peucker e Wang, em uma feição que representa um trecho do Rio Capibaribe.

Foram apresentados critérios para a definição da tolerância na aplicação dos algoritmos de simplificação cartográfica.

De acordo com Keates (1973), a generalização não pode ser relatada como certa ou errada, mas como boa ou ruim, visto que as alterações vão informar uma gama de alternativas possíveis, onde não será possível definir uma solução plena. Assim, as conclusões obtidas são relacionadas ao comportamento de cada algoritmo neste experimento.

O método de Douglas-Peucker reduziu a quantidade de pontos usados na representação da feição, permitindo a obtenção de resultados satisfatórios na simplificação com pequenas tolerâncias. Entretanto, na medida em que ocorre o aumento do valor de tolerância, o algoritmo tende a eliminar mais detalhes, gerando assim formas pontiagudas. Isso fica claro no trabalho na mudança de escala para 1:10.000.000, onde o resultado foi considerado inapropriado.

Em relação ao algoritmo de Wang, este obteve também bons resultados, porém a quantidade de pontos eliminados não foi tão significante como em Douglas-Peucker, como pôde ser comprovado nas análises realizadas.

REFERÊNCIAS

DUTTON, G. Scale, Sinuosity, and Point Selection in Digital Line Generalization. Cartography and Geographic Information Science, 1999. 26(1). P. 33-53. HOUAISS, Antônio. Dicionário Houaiss da Língua Portuguesa. Rio de Janeiro: Objetiva, 2009.

LOPES, JOSÉ. Generalização Cartográfica. Dissertação de Mestrado em Ciências e Engenharia da Terra. Faculdade de Ciências-Universidade de Lisboa. Portugal, 2005. 120 p.

SONG, Y.; SHENG, J.; YOON, D. A Bipolar model for Region Simplification. In: Proc. Of the Int. Conf. on Comput. Graph. And virtual reality, 2006.

TEIXEIRA, A. et. Al. Qual a melhor de definição de SIG. Revista FATOR GIS, n.11, 1995.

WANG, Z. Manual versus Automated Line Generalization, GIS/LIS '96 Proceedings, 1996. P.94-106.

Referências

Documentos relacionados

• reserva de bilhetes online (bilheteira online), com indicação do cliente, espectáculo, número de pessoas (discriminando o número de pessoas que têm direito a cada tipo

O Design Thinking Canvas para jogos veio mostrar que é possível pensar em competitividade na concepção de artefatos, sem abrir mão da simplicidade, da

A partir da junção da proposta teórica de Frank Esser (ESSER apud ZIPSER, 2002) e Christiane Nord (1991), passamos, então, a considerar o texto jornalístico como

Todas as outras estações registaram valores muito abaixo dos registados no Instituto Geofísico de Coimbra e de Paços de Ferreira e a totalidade dos registos

F REQUÊNCIAS PRÓPRIAS E MODOS DE VIBRAÇÃO ( MÉTODO ANALÍTICO ) ... O RIENTAÇÃO PELAS EQUAÇÕES DE PROPAGAÇÃO DE VIBRAÇÕES ... P REVISÃO DOS VALORES MÁXIMOS DE PPV ...

Tendo em conta que os valores do teor de água que são encontrados no bacalhau que é comercializado se encontra num intervalo entre 40% e 58%, recorrendo aos ensaios anteriores e

Neste panorama, o principal objetivo desse estudo é entender a importância da competitividade de destinos turísticos pontuando quais políticas tem sido adotadas

Mas cabe aqui perguntar; estaríamos realmente representando os grupos de minorías através da canonização de obras de autores (desses grupos) provenientes ou