• Nenhum resultado encontrado

CONCLUSÕES. Sessão de abertura

N/A
N/A
Protected

Academic year: 2021

Share "CONCLUSÕES. Sessão de abertura"

Copied!
15
0
0

Texto

(1)

1

CONCLUSÕES

Realizou-se em Lisboa, a 6 de Outubro de 2010, a 4.ª Conferência Internacional da ANACOM, subordinada ao tema “Net Neutrality – Regulação de Redes e Regulação de Conteúdos”, que reuniu oradores de diversas áreas, da política à indústria, passando pelas autoridades reguladoras nacionais (ARN) e por associações sectoriais.

Foram debatidos, numa perspectiva regulatória, de mercado e do consumidor, alguns dos desafios que as ARN enfrentam, nomeadamente, gestão do tráfego e prioritização de serviços, transparência da informação e defesa do consumidor, intervenção regulatória ex-post e ex-ante, papel de instâncias internacionais (Comissão Europeia, BEREC, etc.).

Sessão de abertura

O Ministro das Obras Públicas, Transportes e Comunicações, António Mendonça, considerando que o tema da Conferência é de fundamental importância para o futuro da Internet, salientou que é necessário garantir uma Internet aberta, de acesso democrático e em condições de igualdade pois “não podemos permitir que

exista uma Internet dos ricos e uma Internet dos pobres”.

No entanto, o MOPTC não deixou de referir que se deve “reconhecer a capacidade de

os operadores gerirem adequadamente as suas redes prevenindo nomeadamente os congestionamentos motivados pela procura crescente de conteúdos, sobretudo os mais exigentes em termos de capacidade, como os de vídeo. Há também que reconhecer aos operadores o direito de desenvolverem os seus modelos de negócio, oferecendo serviços específicos e com uma qualidade que vise reconhecer as existências dos consumidores”. Quanto a estes, António Mendonça frisou que

“nenhuma diferenciação da oferta, gestão de tráfego será legítima se o consumidor

não tiver acesso a informação transparente, efectiva sobre a oferta. Transparência é a palavra de ordem”.

(2)

2

No que concerne à regulação sectorial, o MOPTC referiu ainda acreditar que “para já

não será necessário intervir tão fortemente, bastando acompanhar de perto as novas práticas e modelos de negócio”.

Em jeito de desafio aos oradores e à audiência, o Presidente do Conselho de Administração da ANACOM, José Amado da Silva, salientou que, em seu entendimento, o problema da net neutrality ainda não está bem formulado e que, pese embora a neutralidade ser a palavra-chave, é preciso fazer um trade off entre a liberdade, na perspectiva da abertura da rede, e o conceito de gestão de rede. Neste sentido, e considerando que quando não há espaço suficiente há escassez e que esta implica uma escolha, José Amado da Silva levantou algumas questões: Pode alguma escolha ser neutra? Pode aplicar-se à gestão de rede a palavra neutralidade? Há gestões neutras?

Discorrendo sobre o tema do acesso e da exclusão, continuou a levantar dúvidas relativas à liberdade de acesso: é preciso que todos tenham capacidade para passar pela porta (leia-se aceder à Internet), mas qual é a largura da porta? Deve estar ser igual para todos? Deve ser diferente entre quem paga mais e quem paga menos? Qual é o critério para gerir a rede, quem paga? E o serviço universal com banda larga resolverá os problemas? E a transparência? Quanto a esta última, o Presidente da ANACOM sublinhou que a “transparência é uma condição necessária, mas não

suficiente. É condição mas não é condição total”.

Aceitando o desafio, o professor Marvin Ammori discorreu então sobre o assunto, baseando-se para tal na realidade americana. Para o keynote speaker, a definição básica de net neutrality implica que os prestadores do serviço de acesso à Internet (ISP) não podem descriminar arbitrariamente os diferentes fornecedores de conteúdos e aplicações, ou seja, a Internet será aberta e neutra para todos. Acima de tudo, este especialista defende que é preciso ter cautela na tomada de decisões sobre esta matéria pois “as decisões de hoje afectam decisivamente o futuro”.

Marvim Ammori concentrou-se depois nas três vertentes da net neutrality: a censura, no que concerne ao bloqueio do que apelidou de “desfavorable speech”; os conteúdos, a concentração do “poder do discurso”, citando exemplos de

(3)

3

personalidades ou entidades que fizeram e fazem uso da Internet aberta para se organizarem ou para recolherem apoio, como sucedeu com Barack Obama; e a privacidade, ressaltando as dificuldades em estabelecer limites à defesa dos diversos princípios, públicos e privados, em jogo.

Relativamente à inovação, Marvim Ammori referiu que uma rede aberta e neutra propicia mais e melhor inovação, não só porque os inovadores têm mais e maior retorno, mas também porque aqueles que possuem menos poder económico podem desafiar e competir com as grandes empresas. Acresce que “os investidores são

menos propensos a investir quando existe um risco de bloqueio”.

Falando mais especificamente sobre os problemas que a net neutrality acarreta, Marvim Ammori salientou as questões que se prendem com o bloqueio de concorrentes, o bloqueio de qualquer aplicação (na perspectiva de que se trata de uma infra-estrutura básica), a cobrança de taxas no acesso, dando como exemplo um qualquer ISP cobrar uma taxa para um qualquer fornecedor de serviço aceder aos clientes, ou a oferta de qualidade de serviço de forma discriminatória.

No que prende com a gestão de tráfego, o orador referiu que a solução para este problema pode passar pelo aumento da capacidade da rede ou pela prioritização de determinados tipos de conteúdos, pese embora esta só seja viável nas situações de efectivo congestionamento da rede.

Para Ammori, as soluções ou formas de implementar a neutralidade passam pela fixação de uma norma (standard) de discriminação, que não deverá ser imposta ao nível das aplicações, por uma gestão razoável da rede, tão neutra quanto possível, com igual qualidade de serviço para todas as aplicações e escolhida pelo utilizador final, ou ainda pela gestão de serviços, que, não devendo ser discriminatória nem usada para cercear a capacidade da Internet aberta.

Por fim, Marvim Ammori sublinhou a necessidade de se fixarem remédios e multas/coimas compagináveis com as violações em causa e com a dimensão económica das empresas infractoras.

(4)

4

Painel “Novas Respostas Regulamentares”

O moderador deste painel foi Elísio de Oliveira, vice-presidente do Conselho Regulador da ERC.

O primeiro orador, Luís Magalhães, presidente da UMIC, apresentou sinteticamente as formas pelas quais pode ser quebrada a neutralidade: o bloqueio de certas origens ou destinos de informação, a discriminação, positiva ou negativa, através da maior ou menor velocidade de comunicação, a discriminação de tráfego com base na origem, destino, tecnologia, plataforma ou nos equipamentos de acesso, ou ainda através da etiquetagem dos pacotes, nomeadamente pela aplicação de taxas de serviço preferencial.

Em defesa da neutralidade da net, Luís Magalhães apontou os factores que se prendem com a liberdade de expressão e de informação, com a defesa da concorrência e do mercado livre, evitando-se a excessiva concentração nos fornecedores de serviços de Internet e nos operadores, deixando-se espaço livre aos serviços e aplicações que usam essas plataformas, com equidade no acesso e utilização da Internet e com capacidade de inovação, deixando o processamento da informação nas pontas dos serviços de comunicação de forma a não se limitar a possibilidade de terceiros poderem inovar livremente, utilizando para tanto a infra-estrutura de comunicação.

Para Luís Magalhães “é preciso clarificar, legislar e criar princípios de regulação que

devem pôr um grande prémio em manter a generatividade da Internet, para esta permaneça uma plataforma que propicia o desenvolvimento de aplicações inovadoras, para assegurar a concorrência no mercado, sem distorções, para garantir um bom funcionamento da Internet e, sobretudo, para se exigir transparência, auditável”.

A representante da ARCEP, Nadia Trainar1, apresentou o trabalho que o

regulador francês tem vindo a desenvolver sobre o tema, salientando que estamos

(5)

5

perante um ambiente de mudança que requer uma regulação dinâmica, devendo os reguladores utilizar ferramentas simétricas sobre o acesso a conteúdo, de forma a promoverem a neutralidade da Internet.

O regulador francês fixou então os seguintes objectivos: garantir a liberdade de escolha dos utilizadores (incluindo a concorrência no retalho), o correcto funcionamento das redes e a inovação de longo prazo “at the core and the edge”. O estudo da matéria visa também distinguir duas vertentes do problema, a best effort

Internet e a gestão de serviços, que têm objectivos e restrições estruturalmente

diferentes.

Nadia Trainar referiu ainda que a regulação da neutralidade deve envolver a fixação de boas práticas para todas as tecnologias, a avaliação casuística de cada cenário e ferramentas de monitorização dos mercados relevantes. Estes vectores devem ser implementados através de uma co-regulação que envolva todos os stakeholders e que no limite seja mais prescritiva, quer no âmbito de processos de resolução de litígios, quer através de guidelines mais detalhadas em matéria de gestão de tráfego, quer ainda através de requisitos para a qualidade de serviço.

A ARCEP recomenda, ao nível das ofertas dos ISP e em concreto no que se refere à gestão de serviços, uma abordagem mais optimística do que a americana tendo por base o cenário europeu das ofertas de triple play, negócio em que o investimento acaba por beneficiar os vários tipos de serviços.

No que se refere à transparência, Nadia Trainar destacou a necessidade de se tornar evidente para o consumidor a informação de que este precisa para diferenciar as ofertas, mas tudo numa linguagem e com um conteúdo que seja apreendido por qualquer consumidor.

Por fim, Phillippe Defraigne, director da Cullen International2, optou por

sublinhar que “onde alguns vêem razões para impor restrições, outros vêm uma

(6)

6

falha de mercado e uma oportunidade para fazer negócio” e que neste cenário a

concorrência e a transparência nos podem levar longe em matéria de neutralidade. Na sua apresentação, Phillippe Defraigne salientou duas razões para se implementar a gestão de tráfego: a necessidade de fazer face ao crescimento do tráfego mantendo a melhor qualidade possível de serviço para o consumidor e a discriminação dos ISP verticalmente integrados, ou seja, a discriminação contra um concorrente num mercado a jusante. Quanto ao primeiro, o director da Cullen International entende que, face às actuais taxas de penetração e investimento, nos estamos a aproximar de um sério congestionamento na Internet e que, ou se atinge o caos, ou então os operadores terão que impor mais e mais restrições, gerindo ou priorizando alguns tipos de tráfego. Qualquer uma destas medidas só será socialmente aceite se os operadores concordarem e se esforçarem por aumentar a transparência das suas práticas.

Painel “Questões de Concorrência”

O segundo painel foi moderado por Jaime Andrez, vogal do Conselho de Administração da Autoridade da Concorrência.

A primeira intervenção esteve a cargo de Ian Fogg, analista principal da Forrester Research3, que trouxe a sua abordagem sobre os custos dos operadores

e os desafios que se colocam relativamente aos modelos de negócio.

Segundo ele, inicialmente o debate sobre a neutralidade da rede decorria principalmente nos EUA e Japão e encontrava-se muito centrado nas questões da indústria, na relação entre os fornecedores de acesso à Internet (ISP) e as empresas da Internet. Esta abordagem de um modelo com dois lados esquecia que estava em causa uma relação triangular entre o consumidor (utilizador final), os prestadores de serviços e os ISP. Daí que, actualmente, exista um paradoxo preço-velocidade, já que os operadores querem investir em novas redes de fibra óptica, com maior velocidade de acesso, e, no entanto, parece que os utilizadores estão mais

(7)

7

preocupados com o preço (87% dos inquiridos num inquérito da Forrester), relegando para segundo lugar a largura de banda/velocidade da ligação à Internet (62% das respostas).

Assim, como podem os operadores sustentar os seus negócios e investir em simultâneo em redes de acesso de nova geração, fixas e móveis? Para o analista da Forrester, tem de se encontrar novas fontes de receita (por exemplo, cobrando às empresas da Internet), diversificar produtos (entrar na área da publicidade e de conteúdos como a televisão) e persuadir os consumidores de que vale a pena pagar por mais qualidade nos acessos à Internet. Sobre este último ponto, Ian Fogg considerou que a questão dos níveis de qualidade deve ser claramente explicada e de forma transparente. É um clássico dilema do prisioneiro, afirmou, nenhum ISP tem interesse em ser totalmente honesto sobre o que está a fazer, mas se agissem em conjunto e apresentassem os níveis de qualidade acompanhados de uma explicação, esta atitude ajudaria a persuadir os consumidores a gastar mais nos acessos de banda larga, subindo as receitas médias por cliente dos ISP.

Ian Fogg salientou ainda que a inovação na Internet tem características disruptivas particularmente desafiantes para os ISP e que, actualmente, assistimos a uma colisão de mercados, com novos players fora do sector das telecomunicações a entrarem no mercado e a utilizarem software específico para criar produtos e tutelar ofertas verticalmente integradas. Referiu, a propósito, o caso do Facebook, com 500 milhões de utilizadores, e do Skype, também com 500 milhões de contas activas. O debate em torno da neutralidade da rede resulta directamente desta pressão colocada nas cadeias de valor pela chegada de perturbadores concorrentes da área dos serviços de Internet ao sector das telecomunicações. Mais do que convergência, está em causa uma colisão que torna obsoletas as velhas definições de mercado. O analista da Forrester considerou, contudo, que ainda se está a tempo de persuadir os consumidores a pagarem mais pelo fornecimento de acesso à Internet, sendo para tal essencial maior clareza e transparência em todo o mercado. Importante também, quando se aborda a questão da neutralidade a rede, é considerar toda a cadeia da Internet e não apenas a rede.

(8)

8

Ian Fogg alertou para a necessidade de pragmatismo, de modo a evitar uma análise paralisadora, dividindo a questão da neutralidade em partes mais pequenas. Considerou ainda que devem ser aplicados os mesmos princípios de neutralidade às redes móveis e sem fios (wireless) e que a diferenciação de tráfego por aplicação (peer-t-peer vs Web vs e-mail, por exemplo) com base em critérios técnicos será uma necessidade das redes e vai acontecer. Já a diferenciação de tráfego por marca/empresa será muito mais difícil de justificar, concluiu.

O orador seguinte, Ralf Nigge, presidente do grupo de trabalho Política Regulatória, da ETNO4, abordou a ligação entre concorrência e uma Internet

aberta na Europa, considerando que o investimento em redes de nova geração (NGN) de alta velocidade é o pano de fundo sobre o qual se está a discutir a neutralidade de rede. Neste campo, a Europa precisa de grandes investimentos nos próximos anos para se aproximar dos líderes na taxa de penetração da banda larga em fibra por habitação, o Japão (35%) e os EUA (4,8%), já que na UE esse valor é de 1,2% (dados de 2009). Para a ETNO, o investimento em NGN inteligentes depende da liberdade dos operadores para inovarem e desenvolverem novos modelos de negócio, respeitando as regras europeias da concorrência e da protecção do consumidor.

Do ponto de vista dos operadores de rede, o quadro regulamentar das comunicações electrónicas e as leis da concorrência na UE são adequados para assegurar a abertura da Internet. Ralf Nigge deu como exemplo os mercados europeus da banda larga fixa e móvel, que considerou altamente concorrenciais, fornecendo escolhas efectivas ao utilizador final.

Por outro lado, a ETNO considera que são a diferenciação de serviços e a inovação que suportam a abertura da Internet. Uma rede aberta significa que os utilizadores têm de ser livres de escolher as ofertas de acesso que melhor servem os seus interesses individuais e os operadores devem por princípio ser livres de desenvolver tais ofertas.

(9)

9

Para concluir, Ralf Nigge afirmou que, na Europa, deve ser mantida uma abordagem baseada nos factos e assegurado o diálogo com todos os intervenientes da Internet, enfrentando os problemas se eles existirem e se forem pertinentes. O responsável da ETNO defendeu o apoio às redes inteligentes e à inovação nas redes, bem como a criação de um level playing field em toda a Internet, na medida em que seja possível de acordo com o actual quadro regulamentar.

Por sua vez, Vicky Hanley-Emilson, representante da ECTA5, defendeu que,

quando se fala de neutralidade da rede e gestão do tráfego, a concorrência nos serviços de telecomunicações é o factor determinante para atenuar preocupações, já que promove a escolha dos consumidores.

Considerando que a gestão de tráfego já existe actualmente, Vicky Hanley-Emilson afirmou ser necessário que chegue ao nível retalhista para, por exemplo, evitar o congestionamento da rede e melhorar a qualidade de serviço, mas não deverá afectar o nível grossista para que se mantenha a promoção da concorrência e deste modo se facilite a escolha dos consumidores. Por outro lado, para que os consumidores possam ter efectivamente possibilidade de escolha, as barreiras à mudança de operador não devem ser muito significativas.

A representante da ECTA alertou ainda para a questão da mudança de tecnologia, que pode criar novas ameaças de sequestro do mercado e recordou a situação em 2001, quando se deu a grande mudança das ligações dial-up para a banda larga, com o DSL, relativamente às quotas de mercado dos operadores incumbentes. “Por

exemplo, no Reino Unido, de 15% no dial-up o operador incumbente passou a deter 95% de quota de mercado no DSL, e em França, de 35% no dial-up o incumbente passou a deter 90% no DSL”, afirmou Vicky Hanley-Emilson, frisando que esta

situação não se deverá repetir numa altura em que se está numa mudança de paradigma tecnológico, com a chegada das redes de acesso de nova geração.

No mercado de acesso e das infra-estruturas de rede, a mais importante ferramenta para evitar o sequestro de mercado e o abuso de posição dominante é a regulação

(10)

10

ex ante. E quando existem falhas que permitem contornar a regulação ex ante é

fundamental a aplicação de regulação ex post de modo a desencorajar comportamentos anti-concorrenciais, sublinhou a oradora.

Para concluir, Vicky Hanley-Emilson considerou que a existência para o consumidor de escolha de fornecedor de acesso em banda larga garante uma Internet aberta e neutral, que por sua vez garante ao consumidor escolha em termos de conteúdos e aplicações.

Por sua vez, Pedro Sousa, da Holos6, recordou que a Internet começou por ser um

local onde se colocava informação para ser consultada, evoluiu para a área da distribuição e da comunicação e, actualmente, é uma comunidade. A Internet já não é apenas uma realidade económica, estando associada à própria democracia. Por isso, considerou, os fornecedores de acesso à Internet devem ser regulados, para que estejam asseguradas a “liberdade de acesso” e a “qualidade de serviço”. Já a abertura e a liberdade da Internet estarão asseguradas se existirem transparência, clarificação e possibilidade de escolha.

Painel “Gestão de Rede e Acesso a Conteúdos e Aplicações”

O terceiro painel foi moderado por Eduardo Cardadeiro, vogal do Conselho de Administração da ANACOM.

A perspectiva do consumidor foi trazida por Teresa Moreira, responsável máxima da Direcção-Geral do Consumidor (DGC)7, que defendeu a necessidade de

regulação relativamente às redes e aos conteúdos. Na óptica do consumidor, por mais extraordinariamente livre e fantástico que seja o fenómeno da Internet, não se pode presumir que essa liberdade não vá ser abusada (e.g. conteúdos ilegais) e não se pode confiar no mercado para regular e conseguir acomodar todos os interesses em presença.

6

Apresentação “Regulação de Redes e Regulação de conteúdos” 7Apresentação “Gestão de Rede e Acesso a Conteúdos e Aplicações

(11)

11

Aludindo a informação divulgada em conferência deste ano da OCDE, a Directora-Geral da DGC mostrou que foram identificadas preocupações específicas dos consumidores perante a Internet. Essas preocupações são tão variadas quantas as aplicações e utilizações que são feitas da Internet, abrangendo: questões contratuais; protecção dos meios de pagamento; a publicidade comportamental e o necessário contrabalanço da protecção dos dados pessoais; a publicidade dirigida a crianças e jovens; produtos contrafeitos e pirateados; reforço da aplicação da lei e disponibilização de meios de resolução de litígios adequados aos consumidores. Teresa Moreira lembrou que a defesa dos direitos e interesses dos consumidores (e do interesse público) exige uma intervenção determinada e contínua da parte das autoridades públicas envolvidas. “Havendo regulação sectorial, e concordarei que é

preciso muito cuidado para que não haja uma espécie de “over-regulation” que desincentive a inovação e acabe por criar mais barreiras e ter efeitos negativos, é evidente que a regulação sectorial ex-ante tem de ser articulada com intervenções ex-post, de carácter sancionatório, sendo ambas necessárias e complementares”,

afirmou.

Por fim, Teresa Moreira alertou para a urgência do reforço da fiscalização, representando esta um esforço conjunto das diversas autoridades nacionais competentes, aproveitando as redes de cooperação europeias e internacionais.

Seguiu-se a visão de um operador incumbente, a British Telecom (BT), através de Simon Milner, Director, do Group Industry Policy da BT8, que constatou que as

tendências da Internet exigem cada vez maior largura de banda, já que existe um cada vez maior número de clientes ligados mais vezes, de locais mais diversos e de diferentes equipamentos, acedendo a um leque alargado de aplicações, em que o elemento vídeo está em crescimento.

Em 1971, a Internet dos primórdios era uma rede nos EUA que ligava algumas redes de universidades e organizações de defesa. “Tudo era completamente neutral, não

existia prioritização ou formatação do tráfego, mas na altura este “tudo” era apenas

(12)

12

composto por transferência de ficheiros, correio electrónico e ligação à rede”,

explicou Simon Milner. À medida que a Internet foi crescendo, rapidamente se percebeu que existiam aplicações que consumiam o máximo de largura de banda que conseguiam e que existiam algumas aplicações a necessitar de um débito mais estável e seguro do que outras. Foram então, entre 1994 e 1998, desenvolvidas técnicas de prioritização de tráfego e de garantia de qualidade de serviço, a que se seguiu, a partir de 2000, o desenvolvimento de equipamento de Deep Packet

Inspection para a identificação automática das diferentes aplicações.

Para o director da BT, a gestão do tráfego é algo positivo e tem sido essencial para o desenvolvimento da Internet, já que a velocidade não é o único factor na experiência do cliente. “Se os pacotes de informação têm que ser descartados devido a

congestionamento da rede, os associados a aplicações não-críticas de tempo podem ser descartados em primeiro lugar. Por outro lado, aplicações desse tipo, como a transferência de ficheiros, podem ver limitada a velocidade da operação em alturas de muito tráfego”, considerou Simon Milner. A gestão de tráfego permite ainda que

os ISP possam desenvolver e experimentar diferentes modelos de negócio, o que inclui permitir a fornecedores de aplicações e conteúdos que queiram alta qualidade de serviço a pagar por ela.

Coloca-se, então, a questão de saber se algumas destas práticas de gestão de tráfego devem ser banidas. Para Simon Milner a resposta é um não rotundo, uma vez que “estas defendem os investimentos em curso e são absolutamente

fundamentais para assegurar a melhor experiência possível do consumidor e este último aspecto é o que mais importa aos ISP”.

O representante do grupo BT defendeu ainda que o factor chave na protecção da liberdade na Internet é a existência de um mercado retalhista competitivo, sendo para tal necessário: regulação nos mercados grossistas de acesso em que exista PMS, transparência sobre as práticas de gestão de tráfego e capacidade de mudança (de operador) caso existam mudanças (de serviço) prejudiciais. Por outro lado, os ISP não querem perder os seus actuais clientes ou deixar de conquistar novos utilizadores, logo o serviço básico terá sempre de ser bom o suficiente e de melhorar continuamente, não podendo ser esmagado pelos serviços premium.

(13)

13

Para Simon Milner, a resposta às preocupações sobre a neutralidade da rede passa por:

 desenvolvimento de políticas e explicações claras sobre a gestão do tráfego;  não bloquear aplicações legais em qualquer nível de serviço;

desenvolvimento de páginas online ou de um portal que mostra informações sobre o serviço de um utilizador e, potencialmente, sobre a rede do ISP;  enunciar princípios claros sobre o que os clientes podem esperar da

abordagem dos ISP ao mercado da banda larga.

Coube ao último orador do painel, Jean-Jacques Sahel, Director de Assuntos de Governo e Regulatórios do Skype9, apresentar a posição de uma das inovadoras

empresas de Internet. Começou por afirmar o princípio fundamental da Internet aberta: enquanto um conteúdo/aplicação/serviço estiver em conformidade com o protocolo Internet, de modo geral, os utilizadores finais podem aceder-lhe sem barreiras. Considerando que desta Internet aberta resultam claros benefícios sócio-económicos, Jean-Jacques Sahel frisou que é a “inovação sem permissão” que impulsiona o crescimento e a produtividade.

Contudo, alertou o representante do Skype, o círculo virtuoso de inovação, procura e retorno do investimento, que trouxe muitos ganhos, está em perigo. Este ciclo funciona basicamente em torno do encorajamento dos utilizadores para que adoptem a banda larga, o que por sua vez cria uma massa crítica de utilizadores de banda larga que incentiva o desenvolvimento de novos conteúdos e aplicações de banda larga. Estes conteúdos, por serem novos e atractivos, vão aumentar a procura de banda larga, incentivando a implementação de investimentos em banda larga. “Se

modificarmos esta dinâmica, os resultados vão ser maus para todos os actores do sistema, o que por sua vez será mau para a economia em geral”, afirmou.

Concentrando a sua apresentação na Europa, o director do Skype lembrou que alguns ISP têm afirmado que podem filtrar, bloquear, atrasar ou degradar os pacotes de dados usados para transmitir determinadas aplicações. “Muitas vezes esta gestão

(14)

14

do tráfego é necessária por razões de congestionamento ou de segurança, mas a verdade é que são utilizações de VoIP como o Skype, ligações peer-to-peer, newsgroups, vídeo, áudio, instant messaging, etc. que sofrem repetidas restrições nos contratos ou nos termos e condições dos serviços. Na Alemanha, por exemplo, existem operadores que cobram pela utilização do VoIP, além daquilo que já cobram pelo serviço de acesso à Internet. Ou seja, pela transmissão de dados através da Internet, que é aquilo que o VoIP é, os utilizadores pagam a dobrar”.

Jean-Jacques Sahel considerou que tais práticas nada têm a ver com a gestão de tráfego de rede por razões técnicas, legais ou de segurança, havendo, como tal, um problema em que a concorrência e a transparência não são suficientes para garantir a escolha do consumidor ou proteger os inovadores. “O Direito comunitário da

concorrência tem uma focalização restrita e está mal adaptado a um ecossistema de inovadores on-line composto principalmente por pequenas empresas. Que pequena empresa tem recursos financeiros e tempo para esperar 8/10 anos pela resolução em tribunal de um caso de concorrência na União Europeia?”, questionou. Por outro

lado, prosseguiu, “mudar de operador continua a ser muito difícil para os

consumidores europeus, sendo a dificuldade na portabilidade de número um de vários exemplos”.

Por fim, o director do Skype considerou que o novo quadro regulamentar das comunicações electrónicas pode ajudar a resolver estes problemas e defendeu que a sua implementação a nível nacional deve defender claramente o princípio de que os utilizadores finais podem aceder e executar os serviços legais e aplicações da sua escolha na Internet, sem lacunas legais que legitimem restrições arbitrárias por parte dos operadores e dando às ARN a missão e poder legal para prevenir abusos.

Sessão de encerramento

Fechando os trabalhos da 4.ª Conferência Internacional da ANACOM, Amado da Silva, Presidente da ANACOM, referiu que para o regulador ficaram mais desafios e mais dúvidas, que se prendem com a evolução da regulação, que passou de uma

(15)

15

regulação basicamente assimétrica para uma tendência recente de regulação simétrica, falando-se já em co-regulação.

Pese embora esteja fora de questão outra alternativa que não o acesso livre à Internet, sem exclusões, o Presidente da ANACOM entende que muito há ainda para pensar, desde logo a convergência de problemas e de soluções, “porque os

mercados, esses, parecem estar mais a colidir do que a convergir”. Assim no que

refere à liberdade de acesso, o presidente da ANACOM questionou se livre quer dizer que é gratuito ou se livre quer dizer que está acessível a todos os utilizadores, mesmo que todos tenham de pagar muito? Em simultâneo, na qualidade de serviço impõem-se mínimos, ou antes “best efforts”, sendo que apenas se pode ser verdadeiro quando se afirma que se assegura a prestação de um serviço “a partir de um determinado nível”, ao invés de dizer “até um determinado nível”.

Amado da Silva terminou salientando que “as afirmações políticas sobre esta matéria

parecem querer criar, e bem, um mundo democrático, equilibrado e transparente no ecossistema digital, talvez como reconhecimento do fracasso do mundo analógico que a crise actual claramente revela – os acessos são o que são, o poder concentrado é o que é. Estamos na esperança que o digital seja diferente. Mas receio que as imperfeições e os erros que existiram no analógico possam persistir na mudança para o digital, impedindo-nos de criar o digital que queremos, e levar a que tenhamos de fazer uma regulação de second best”.

Referências

Documentos relacionados

Nessa situação temos claramente a relação de tecnovívio apresentado por Dubatti (2012) operando, visto que nessa experiência ambos os atores tra- çam um diálogo que não se dá

O objetivo do curso foi oportunizar aos participantes, um contato direto com as plantas nativas do Cerrado para identificação de espécies com potencial

O 6º ano do Mestrado Integrado em Medicina (MIM) é um estágio profissionalizante (EP) que inclui os estágios parcelares de Medicina Interna, Cirurgia Geral,

Realizar a manipulação, o armazenamento e o processamento dessa massa enorme de dados utilizando os bancos de dados relacionais se mostrou ineficiente, pois o

Por meio dos registros realizados no estudo de levantamento e identificação de Felinos em um remanescente de Mata atlântica, uma região de mata secundária

Fonte: elaborado pelo autor. Como se pode ver no Quadro 7, acima, as fragilidades observadas após a coleta e a análise de dados da pesquisa nos levaram a elaborar

Esta ação consistirá em duas etapas. Este grupo deverá ser composto pela gestora, pelo pedagogo e ou coordenador pedagógico e um professor por disciplina

Ao analisar o conjunto de empresas de dois segmentos da BM&FBOVESPA –Energia Elétrica e Bancos –, verifi cando as métricas fi nanceiras de rentabilidade e risco Nunes, Nova