• Nenhum resultado encontrado

REMOÇÃO DE CONTEÚDOS NOCIVOS A CRIANÇAS E ADOLESCENTES NA INTERNET

Na rede, é possível encontrar os mais diversos conteúdos e nem sempre eles são indicados para crianças e adolescentes. Por tal razão, é aconselhável que o acesso à Internet seja inicialmente feito de forma supervisionada, com a devida orientação de adultos e com restrição de tempo.

Verifica-se, por exemplo, a presença de conteúdos nocivos ou violentos, como aqueles que estimulam automutilação e suicídio, que propagam discursos discriminatórios e de ódio e que incentivam o uso de drogas e a realização de dietas para extrema magreza6. Diante disso, é comum o questionamento acerca da responsabilidade civil de provedores pela divulgação desses conteúdos quando são produzidos ou autorizados pela própria plataforma ou quando são inseridos por terceiros, por exemplo, em páginas de redes sociais. Na primeira hipótese, em razão de o provedor ter controle editorial pleno sobre o que é divulgado, como regra, ele responderá diretamente em caso de eventual dano causado. Já na segunda, o sistema de responsabilidade por conteúdo de terceiro será regido pelo Marco Civil da Internet (Lei n. 12.965, 2014).

6 Na pesquisa TIC Kids Online Brasil 2016, destaca-se a proporção de usuários de 11 a 17 anos que viram na rede assuntos referentes a auto-dano ou outros conteúdos sensíveis. Na análise por tipo de conteúdo, verificou-se que cerca de um a cada cinco adolescentes usuários de Internet teve contato com assuntos relacionados a formas de ficar muito magro (20%), a formas de machucar a si mesmo (13%), experiências de uso de drogas (10%) e formas de cometer suicídio (10%). Os resultados evidenciam que as meninas estão mais expostas a esse tipo de conteúdo na Internet do que os meninos (CGI.br, 2017, p. 118). Outro tipo de risco na Internet é o contato com conteúdos de natureza intolerante e com discurso de ódio na rede. Em 2016, 41% dos usuários com 9 a 17 anos declararam ter presenciado alguém sendo discriminado na rede, percentual estável em relação a 2015 (40%) – o equivalente a 10 milhões de crianças e adolescentes no país. O testemunho de situações discriminatórias foi mais frequentemente citado por meninas (45%) do que por meninos (37%) e mais mencionado por adolescentes mais velhos – 15% dos usuários com 9 e 10 anos declararam ter visto conteúdos desse tipo na Internet, enquanto o mesmo ocorreu com mais da metade (53%) daqueles com idades de 15 a 17 anos (CGI.br, 2017, p. 120). Entre os diferentes tipos de discriminação testemunhados, o mais comum foi relacionado a cor ou raça, mencionado por 24% dos usuários de Internet com 9 a 17 anos. Outros tipos de discriminação foram pela aparência física (16%), por gostar de pessoas do mesmo sexo (13%) e pela religião (10%). Já o percentual de crianças e adolescentes usuários da rede que sofreram diretamente algum tipo de preconceito na Internet foi de 7% em 2016 (CGI.br, 2017, p. 121).

PORTUGUÊS

Em seu Artigo 197, o Marco Civil apresenta a regra geral da responsabilidade civil do provedor de aplicações de Internet (por exemplo, Facebook, Twitter, YouTube, Snapchat e WhatsApp) por conteúdo de terceiros, a qual é de natureza subjetiva (isto é, depende de culpa) e oriunda do não cumprimento da ordem judicial que determinou a exclusão ou a indisponibilização de determinado conteúdo. A responsabilidade não deriva, assim, como regra, do descumprimento de uma notificação extrajudicial.

De forma a proteger a liberdade de expressão e impedir a censura privada, exige-se a análise judicial do conteúdo para, só então, fazer nascer a responsabilidade em caso de descumprimento. Parte-se da ideia de que somente uma adequada ponderação judicial dos interesses constitucionalmente tutelados – estando a liberdade de expressão como regra em um dos lados da balança – poderá assegurar uma Internet livre, plural e democrática.

Isso não quer dizer que provedores não possam remover conteúdos que violem seus termos de uso. Não existe no artigo 19 do Marco Civil da Internet um comando que impeça a remoção de conteúdos antes da ordem judicial. Todavia, caso optem por remover um material antes de qualquer pronunciamento pelo Poder Judiciário, os provedores correm o risco de serem responsabilizados não pelo conteúdo de terceiro, mas sim por um ato próprio, pois, ao removerem o conteúdo, podem eventualmente causar danos a quem publicou a foto, o texto ou vídeo e viu o seu conteúdo ser indevidamente removido. Mas quem é que vai dizer se a remoção (espontânea ou motivada por notificação de terceiros) foi irregular? Esse papel cabe ao Poder Judiciário. Os tribunais nacionais já reconhecem o seguinte equilíbrio inaugurado pelo Marco Civil da Internet: de um lado, ele dá segurança aos provedores de que eles não serão responsabilizados por conteúdos de terceiros contestados em sua plataforma até a ordem judicial, mas, de outro, ele traz a ideia de que, se os provedores quiserem ir adiante e remover um dado conteúdo, alegando violação aos seus termos de uso, eles poderão eventualmente, na gestão de sua plataforma, causar danos com remoções indevidas, o que poderá ensejar ações indenizatórias que serão apreciadas pelo Poder Judiciário.

Em diversas decisões, os tribunais já mostraram preocupação com uma ampla delegação para provedores das formas de controle do discurso na rede, já que isso poderia prejudicar a diversidade, a liberdade de expressão e a inovação na Internet. Entende-se, assim, que o controle que pode ser realizado pelos provedores deve ficar restrito às condições traçadas em seus termos de uso (e existe muito a ser aperfeiçoado em termos de transparência e informação sobre os critérios aplicados pelas empresas na gestão de suas plataformas). Nessa direção, como

7 Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. § 1o A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material. § 2o A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5o da Constituição Federal. § 3o As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais. § 4o O juiz, inclusive no procedimento previsto no § 3o, poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação (Marco Civil da Internet, Lei n. 12.965/2014, 2014).

PORTUGUÊS

dito, caso um conteúdo seja denunciado e o provedor entenda que ele viola expressamente seus termos de uso, não haverá impedimento no Marco Civil da Internet para que ele o remova, devendo-se ressaltar que, caso alguém se sinta lesado por tal conduta, ele poderá ingressar com uma ação judicial em face diretamente do provedor, questionando a remoção e pedindo até mesmo uma indenização financeira.

Caso fosse obrigatória a remoção de conteúdo da rede, mediante mera notificação extrajudicial, isso poderia implicar sério entrave para o desenvolvimento de novas alternativas de exploração e comunicação na Internet, as quais, muito razoavelmente, poderiam não ser desenvolvidas em razão do receio de futuras ações indenizatórias. Além disso, se, por receio da responsabilização, os provedores retirassem em massa conteúdos da rede, o resultado imediato disso seria a redução do número de casos em que o Poder Judiciário poderia atuar para traçar os limites da liberdade de expressão na Internet e reforçar a relevância desse direito fundamental.

O Poder Judiciário, em detrimento de empresas privadas que regulam tais plataformas, parece ser a melhor opção para analisar conteúdos e determinar quais informações devem permanecer na rede. Imagine, por exemplo, que fosse instituída a responsabilidade dos provedores de aplicações de Internet quando não removessem conteúdo após uma notificação extrajudicial.

Haveria, muito possivelmente, o incentivo a uma censura privada, uma vez que, para evitarem o risco de uma responsabilização futura, os provedores provavelmente removeriam boa parte dos conteúdos denunciados. Por gozarem de isenção de responsabilidade antes da notificação judicial, pelas regras do Marco Civil da Internet, os provedores de aplicações devem tomar o exercício da liberdade de expressão como vetor de suas atividades e evitar, sempre que possível, utilizar medidas para filtrar ou limitar conteúdos na rede.

É preciso ter cuidado para que fatos isolados, como o desafio da Baleia Azul (O Globo, 2017;

Evon, 2017), por exemplo, não sirvam de incentivo para a imposição de vigilância e censura nas mídias sociais e demais aplicativos. A Baleia Azul não foi a primeira nem a última ação que vai incentivar crianças e adolescentes a praticarem formas de lesão e violência consigo mesmos e terceiros (Teffé, 2017). Tentar eliminar a todo custo os riscos que crianças e adolescentes podem encontrar em espaços públicos como a Internet é praticamente impossível e pode tolher de forma desproporcional a liberdade e a privacidade deles.

Encontrar um equilíbrio entre as necessidades de proteção de crianças e adolescentes e a preservação da Internet como um espaço para a expressão livre e plural é um desafio que não será respondido apenas pelo Direito, seja por meio da edição de novas leis ou de decisões judiciais. De toda forma, juntamente de considerações que levem em conta aspectos tecnológicos, econômicos e sociais, é preciso refletir sobre o equilíbrio desejado e evitar que o Direito sirva como mecanismo para restringir direitos fundamentais em nome de uma suposta proteção ao público jovem.

É justamente nesse debate que se insere o papel da educação digital, buscando ampliar o acesso, por parte da criança e do adolescente, a conhecimentos fundamentais sobre segurança na utilização dos mais diferentes recursos na rede. O desenvolvimento de habilidades decorrentes desse conhecimento transforma a experiência de conexão, garantindo que o menor esteja menos vulnerável a ataques ou se sinta menos tentado a cair nas estratégias de manipulação de jogos e desafios on-line que procuram causar danos.

PORTUGUÊS