• Nenhum resultado encontrado

3.1 AS IMPLICAÇÕES DO CONTROLE DE CONTEÚDO À CONSTRUÇÃO DO

3.1.1 Potenciais impactos do controle de conteúdo para a privacidade do self69

Luciano Floridi, ao analisar as questões relacionadas à privacidade, divide-a em quatro diferentes tipos de privacidade, a privacidade física, a privacidade mental, a privacidade decisional e a privacidade informacional.

A privacidade informacional, no entendimento do autor, seria a privacidade relacionada à liberdade contra interferências ou intrusões informacionais, o que poderia ocorrer a partir de uma restrição sobre os fatos que são ou não conhecidos sobre o indivíduo181. Assim, considerando que, como exposto, o indivíduo seria constituído por suas informações, uma eventual violação à privacidade significaria uma agressão à própria identidade pessoal182. A proteção à privacidade seria, em última instância, uma proteção à interferência na própria identidade183.

De tal modo, Floridi entende que o direito à privacidade se relaciona diretamente com o direito de ser permitida a experimentação, a renovação da vida e

179 ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, cit., p. 432.

180 BALKIN. Jack. Old-School/New-School Speech Regulation, cit., p. 2316.

181 FLORIDI, Luciano. The Fourth Revolution: How the infosphere is reshaping human reality, cit., p.

103.

182 Ibidem, p. 119.

183 Ibidem, p. 120.

da identidade durante a existência, gravando a identidade pessoal de modos que impossibilite esse movimento184:

Uma última questão pode ser brevemente abordada, como já foi mencionado: a interpretação auto-constituída enfatiza que a privacidade, por si só, é também o direito de ser permitido experimentar com sua própria vida, de recomeçar sem ter registros que mumifiquem sua identidade pessoal para sempre, tirando de você o poder de formar e moldar quem você é e pode ser. Todos os dias uma pessoa pode desejar construir um diferente, possivelmente melhor, T. Nós nunca paramos de nos tornar nós mesmos, então proteger o direito de uma pessoa à privacidade também significa permitir que essa pessoa tenha a liberdade de construir e mudar a si esma profundamente. O direito à privacidade é também um direito à uma identidade renovável185.

Por sua vez, Massimo Durante relaciona o direito à privacidade diretamente à ideia de confiança. À medida que a confiança pareceria envolver uma certa abertura de informações pessoais e a privacidade; por outro lado, haveria uma certa restrição a tais informações. A proteção à privacidade seria uma dimensão ativa, por meio da qual haveria uma atividade direta em sua proteção186.

Com base nisso, tanto a privacidade quanto a confiança seriam diretamente envolvidos na construção da identidade. A confiança buscaria elaborar um espaço específico, no qual há um compartilhamento do contexto da comunicação com outros para a interpretação da narrativa do self, enquanto a privacidade buscaria a elaboração de um tempo específico no qual a integridade e a coerência da narrativa são garantidas através do tempo187.

O direito à privacidade se relaciona diretamente com o próprio direito à autodeterminação informativa e à identidade pessoal. Ao impedir que o indivíduo possa ter controle sobre suas próprias informações e sobre o modo com que são tornadas públicas, ou não, acaba por adentrar na esfera da pessoalidade e da autodeterminação do indivíduo.

184 Ibidem, p. 124.

185 Tradução livre, no original: “A final issue can be touched upon rather briefly, as it has already been mentioned: the self-constituing interpretation stresses that privacy left alone is also your right to be allowed to experiment with your own life, to start again with your own life, to start again, without having records that mummify your personal identity for ever, taking away from you the power to form and mold who you are and can be. Every day, a person may wish to build a different, possibly better, T. We never stop becoming ourselves, so protecting a person’s privacy also means allowing that person the freedom to construct and change herself profoundly. The right to privacy is also the right to a renewable identity.” (Ibidem).

186 DURANTE, Massimo. The Online Construction of Personal Identity Through Trust and Privacy Information, cit., p. 599.

187 Ibidem, p. 609-610.

A construção informacional do indivíduo possui relação com a possibilidade humana de trazer significado a uma realidade criada pelas restrições limitantes de informações a ele relacionadas, sendo uma espécie de soma de informações experienciadas pelo agente em um certo nível de abstração188.

Sendo posta a relação entre a identidade pessoal e a privacidade como elemento essencial a seu desenvolvimento no tempo, é possível discutir os possíveis efeitos de uma sociedade pautada pelo capitalismo de vigilância ao self.

De tal modo, esse novo uso da das plataformas criaria insegurança pela falta de clareza sobre os dados que são usados e pela forma por meio da qual é possível atingir as conclusões em questão, que não são alcançadas com o grau de transparência necessário para decisões que diretamente afetam o indivíduo ranqueado.

Casos como esses demonstram que as decisões e as consequências advindas desse novo modelo poderiam trazer sérias consequências à esfera do ser, sem que seja possibilitado a ele qualquer modo efetivo de questioná-las.

Além disso, ao considerar o sistema do capitalismo de vigilância como uma realidade na qual é necessário certo grau de indignação e de interesse em promover mudança, diante dos efeitos adversos que poderiam vir de uma sociedade de controle total, além de um primeiro movimento que perpasse pela compreensão e pela proteção das instituições democráticas e do self, é preciso que sejam considerados os modos concretos por meio dos quais seria possível agir em resposta a esse sistema.

Por fim, diante desse cenário, em que há um domínio de discussões centrais pelas plataformas, é preciso reconhecer que, em que pese exista uma necessidade para que tais empresas atuem de acordo com os preceitos básicos do Estado Democrático de Direito, de modo a garantir os direitos humanos e proteger seus usuários, a participação dos Estados nos debates se mostra essencial. É de responsabilidade dos países supervisionar a atuação das plataformas, a fim de impedir que suas atividades não ofendam os direitos individuais. Assim, a questão que se coloca é: de que maneira e quais alternativas podem ser adotadas para alcançar esse objetivo, considerando a realidade atual tecnológica?

188 DURANTE, Massimo. Ethics, Law and the Politics of Information: A Guide to the Philoshophy of Luciano Floridi, cit., p. 83-98.

3.2 POSSÍVEIS PROPOSTAS PARA MITIGAÇÃO DAS CONSEQUÊNCIAS

ADVINDAS DO ATUAL CONTROLE DE CONTEÚDO AO DESENVOLVIMENTO DA IDENTIDADE PESSOAL

A partir das discussões apresentadas até o momento, nas quais se buscou apontar os efeitos do controle de conteúdo à construção da identidade pessoal, foi possível analisar as potenciais consequências danosas aos indivíduos no cenário atual das plataformas. E, diante da importância atribuída a uma narrativa que possa ser, o máximo quanto possível, livre de imposições externas para se autoconstruir, é preciso discutir eventuais soluções sociais, políticas e jurídicas que possam buscar trazer uma maior participação social, aprimorando o atual modelo de governança das plataformas.

Independente da eficácia, ou não, das medidas adotadas pelos diferentes governos, o que se tem é que as plataformas são ainda hoje, em certa medida, influenciadas por suas decisões e leis. Como exemplo, podem ser citadas as medidas de “notice-and-takedown”, com base nas quais a partir de uma notificação do Estado – normalmente através de uma decisão judicial – a plataforma é obrigada a retirar certo conteúdo do ar, sob pena de sofrer sanções no país, assim como eventuais punições aplicadas por diferentes autoridades regulamentadoras do Estado, tais como as próprias autoridades de proteção de dados, nos casos em que se entenda que tenha ocorrido uma violação dos preceitos do país189.

Essa política de judicialização como forma máxima de proteção do direito da liberdade de expressão foi consagrada no século passado. Em que pese a existência hoje em dia de outras salvaguardas para garantir a efetivação dos objetivos pretendidos, tais como políticas públicas que buscam promover uma educação pública, bibliotecas públicas, sistemas nacionais de correio, subsídios para publicações de livros, dentre outros, o reconhecimento através do Poder Judiciário continua a ser central nessa discussão190.

Não obstante o reconhecimento da liberdade de discurso e de eventual censura através da judicialização ainda seja a ação tradicional, um sistema que reconheça esse direito perpassa pela sinergia de medidas tanto governamentais que promovam a participação popular nas tecnologias de comunicação quanto de

189 GORWA, Robert. What is Platform Governance?, cit., p. 11.

190 BALKIN, Jack. Digital Speech and Democratic Culture: a Theory of Freedom of Expression for the Information Society, cit., p. 50.

tecnologias de design que decentralizam seu controle191. Para serem efetivas, as discussões precisariam transcender a esfera meramente jurídica e, como já discutido no âmbito do trabalho, alcançar também a estrutura das plataformas e os próprios usuários.

Nessa perspectiva, o autor Robert Gorwa afirma que o atual modelo de governança de conteúdo das plataformas seria o de autogovernança ou de autorregulação, os quais seriam confirmados a partir de legislações que consagram a limitação da responsabilidade de tais empresas e acabam por resultar em um estado de laissez-faire. As plataformas, em regra, não se responsabilizariam pelo conteúdo compartilhado por seus usuários, desde que adotassem medidas

“adequadas” em casos de notificações. Do mesmo modo, não há qualquer obrigação de transparência por parte delas, tratando-se de atuação voluntária das empresas192.

Em razão disso, muitas das recentes medidas adotadas com o intuito de atender aos anseios da mídia e da população por uma maior transparência na atuação dessas empresas acabam por ser tomadas apenas para o público, sem uma mudança real dentro da operação dessas plataformas.

Seguindo esta linha, que perpassaria alterações despretensiosas e abrangentes, diferentes níveis de ações poderiam ser adotadas por própria iniciativa das plataformas para, de alguma forma, minimizar as possíveis consequências de decisões de controle de conteúdo, tais como um maior número de moderadores humanos, capazes de tomar decisões sobre assuntos complexos; maior diversidade entre os moderadores e os programadores das empresas; auditorias internas e/ou independentes; softwares mais avançados, dentre outras medidas.

Essas medidas gerais, embora possam trazer alguma adequação positiva, quando é tomada como base a realidade atual, não objetivariam enfrentar integralmente os problemas ora trazidos pelo contexto atual de moderação de conteúdo, especialmente quando é considerada a importância das redes e o papel desempenhado por elas nas diversas esferas da vida dos indivíduos. Aliás, tais ações não enfrentariam pontos centrais que são colocados no cerne das discussões da moderação e das Big Techs.

191 Ibidem, p. 51-52.

192 GORWA, Robert. What is Platform Governance?, cit., p. 12-13.

Algumas dessas refletem o próprio cenário da sociedade atual e as desigualdades nele presentes, trazendo consequências para o controle de conteúdo e, por consequência, para o próprio entendimento e construção dos indivíduos, conforme abordado anteriormente. Isso porque, entre as big techs que dominam a área, as posições são, majoritariamente, ocupadas por brancos e asiáticos, em uma cultura de manutenção de poder e de ausência de diversidade real. É possível perceber tal fato a partir de dados publicados pelas próprias empresas, que ainda em 2019 mostrava a Apple como o estabelecimento com o maior número de funcionários negros com apenas 9%, contra 3,9% do Facebook e números ainda menores em relação a indígenas, conforme gráficos193:

Figura 2 – Gráfico sobre o percentual de representatividade nas BigTechs

Fonte: VITORIO, Tamires. A desigualdade em números: brancos ainda são maioria nas big techs.

Exame, [s.l.], 20 nov. 2020. Disponível em: https://exame.com/tecnologia/a-desigualdade-em-numeros-brancos-ainda-sao-maioria-nas-big-techs/. Acesso em: 13 jul. 2022, s.p.

Por sua vez, em pesquisa realizada no Brasil pela PretaLab em parceria com a ThoutWorks sobre o mercado de trabalho na área de tecnologia no país, verificou-se que 21,21% dos participantes responderam que, em suas equipes, não há nenhuma mulher, enquanto 62,1% afirmaram não trabalhar com nenhuma mãe e outros 32,7% disseram não ter nenhuma pessoa negra na equipe. Por sua vez,

193 VITORIO, Tamires. A desigualdade em números: brancos ainda são maioria nas big techs.

Exame, [s.l.], 20 nov. 2020. Disponível em: https://exame.com/tecnologia/a-desigualdade-em-numeros-brancos-ainda-sao-maioria-nas-big-techs/. Acesso em: 13 jul. 2022, s.p.

77,1% disseram que um máximo de 10% das equipes declara orientação diferente de heterossexual194.

Analisar tais números coloca em perspectiva a disparidade de visibilidade de diferentes comunidades e setores no âmbito da área de tecnologia. E, em que pese não se busque na presente pesquisa discutir as razões histórico-culturais que trazem tal resultado, não há como não questionar as raízes de tal problema e quais movimentos estão sendo promovidos para alterar o presente cenário.

Além das consequências previamente discutidas de uma equipe pouco diversa, referente a uma possível infraestrutura que seja distorcida com base na homogeneidade, há ainda a realidade da ausência de reconhecimento entre aqueles que usam a plataforma e aqueles que estão por detrás dela. A partir disso, é possível inferir uma afetação direta quanto aos contornos da narrativa. Ao trazer esta ausência de diversidade sob diversas perspectivas, de gênero, de sexualidade, de etnias, de culturas, dentre outros, o que se coloca não é uma solução a todos os problemas de controle de conteúdo que se relacionam a tais pontos, mas, sim, o fato de que uma equipe diversa, que represente a sociedade, poderá avaliar os problemas de moderação de diferentes perspectivas, de modo a intervir em casos que sejam necessários195.

Abordando tais pontos, Luca Belli e Jamila Venturini discorrem sobre um número de medidas que, a partir de suas pesquisas, serviriam como base para o fortalecimento da responsabilidade social das plataformas, indo além da perspectiva inicial e se valendo de propostas a serem adotadas pelos Estados com o intuito de concretizar tal objetivo196:

194 PRETALAB; THOUGHTWORKS. #Quemcodabr. [S.l.]: PretaLab; ThoughtsWorks, 2017.

Disponível em:

https://assets-global.website-files.com/5b05e2e1bfcfaa4f92e2ac3a/5d671881e1161a6d2b8eb78b_Pesquisa%20QuemCodaBR.

pdf. Acesso em: 13 jul. 2022.

195 GILLESPIE, Tarleton. Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media, cit., p. 202.

196 Tradução livre. No original: “First, intermediaries should explicitly declare their commitment to the full respect of users’ fundamental right. Second, intermediaries should undertake due diligence process, aimed at assessing the impact that their ToS as well as their algorithmic implementation may have on users’ rights. Third, they should state in a clear and transparent fashion what kind of restriction they intend to apply in their networks or platforms, so that all stakeholders may have a concrete possibility to assess whether such restrictions are in full compliance with existing human rights standard and eventually challenge any undue restrictions. Fourth, national regulators should implement them in order to assess the conformity of the intermediaries’ private ordering to the national law and international human rights standards. Lastly, intermediaries should play an active role in the promotion of due process, notifying users if any ToS changes occur, particularly when such changes affect users’ rights and obligations, facilitating access to justice and complementing access to traditional court systems with alternative dispute resolution mechanisms” (BELLI, Luca;

Primeiramente, intermediários deveriam explicitamente declarar o compromisso deles a respeitar integralmente os direitos fundamentais dos usuários. Em segundo lugar, intermediários deveriam ser submetidos a processos de due diligence direcionados a avaliar o impacto de seus termos de serviço, assim como os seus algoritmos podem ter nos direitos dos usuários. Em terceiro lugar, eles deveriam declarar de modo claro e transparente quais restrições pretendem aplicar em suas redes ou plataformas, de modo que todos os stakeholders possam ter possibilidade concreta de avaliar se tais restrições estão em conformidade com os padrões de direitos humanos existentes e, eventualmente, contestar alguma restrição inadequada. Em quarto lugar, reguladores nacionais deveriam ter o direito de rever, a qualquer tempo, os termos de serviço, assim como qualquer meio técnico utilizado para implementá-los, de forma a verificar a conformidade das normas dos intermediários privados com as leis nacionais e os padrões de direitos humanos internacionais. Por último, intermediários deveriam desempenhar um papel ativo na promoção do devido processo, notificando usuários no caso de qualquer alteração dos termos de serviço, particularmente quando essa mudança afetar os direitos e obrigações dos usuários, de modo a facilitar o acesso deles à justiça e complementando seu acesso a modos tradicionais do sistema jurídico com meios alternativos de resolução de conflito.

Tomando como ponto de partida tais medidas, cabe pontuar algumas que, a partir dos estudos realizados, mostram-se importantes para que ocorra uma ampliação das discussões sobre controle de conteúdo, de modo a buscar minimizar os efeitos dele no âmbito do self ou, ainda, limitar tais consequências aos casos que se prestem a uma discussão democrática.

Dentre as principais ações a serem adotadas pelas plataformas há a necessidade de que essas passem a adotar um comportamento que busque ser deliberadamente transparente. Ou seja, mais do que apenas a informação de dados genéricos, como o que se verifica hoje – quando se verifica –, com o intuito de proporcionar uma moderação de fácil compreensão, as empresas deveriam buscar deixar as informações visíveis e de modo legível para seus usuários, de modo que eles possam saber claramente as razões que teriam causado possíveis decisões de controle de conteúdo a ele relacionados197.

A adoção de um comportamento transparente pelas plataformas proporciona aos indivíduos não apenas a possibilidade de poderem contestar tais decisões por serem, então, dotados das informações que embasaram tais decisões, mas também de tornar tais empresas responsáveis por comportamentos que considerem

VENTURINI, Jamila. Private ordering and the rise of terms of service as cyber-regulation, cit., p.

12).

197 GILLESPIE, Tarleton. Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media, cit., p. 199.

arbitrários ou enviesados198. Tudo porque, a partir de um comportamento de abertura radical há o afastamento do ideal de neutralidade de tais empresas e, também, até certa medida, do efeito de caixa preta em relação aos algoritmos. Até porque não há como falar em uma evolução efetiva nas discussões sobre transparência algorítmica ou, ainda, sobre a maneira mais adequada e democrática de adotar tal tecnologia nos diferentes âmbitos da sociedade, quando não é possível ter informações acessíveis sobre pontos simples a ela relacionados.

Essa providência, em que pese se mostre importante para a evolução do cenário da governança de conteúdo, pode enfrentar empecilhos por parte das próprias plataformas, que entendem que ela poderia colocar em perigo os próprios segredos de negócio da empresa, com possíveis riscos a sua base de usuários.

Apesar de tal receio ser reconhecido, o tratamento de modo absoluto não se mostra adequado à medida que diferentes soluções poderiam ser consideradas para mitigá-lo, tais como a publicação de dados de modo global e não granular. Isso porque a transparência almejada pode seja atingida sem que isso signifique uma abertura do código fonte das empresas, de modo que diferentes objetivos sejam alcançados de modo concomitante, sem que haja divergência entre eles.

Isto impediria um tratamento pormenorizado por eventuais concorrentes da empresa ou, até mesmo, seu envio para instituições de pesquisa reconhecidas e que são responsabilizadas por seu processamento e posterior publicação de informações pontuais, as quais sejam importantes para o conhecimento dos usuários, da população civil e acadêmica199.

Semelhante sugestão de aprimoramento para o controle de conteúdo, que se relaciona diretamente com a interação das plataformas e da contribuição de seus usuários nas práticas de moderação, é a de possibilitar uma portabilidade dos dados daquilo que é sinalizado como conteúdo inapropriado pelos indivíduos. Isso partiria da premissa de que grande parte dos indivíduos seriam usuários de mais de uma plataforma, de modo que, ao expressar suas preferências em uma delas, seja em relação a um conteúdo que considerem inadequado, seja ao bloquear outro usuário por algum tipo de perseguição online ou por marcar um anúncio como impróprio, faria sentido que tal informação fosse igualmente considerada em outras plataformas, especialmente quando se tem em conta que a atividade de flagging (ou

198 LANGVARDT, Kyle. Regulating Online Content Moderation, cit., p. 1383.

199 Ibidem, p. 1384.

de sinalização) de conteúdo, que beneficia a moderação das plataformas, é realizada em benefício de tais empresas200.

É possível, inclusive, traçar um paralelo entre tal proposta e o direito à portabilidade dos dados pessoais, o qual é trazido na Lei Geral de Proteção de Dados (Lei n.º 13.709/18), em seu artigo 18, inciso V201, por meio do qual, a requerimento dos titulares de dados, o controlador deve fornecer a outro prestador de serviços os dados pessoais daquele indivíduo, os quais estão sob sua posse.

Apesar de que, quando se discute controle de conteúdo no sentido amplo, não necessariamente se trata de dados pessoais, a possibilidade e o próprio direito à portabilidade são intimamente ligados às ações do próprio indivíduo em sua atuação online.

Considerando o cenário competitivo das plataformas, que objetivam sobretudo a fidelização de seus usuários, é possível conceber uma contrariedade ao colaborar umas com as outras. Entretanto, para que haja uma evolução no cenário do controle de conteúdo narrado, um esforço multissetorial e transnacional é necessário pelas diferentes esferas da sociedade.

Indo para um extremo oposto e, em resposta aos escândalos relacionados às relações públicas e a violações de privacidade perpetradas por tais empresas, alguns estudiosos da área começaram a sustentar a necessidade de uma maior intervenção governamental no âmbito das plataformas. A partir disso, Robert Gorwa afirma que a intervenção governamental poderia ser catalisada em três diferentes níveis, sendo eles “a implementação de regulações compreensíveis de privacidade e proteção de dados, o repúdio à proteção de responsabilidades dos intermediários e o uso de legislação sobre concorrência e monopólio”202.

Ações como essas podem ser percebidas a partir de diferentes níveis de intervenções estatais desde a aplicação de multas por órgãos que buscam

200 GILLESPIE, Tarleton. Custodians of the Internet: Platforms, content moderation, and the hidden decisions that shape social media, cit., p. 200.

201 “Art. 18. O titular dos dados pessoais tem direito a obter do controlador, em relação aos dados do titular por ele tratados, a qualquer momento e mediante requisição:

[...]

V - portabilidade dos dados a outro fornecedor de serviço ou produto, mediante requisição expressa, de acordo com a regulamentação da autoridade nacional, observados os segredos comercial e industrial” (BRASIL. Lei nº 14.020, de 6 de julho de 2020. Brasília, DF: Presidência da República, [2020]. Disponível em:

https://www.planalto.gov.br/ccivil_03/_ato2019-2022/2020/lei/l14020.htm. Acesso em: 13 jul. 2022, s.p.).

202 Tradução livre. No original: “the implementation of comprehensive privacy and data protection regularion, the repudiation of intermediary liability protections, and the use of competition and monopoly law” (GORWA, Robert. What is Platform Governance?, cit., p. 14).

Documentos relacionados