• Nenhum resultado encontrado

Jornalismo Computacional para “hackear” processos

No documento Download/Open (páginas 88-98)

Capítulo III – INOVAÇÃO JORNALÍSTICA

3.2 Jornalismo Computacional para “hackear” processos

Em suas entrelinhas, a pesquisa da Ryct/Cyted, mencionada no princípio deste trabalho (na qual menos de 3% dos entrevistados esperam atuar nas áreas das Ciências Exatas ou Naturais78), revela uma percepção acerca de uma pretensa “facilidade” das Ciências Sociais. Não é muito diferente do que se vê, por exemplo, no ensino e na prática do Jornalismo, em que o entendimento sobre o funcionamento dos sistemas tecnológicos que suportam a mídia é relegado a um plano secundário.

Não é novidade que, desde os primórdios da evolução tecnológica, a atividade jornalística tem sido impactada constantemente pelas introduções de novas formas de produção e distribuição de conteúdo de relevância social. Contudo, no campo do Jornalismo, somente agora existe uma percepção da importância de entender como as tecnologias modificam ou modificarão os modos do fazer e consumir jornalismo (LIMA JUNIOR, 2011, p. 47).

O “agora” citado pelo pesquisador diz respeito ao resultado de uma ideia implantada ao final dos anos 1990 pelo físico britânico Tim Berners-Lee. Assim, uma vez que alguém, em qualquer lugar, disponibilizasse um documento, este poderia ser acessível a qualquer pessoa, em qualquer tipo de computador, sendo possível ainda fazer uma referência – um link – a esse item para que outros pudessem encontrá-lo.

Ainda que tenha sido implantada por uma única pessoa, a gênese da Web envolve muitas mentes com sonhos em comum. O britânico bebeu das ideias de Vannevar Bush, bem como das ideias de Ted Nelson – que criou a expressão “hipertexto” em 1965 –, de Paul Baran – idealizador do modelo de rede distribuída que deu origem à internet – e de Vint Cerf – que programou o protocolo TCP/IP, permitindo a qualquer dispositivo computacional, outrora incompatível, conectar-se a essa rede (BERNERS-LEE, 2000).

Mesmo carregada de expectativa a partir da lógica da Web de Dados – cujas contribuições remetem ainda à Teoria dos Grafos, a descrições lógicas, inteligência artificial e outras tecnologias e filosofias fundamentais (HEBELER et al., 2009, p. 25), sua construção permanece coletiva, baseada em regras e códigos simples, mas que adquiriram ares de complexidade diante das múltiplas apropriações. Esse conjunto de dados acumulados a cada instante por serviços públicos, portais de transparência governamentais, sites de relacionamento (como o Facebook ou Twitter)

78

ou mesmo repositórios documentais controversos como o WikiLeaks compõe um lugar cujo tamanho vai além da habilidade comum em capturar, gerenciar e analisar, dando origem a um fenômeno denominado por cientistas e engenheiros da computação como Big Data (LIMA JUNIOR, 2012, p. 211).

A esse volume de dados soma-se a popularização da Web, bem como o desenvolvimento de interfaces e ferramentas mais amigáveis. Num contexto bem diferente daquele vivenciado por Philip Meyer, aplicações como OpenRefine79 – que permite limpar os dados antes de avançar para análises – ou como o Google Fusion

Tables80 – plataforma para visualização de grandes conjuntos de dados – fazem emergir novos métodos, fontes e caminhos para descobrir, apresentar, personalizar, agregar e arquivar histórias, conectando comunidades com a informação da qual elas precisam. Há casos como o próprio The Guardian, que nos últimos anos se tornou uma plataforma aberta, encorajando o uso e reuso de seus recursos (DANIEL; FLEW, 2010).

Usher e Lewis (2013), que enxergam a prática jornalística com a mesma lente dos códigos-fonte abertos, identificam a inovação sob o prisma da aproximação tecnológica, como a capacidade de repensar ferramentas, culturas e modelos. Os autores propõem uma “reinicialização” (reboot) com alterações nessas estruturas para “produzir notícias de um jeito estruturalmente diferente”. De fato, nos últimos anos, profissionais e pesquisadores se debruçam sobre as novas possibilidades de potencializar os processos jornalísticos, praticamente entendendo-os como um sistema narrativo (BERTOCCHI, 2014).

As dificuldades encontradas pelos adeptos da Reportagem Assistida por Computador, que já exercitavam sua habilidade computacional nos primórdios, tornaram-se oportunidades para que eles potencializem suas técnicas ao longo dos anos a partir da facilidade de acesso a esses e outros softwares apropriados para a mineração e filtragem de dados. Associadas ao uso de técnicas de computação nas redações desde a coleta de dados, à sua curadoria e, finalmente, à sua visualização, tais práticas podem ser sintetizadas no conceito de Jornalismo Computacional:

Com um conjunto de ferramentas para reportagem, um jornalista terá capacidade para digitalizar, transcrever, analisar e visualizar padrões em documentos. A adaptação de algoritmos e tecnologia, combinada com

79

Disponível em: <http://openrefine.org>. Acesso em: 22 out. 2014. 80

ferramentas livres e de código aberto, vai nivelar o campo de jogo entre interesses poderosos e o interesse público, ajudando a descobrir ligações e evidências que podem desencadear investigações. Essas mesmas ferramentas também podem ser usadas por grupos de interesse público e cidadãos preocupados (COHEN; HAMILTON; TURNER, 2011, p. 71, tradução nossa) 81.

O que mais pode ser dito sobre Jornalismo Computacional? “Em última análise, as interações entre os jornalistas, desenvolvedores de software, cientistas da computação e outros estudiosos terão que responder a essa pergunta ao longo dos próximos anos” (TURNER; HAMILTON, 2009, p. 4). Diante desses processos de mudança, cabem ao modelo jornalístico – ou, melhor dizendo, aos profissionais envolvidos – intervenções que apontem novas soluções, modificações, reconfigurações ou reprogramações. Tal mescla entre a prática profissional do jornalista e a cultura do código aberto, com ênfase em fluxos de trabalho em rede para a abordagem complexa de tarefas, faz com que objetos de informação possam ser abstraídos em escala granular – algo sem precedente em um jornalismo pré- computadores (CODDINGTON, 2015).

Metaforicamente – e tomando a mesma lógica observada na digitalização das Ciências Humanas –, é como se os veículos de mídia pudessem ser entendidos como

softwares. Desta forma, seguindo a lógica do “bazar” em oposição à “catedral”,

“hackeá-los” e “abrir seu código-fonte” permitiriam inovações ainda pouco exploradas (MANCINI, 2011, p. 16).

Um novo fenômeno, crucial para essa intersecção entre Jornalismo e Tecnologia, ainda precisa ser examinado substancialmente: a união entre Ciência da Computação e Jornalismo, com programadores assumindo cada vez mais um papel central nas redações e contribuindo para o crescimento de visualização de dados e para o desenvolvimento de softwares, algoritmos de notícias e outros projetos baseados em códigos. Fora dessa mistura, emerge uma nova categoria de profissional: o chamado jornalista- programador – ou “jornalista hacker” (USHER; LEWIS, 2013, p. 603, tradução nossa)82.

81

Versão original: “With a suite of reporting tools, a journalist will be able to scan, transcribe, analyze, and visualize the patterns in these documents. Adaptation of algorithms and technology, rolled into free and open source tools, will level the playing field between powerful interests and the public by helping uncover leads and evidence that can trigger investigations by reporters. These same tools can also be used by public-interest groups and concerned citizens”.

82

Versão original: “A new phenomenon, crucial to this intersection of journalism and technology, has yet to be examined substantially: the fusion of computer science and journalism, as programmers take an increasingly central role in newsrooms and contribute to the growth of data visualizations, software development, news algorithms, and other coding-based projects. Out of this mixing has emerged a new category of journalist: the so-called programmer-journalist, or hacker journalist”.

Assim, um braço do Jornalismo Computacional começou a ser delineado a partir de setembro de 2006, quando Adrian Holovaty publicou em seu blog o texto A

fundamental way newspaper sites need to change83. Lima Junior (2011, p. 51) lembra que o antigo editor de inovações do Washington Post e criador do projeto Chicago

Crime salientou que os jornais precisam mudar sua postura em relação aos dados

armazenados. Ele argumentava que, além da narrativa, a informação jornalística deveria contar com outros dados estruturados, capazes de serem compreendidos por máquinas. Ao apresentar sua proposta para alguns de seus pares, no entanto, o autor encontrava uma postura refratária: a de que, em vez de compartilhar outros dados, os “jornalistas devem escrever reportagens para ajudar pessoas”.

Mais tarde, em 2009, o The Guardian publicou documentos que contemplavam as despesas de parlamentares britânicos, em resposta ao escândalo revelado pelo concorrente The Daily Telegraph. O diário contou com a ajuda dos leitores para identificar os gastos com dinheiro público, num caso que se revelou uma oportunidade para o Jornalismo Digital (DANIEL; FLEW, 2010).

A partir desses e de outros casos, os profissionais participaram de uma conferência, em agosto de 2010, organizada pelo European Journalism Centre, a partir da ação da pesquisadora Liliana Bounegru. O encontro, realizado em Amsterdã, ratificou a expressão Data Journalism, da qual deriva a expressão Data-driven

Journalis84 (DDJ) (GRAY; BOUNEGRU; CHAMBERS, 2012), traduzida para o

português como “Jornalismo Guiado por Dados” (TRÄSEL, 2013). A expressão descreve um conjunto de práticas que usa dados para melhorar as notícias, desde o tratamento, cruzamento e recuperação de dados até a geração de visualizações e infográficos atraentes, independentemente da plataforma a ser publicada.

Num cenário em que sistemas computacionais coexistem com usuários, há a possibilidade de combinar criatividade, conhecimento e tecnologias existentes para inovar produtos ou processos. Diakopoulos (2012) acredita que, quando se trata de inovação jornalística por meio da computação, existem oportunidades negligenciadas. Ele considera que, para estruturar um caminho inovador pautado pelo pensamento computacional, é necessário considerar: (1) quais inovações são necessárias para resolver problemas, atender às necessidades dos usuários a partir de novas

83

Disponível em: <http://www.holovaty.com/writing/fundamental-change>. Acesso em: 22 out. 2014. 84

experiências ou aumentar a eficiência de processos; (2) se a inovação é viável tecnicamente e como fazê-la funcionar; (3) se a solução é compatível, ou seja, se ela se encaixa com os valores dos usuários pretendidos para ser adotada.

O pesquisador mapeou oportunidades e lacunas na relação entre o Jornalismo e o pensamento computacional, elaborando uma matriz. No eixo vertical, apresentou dimensões relevantes da computação e da tecnologia. Já no eixo horizontal, elencou necessidades dos consumidores de notícias, objetivos jornalísticos e processos informativos de valor agregado. O resultado, sintetizado na matriz reproduzida na Figura 3.1, revela maior atenção em pesquisa por mineração de dados, visualização e inteligência artificial – incluindo transformar dados desestruturados em repositórios úteis e de interesse público. Isso revela um dos problemas que mais tomam tempo do jornalista: documentos e fontes manuscritas ou escaneadas como imagens – material do qual costumam emergir as melhores reportagens.

Figura 3.1 – Relação entre as tecnologias computacionais e os objetivos jornalísticos

A matriz apresenta, no entanto, outras oportunidades envolvendo tecnologias pouco exploradas e que podem inspirar inovações na personalização, agregação, visualização e construção de sentido. Entre elas, segundo Cohen, Hamilton e Turner (2011), estão a combinação de variadas fontes digitais; extração, pesquisa e agrupamento de informação; indexação e análise de vídeos e áudios; e a identificação dos assuntos no topo da agenda.

Tanto o Jornalismo quanto a Ciência da Informação se debruçam diante da relação do homem com a informação, bem como diante de sua qualidade e confiabilidade. Diakopoulos (2012, p. 8) cita Robert S. Taylor ao tratar do valor da informação a partir de quatro variáveis: facilidade de uso, redução de ruído, adaptabilidade e qualidade. A inovação pode ser empregada por quem produz notícias para aumentar a eficiência de suas práticas e adicionar valor a essa informação. Paralelamente, instituições e veículos – como o The New York Times, The Washington

Post, Huffington Post e ProPublica – congregam jornalistas e programadores, em

busca de novas alternativas para o Jornalismo.

Mesmo que esse caminho se apresente como uma chance para estabelecer pontes entre as ciências duras e as humanidades, não há como fugir de uma certa “inércia histórica”. Após uma visita ao Chicago Tribune, com acesso a uma variedade de práticas experimentais e inovadoras, os pesquisadores franceses Éric Dagiral e Sylvain Parasie reforçam o distanciamento. “Historicamente, tem sido difícil – ou mesmo impossível – para um jornalista mostrar habilidades técnicas. A conexão entre jornalistas e programadores, questionando as fronteiras entre as duas habilidades, não é tão evidente quanto parece” (DAGIRAL; PARASIE, 2011, p. 145, tradução nossa)85.

O potencial do Jornalismo Computacional pode ser explorado com o aperfeiçoamento de processos de produção e distribuição de notícias, além da busca pela ubiquidade e poder do software – esta última, observada pela mudança no consumo de notícias no mundo digital. A customização de conteúdos de qualidade, por exemplo, é um atributo que atrai potenciais novos leitores (FLEW; SPURGEON; DANIEL, 2011). Outros serviços auxiliam os jornalistas a lidarem com a análise e

85

Versão original: “Une telle démarche ne va pourtant pas de soi si l’on suit l’idée qu’il a été historiquement difficile, sinon impossible, pour un journaliste de mettre en avant ses compétences techniques”.

apresentação de dados estruturados (como o ManyEyes86) ou agrupam documentos públicos como anotações (como o DocumentCloud87 – este, inclusive, criado e mantido por jornalistas do The New York Times e ProPublica). A popularização de formatos de mídia social conectada, capaz de criar conexões sociais colaborativas (tais como mensagens em blogs ou em sites de relacionamento como o Twitter e o

Facebook), também representa bases de dados potencialmente analisáveis (COHEN;

HAMILTON; TURNER, 2011).

Diante dessas possibilidades, a imaginação poderia resultar em um neologismo como “charticles”, artigos que combinem texto, imagem, vídeo e aplicações computacionais em um formato interativo em rede (BERRY, 2011, p. 15).

Com um conjunto de ferramentas para reportagem, um jornalista terá capacidade para digitalizar, transcrever, analisar e visualizar padrões em documentos. A adaptação de algoritmos e de tecnologia combinada com ferramentas livres e de código aberto nivelará o campo de jogo entre interesses poderosos e o interesse público, ajudando a descobrir ligações e evidências que podem desencadear investigações. Essas mesmas ferramentas também podem ser usadas por grupos de interesse público e cidadãos preocupados (COHEN; HAMILTON; TURNER, 2011, p. 71, tradução nosa)88.

Todos os exemplos acima apresentam algum sistema que demanda grande quantidade de dados digitalizados e em volume cada vez maior. Esse fenômeno faz com que cientistas e engenheiros da computação reforcem o discurso: vivemos a “era do Big Data”. Ao citar um exemplo de dados gerados – o site WikiLeaks (já mencionado), que se popularizou ao liberar cerca de 400 mil documentos militares contendo informações sobre a guerra do Iraque e outras conversas diplomáticas –, Lima Junior (2011, p. 50) lembra que essa quantidade de documentos só é representativa se puder ser transformada em informação estruturada e de valor, seja para criar transparência de órgãos governamentais ou até para inovar modelos de negócio.

86

Serviço da IBM que permite organizar e gerar visualizações de dados. Disponível em: <http://www- 958.ibm.com>. Acesso em: 22 out. 2014.

87

Serviço para indexação e inserção de metadados em documentos. Disponível em: <http://www.documentcloud.org>. Acesso em: 22 out. 2014.

88

Versão original: “With a suite of reporting tools, a journalist will be able to scan, transcribe, analyze, and visualize the patterns in these documents. Adaptation of algorithms and technology, rolled into free and open source tools, will level the playing field between powerful interests and the public by helping uncover leads and evidence that can trigger investigations by reporters. These same tools can also be used by public-interest groups and concerned citizens”.

Ainda nessa relação entre linguagem e código-fonte, é possível pensar em produção de informação jornalística da mesma forma que os softwares caracterizados pela filosofia open-source? Usher e Lewis (2013) traçam esse paralelo, lembrando que a postura participativa no desenvolvimento de programas possibilitou reflexões para essa prática. Christopher W. Anderson (2012), jornalista e pesquisador, é um dos autores que procuram equilíbrio diante dessas possibilidades. Ele observa que o uso cada vez maior de sistemas em redações é tratado por muitas instituições educacionais como “o futuro do jornalismo” – observação esta que merece uma visão crítica. Afinal,

o que a tecnologia tira, a tecnologia devolve – apenas diferente, e talvez melhor que antes. Ao menos esta é a história de esperança do Jornalismo Computacional. E os poucos artigos escritos sobre o tema fazem eco a este arco narrativo (ANDERSON, 2012, p. 6, tradução nossa)89.

Para o autor, adotar uma postura meramente internalista no propósito de desenvolver projetos e buscar uma saída para a crise da área pode, de fato, ser útil para a indústria do Jornalismo; em contrapartida, reduz a presença das esferas Política, Economia e Cultural no debate – áreas estas que estão enraizadas nos estudos da Comunicação há décadas e que devem ser adaptadas a essa nova agenda acadêmica.

Como nos estudos de Jornalismo em geral, as pesquisas têm se preocupado principalmente em “construir coisas”:

Em primeiro lugar, essa pesquisa em Jornalismo Computacional tem se preocupado principalmente em compreender a dinâmica das práticas contemporâneas de notícias; em segundo lugar, em projetar ferramentas digitais que podem complementar, criar rotinas ou, algoritmicamente, ampliar o alcance dessas práticas tradicionais (ANDERSON, 2012, p. 4, tradução nossa)90.

89

Versão original: “What technology taketh away, technology giveth – only differently, and perhaps even better than before. Such, at least, is the hopeful story of computational journalism. And the few scholarly articles that have thus far been written about computational journalism generally echo this narrative arc.”

90

Versão original: “The research has, like journalism scholarship in general, been primarily concerned with ‘building things’. This computational journalism research has primarily concerned itself with, first, understanding the dynamics of contemporary news practices and, second, designing digital tools that can supplement, routinize, or algorithmically expand the scope of these traditional practices”.

Dentro desse contexto, o fenômeno do Big Data ocupa uma posição de destaque: em busca de respostas para suas questões, diversos grupos pertencentes a áreas do conhecimento distintas procuram padrões em grandes quantidades de dados. Empresas dos mais variados segmentos se preocupam não apenas em obter mais bases de dados ou em ter capacidade de filtrá-las, mas esperam contar com profissionais capazes de identificar objetivos claros, de elaborar as perguntas certas e enquadrá-las nos melhores indicadores. Não à toa, o posto de Big Data Scientist é considerado “o mais sexy do século XXI”91.

Até por conta dessa amplitude, o termo Big Data merece reflexão. Boyd e Crawford (2012), por exemplo, questionam: qual o limite do “big”, tendo em vista as demonstrações relacionadas a bancos de dados analisados sem a demanda de um supercomputador? Além das questões tecnológicas, as autoras observam um atributo mitológico: “a crença generalizada de que grandes conjuntos de dados oferecem uma forma superior de inteligência e conhecimentos que podem gerar insights impossíveis previamente, com a aura de verdade, objetividade e precisão”.

O questionamento das pesquisadoras (BOYD; CRAWFORD, 2012) é concentrado em seis questionamentos-chave. Será que o Big Data mudará mesmo as definições do conhecimento sem que sua complexidade seja compreendida? As afirmações resultantes da interpretação dos dados não são fruto de um engano metodológico? Até que ponto é vantajoso obter muitos dados – eles são capazes de revelar o que se deseja? Ao reduzir tabelas para fazê-las caberem em um modelo matemático, estaríamos tirando dados do contexto e distorcendo seu significado? Sob o ponto de vista ético, é correto acessar uma base de dados pelo simples fato de ela estar aberta? Por outro lado, restringir o acesso a esses dados significaria criar novas barreiras?

Ainda que a “era do Big Data” esteja apenas começando, as autoras consideram importante questionar seus pressupostos, valores e tendências por meio de observações que compreendem como “óbvias para cientistas sociais, mas que costumam surpreender pesquisadores de outras disciplinas” (BOYD; CRAWFORD, 2012, p. 664, tradução nossa)92. Ou, como parece ser há mais de 50 anos, pesquisadores de “culturas diferentes”. De toda forma, além de ser a “buzzword do

91

Reportagem da revista Harvard Business Review, outubro de 2012. 92

Versão original: “The questions that we ask are hard ones without easy answers, although we also describe different pitfalls that may seem obvious to social scientists but are often surprising to those from different disciplines.”

momento”, Big Data pode ser um bom exemplo para discutir, dentro e fora das organizações, como o Jornalismo se altera sob o viés epistemológico (a ciência do “o

No documento Download/Open (páginas 88-98)