• Nenhum resultado encontrado

5. APRESENTAÇÃO E DISCUSSÃO DOS RESULTADOS

5.3. T ECNOLOGIA EM USO

5.3.1. Ordem natural da tecnologia em uso

No cenário experimental o computador é reconfigurado para uma função epistémica:

“Portanto nessa altura a utilização era directamente para cálculo, portanto, para cálculos e para

análise de dados e para ajuste de funções para os dados experimentais, digamos era o único objectivo, primeiro contacto que eu tive com os computadores foi apenas com esse objectivo. […] Portanto foi...o primeiro foi para cálculo, este segundo foi já para aquisição de dados, não é...não me lembro é se, para escrever...isso é que eu não me lembro...eu acho que nessa altura não escrevíamos com computador. [BB6, 00:08:20]

“O que vemos talvez como uma tecnologia de informação é o software que está associado depois ao detector, a parte de aquisição de dados. O detector faz medições, faz medições de grandezas e depois o que é necessário é, do ponto de vista da tecnologia de informação, é haver um sistema, os sistemas

que normalmente são designados por DAQ (Data acquisition) sistemas de aquisição de dados que é um software específico para funcionar com a electrónica associada ao detector, para registar toda...aa..para transformar os impulsos, os sinais dos detectores em informação digital.” [BB4, 00:48:38]

Os dois extractos descrevem, em graus de complexidade diferentes, o lugar do computador e da tecnologia da informação numa experiência, em cenários experimentais diferenciados no tempo. A este nível, os computadores ou a tecnologia da informação são inteiramente determinados pela função de aquisição de dados. O computador como objecto epistémico, reconfigura-se na fase seguinte, a da análise de dados:

“Quando tu estás numa experiência grande, tens todo este software que faz a ana...nós chamamos a

análise dos dados, não é, que é um software que processa estes dados em bruto até teres as grandezas físicas, e depois tens ainda software que te olha para as grandezas físicas e tenta extrair outra informação, não é? Tens vários níveis, tens várias camadas de processamento. Ou seja tens o software que faz o processamento dos dados até chegares a dados...que representem grandezas físicas que é

aquilo que tu queres, não é [...] esta parte do processamento dos dados exige que tu tenhas um

conhecimento aprofundado de como é que é feito o teu detector, exactamente como é que....precisas de saber os detalhes, para precisamente poderes depois representar […] o desempenho do detector, a resposta do detector, para voltares para trás. Portanto tens que voltar para trás, e isso exige pessoas que tenham um conhecimento mais aprofundado do funcionamento, etc., até que chegas a um nível que consegues já ter informação que é informação que já está...que é mais facilmente percebível por

todas as pessoas da colaboração e portanto aí, já podes tu entrar com o teu software, que tu próprio

desenvolves. Portanto, há um nível que é feito pelos especialistas, e depois há um nível que já é o

utilizador, mas isto tudo no centro da colaboração. Mas depois já, digamos, já são variáveis mais

normais, entre aspas, já não exige… já são grandezas físicas, já não exige saber exactamente qual foi o detector que as detectou, quando eu falo da energia da partícula ou da direcção estou a falar de grandezas que já não têm a ver com o facto de eu ter aqui um telescópio a,b ou c. Mas posso ainda...agora posso fazer tudo o que eu quiser com estas grandezas ou, um nível intermédio, eu posso

também deixar que haja uma parte do processamento dos dados que seja feita pelos tais programas

especializados para isso, e depois a um certo nível achar: “-Ah, mas aqui eu tenho uma ideia melhor ou acho que posso acrescentar qualquer coisa”, portanto posso agora tentar enfiar aqui o meu programa que daqui para a frente vai tomar conta do processamento dos dados. Claro que a certo nível se eu mostrar que este está a funcionar melhor que o outro, passa a ser o novo standard por exemplo, não é, ou posso apenas intervir já a um nível em que é apenas a, digamos, olhar para as variáveis mais físicas.” [AC.11, 00:58:52 a 01:02:05]

À medida que os computadores entendidos como software se apresentam a todos os níveis do processamento de dados, a interconexão entre os computadores e as tarefas dos físicos aumenta substancialmente, sendo que a sua identidade “Físico de

Software” é mesmo redefinida à luz desse relacionamento progressivamente mais estreito (cf. Excerto [D24,00:19:38] transcrito nas pp. 120 e 121).

Os computadores e a tecnologia da informação são peças essenciais na aquisição e processamento de dados:

Figura 11 Processo de geração de informação [BA3]

A figura tem a particularidade de sugerir a interligação do processo físico, com o instrumento principal, com os repositórios de dados, e com o acesso feito através de um terminal. Encontrámos nestes relatos um idioma essencialmente performativo, o computador é visto como ferramenta. Há um patamar de ferramentas comuns entre diferentes experiências (Root, Geant4) mas depois cada experiência tem o seu próprio código e software específico para fazer a reconstrução dos dados. As ferramentas têm nomes próprios, mas que habitualmente não eram mencionados. Isso também significa que a cada experiência nova a pessoa tem de aprender novas ferramentas. Este tipo de aprendizagem cíclica, referida pelos investigadores como natural, assume uma característica particular, a de ser uma aprendizagem pragmática:

“Q: De que forma é que aprendeste?

R: Pela prática. Não está documentado, está muito mal documentado, e obviamente essencialmente muitas vezes tínhamos que ir ao gabinete das pessoas que desenvolveram e perguntar-lhes por que é que isto é assim e como é que se utiliza, ou então, com colegas que têm mais experiência como é que eles utilizam e o que é que eu posso usar. Como não está documentado existem uma série de ferramentas que estão lá e tu não sabes para o que é que servem e qual é que hás-de escolher para

fazeres o que te interessa e pronto muitas vezes os colegas mais experientes acabam por te guiar. […] Para aí 75% não conheço bem, mas os 25% que usei são suficientes. [BD32,00:23:56]”

Para além da aprendizagem feita no contexto de cada experiência, houve também uma transição entre linguagens de programação que foi referida pela maioria dos entrevistados assumindo os contornos de uma transição paradigmática:

“Portanto, uma mais genérica eu acho que foi a transição mais complicada que muitos de nós já tivemos,...pelo menos as pessoas mais ou menos da minha idade que foi, nós começámos sempre a programar por Fortran, durante muitos anos foi isso que fizemos e depois foi a mudança para o C++ e para uma coisa object-oriented e...que foi uma transição brutal, o Fortran é uma coisa que quase não é preciso aprender aquilo é uma linguagem...lê-se e percebe-se. O nível de estruturação não é assim muito grande portanto a pessoa rapidamente... é uma coisa que se aprende na prática, a pessoa chega cá, não sabe Fortran, eu não sabia quase nada, mas aos poucos olhando para os programas dos outros e com um bocado de ajuda...num instante a pessoa começa a conseguir fazer as suas coisas, o C++é muuito mais complicado, também é muito mais poderoso, mas para nós, foi uma coisa que durante uns anos quase nos bloqueou, porque a programação para nós não é um objectivo, é um meio, e então de repente tens uma ferramenta, pode ser boa ou má, mas dominas aquela ferramenta e consegues fazer tudo o que queres e de repente tens que fazer as coisas com uma ferramenta completamente nova que é hostil, porque aquilo custa muito a entrar nas coisas, portanto, se calhar foi a sensação mesmo de andar...de cavalo para burro eu conseguia fazer tudo e agora de repente parece que não consigo fazer nada. [AA15,00:44:27]

A associação entre a complexidade do software e o poder ou capacidade que confere de alcançar soluções não é aceite de igual forma por todos:

“Mas eu acho que às vezes é um falso paradigma dizer sempre: Ah! a ferramenta nova é que é boa para resolver o problema!”- isso eu também não concordo, porque acho que a ferramenta antiga pode ser tão boa como a nova, pode ser menos eficiente, mas quer dizer […]a primeira coisa é rentabilidade e rentabilidade é se eu souber uma coisa e soubê-la bem, sou capaz de resolvê-la mais rapidamente, porquê mudar? Esse é o problema das pessoas, porquê mudar? Só porque está mais na moda, fazer determinado tipo de conceito...?Mas esse é um problema, de vasta discussão.[AA14, 00:40:52]

Duas versões do processo de aprendizagem nos são referidas. A primeira enfatiza a ruptura:

“Achava que as pessoas com aquilo que aprenderam deveriam ser mais capazes de abordar as novas linguagens seja o que for. O que já não me parece verdade. Às vezes é um handicap saber determinada fórmula para outra porque ela é um corte, fez um corte completamente com aquela filosofia, é uma outra e isso é terrível para as pessoas porque significa que[…]você tenha na sua vida

um período em que […] tem que ter capacidade para essa aprendizagem, porquê, o que é que isso quer dizer? Momentos de não saber fazer, momentos de aprendizagem em que você não é capaz de fazer.” [AA14, 00:39:08]

A segunda, retira o processo de aprendizagem e utilização de um terreno informático (que seria hostil, estranho), comparando-o com a experiência vivida de ter de falar várias línguas num determinado contexto:

“[…]Elas [as linguagens C e C++]são relativamente parecidas e para nós é quase como se fosse a mesma coisa, acho eu, mas de repente uma tem que se pôr ponto e vírgula no final das frases e na outra tem que se deixar uns espaços antes e às vezes começo a baralhar aquilo tudo. Mas para mim é um bocadinho como o que me acontecia quando estava a trabalhar em Barcelona que era estar a falar em espanhol e depois, logo a seguir, em português ao telefone e depois logo a seguir em inglês e às tantas baralhava aquilo é [… ]o mesmo na programação. Quer dizer, não tive assim uma coisa traumática… também não sou suficientemente boa programadora para ver se me abriu um mar de oportunidades com o C++. “Ah esta dá muito mais liberdade…” Lá está, é a minha relação com os computadores e com a programação é uma ferramenta, eu quero fazer isto, como é que se faz isto? Não quero, não fico muito fascinada pelas grandes possibilidades. Às vezes fico contente quando descubro que dá para fazer uma coisa qualquer. Não sou muito sensível.” [AA20, 58.05]

Uma questão final foi colocada tendo em conta a possibilidade de que esta ordem digital em que o objecto de estudo se inscreve esteja a reontologizá-lo. A Grid, por exemplo, assume- se como lugar de práticas, relativas ao processamento de dados. A Grid permite que o poder computacional de processamento se torne também partilhado. Os físicos utilizam-na para fazer correr os seus programas de análise sobre largos conjuntos de dados (os chamados jobs), com a vantagem de terem acesso a uma rede de computadores muito maior do que a farm disponível no LIP. Na sua descrição da utilização da Grid um estudante revelou aplicar um procedimento “laboratorial”: primeiro testa uma pequena amostra, para depois lançar o job completo. Outro dos estudantes de doutoramento sublinha-nos que deixou de ser um exercício académico, com uma solução garantida. O trabalho é feito no limite do conhecimento, não se sabe se uma tarefa vai surtir efeito, vai fazer avançar a investigação, mas, por não se poder desperdiçar recursos, convém pensar muito bem no que se vai fazer antes de o fazer.

Para um dos investigadores a Grid era também o sinal de uma virtualização do objecto de estudo, sem que no entanto, se perdesse a conexão entre esse objecto e a natureza:

“Eu penso que é também o sinal que trabalhamos com dados virtuais. A Grid é desenvolvida para analisar dados virtuais. Ok, não são virtuais no sentido de que realmente existem, mas não há nada…bem não são objectos físicos […]Finalmente há uma comparação entre dados simulados e

dados reais e quando há um acordo, podemos dizer alguma coisa sobre a Física, sobre a Natureza” [BD33, 00:42:17 – 00:15:28]

Por outro lado, do ponto de vista da simulação:

“E depois tens também, pronto mas obviamente aquilo que tu detectas passa pelos detectores, portanto tu tens de ter a simulação da resposta dos detectores, e aí tentas, ou seja, tu tentas reproduzir no computador tanto quanto possível o teu set-up experimental de uma forma virtual. Tentas ter uma nova experiência entre aspas virtual, em que tens, quer a física propriamente dita, da tua interacção, do que for, quer dos detectores. E portanto o que tu fazes é ao nível da simulação dos detectores tentas descrever tanto quanto possível, tanto quanto sabes, tu devias saber tudo sobre o detector, és tu que o constróis, não é.” [AC11, 00.09.33]

Apesar disso, no âmbito das actividades de investigação o computador é tratado essencialmente como ferramenta (“faz o trabalho de sapa que não devem ser os humanos a fazer”[AA17], “permite o tratamento de grandes quantidades de dados”, superar os limites do cálculo na simulação de realidades complexas, “aumentas os meios, mas também aumentas a ambição”[AA1]). O seu valor depende em grande medida da sua disposição numa rede, por tornar possível a transferência de dados, o trabalho à distância, e é tanto mais importante quanto maior a distância.

Documentos relacionados