• Nenhum resultado encontrado

No desenvolvimento de um novo método analítico faz-se necessário a garantia de que as informações geradas através desse método sejam confiáveis e interpretáveis. Para tal, o método pode ser submetido a um processo de avalição denominado validação. Existem diferentes definições para o termo validação e vários artigos e revisões têm sido publicadas a respeito de validação de métodos analíticos (RAMBLA ALEGRE et al., 2012). RIBANI e colaboradores (2004) citam dois tipos diferentes de validação, o primeiro, chamado de validação no laboratório ("in house validation"), o qual consiste de etapas de validação em um mesmo laboratório e é mais aplicado para as etapas preliminares do desenvolvimento de uma nova metodologia e na publicação de artigos científicos. O segundo tipo de validação é denominado validação completa, o qual envolve um estudo interlaboratorial que é utilizado para verificar como a metodologia se comporta com uma determinada matriz em vários laboratórios. Somente aplicando uma validação completa a metodologia pode ser aceita como uma metodologia oficial para uma determinada aplicação.

No Brasil, há duas agências credenciadoras para a verificação da competência de laboratórios de ensaios, a ANVISA (Agência Nacional de Vigilância Sanitária) e o INMETRO (Instituto Nacional de Metrologia, Normalização e Qualidade Industrial. Os órgãos internacionais também dispõem de guias como a IUPAC (International Union of

Pure and Applied Chemistry) (THOMPSON; ELLISON; WOOD, 2002) e SANTE (2015).

Independente dos parâmetros de validação a serem seguidos, é essencial que os estudos de validação sejam representativos e conduzidos de modo que a variação da faixa de concentração e os tipos de amostras sejam adequados. Um método para um composto majoritário requer um critério de aceitação e uma abordagem diferente de um método desenvolvido para análise de traços. A frequência com que o método será utilizado (muitas vezes em um dia, uma vez em um dia para um estudo rápido, uma vez em um mês etc) também influencia o tipo de estudo de validação que é necessário.

Os parâmetros analíticos normalmente evolvidos nos processos de validação de métodos de separação são: seletividade; linearidade e faixa de aplicação; precisão; exatidão; limite de detecção; limite de quantificação e robustez.

2.8.1 Seletividade

Seletividade de um método analítico é a capacidade de avaliar um analito de maneira inequívoca mesmo estando este na presença de outras substâncias que possam atuar como interferentes (RIBANI et al., 2004). Uma das maneiras mais comuns de avaliar a seletividade é através da comparação da matriz isenta do analito de interesse com a matriz adicionada deste mesmo analito (padrão). Uma outra maneira de avaliar a seletividade inclui a utilização de detectores modernos como o espectrômetro de massas, nesse caso o espectro gerado pelo composto é utilizado para a identificação.

2.8.2 Curva analítica e linearidade

É a capacidade de um método analítico de demonstrar que os resultados obtidos são diretamente proporcionais a concentração do analito na amostra, dentro de um intervalo especificado (RIBANI et al., 2004). Uma maneira de avaliar essa proporcionalidade é através da correlação entre o sinal medido (área ou altura do pico) e a massa ou concentração do analito utilizando uma relação matemática conhecida como regressão linear. Essa relação matemática, muitas vezes, pode ser expressa como uma equação da reta chama de curva analítica. A equação da reta pode ser do tipo y = ax + b, onde: (y = resposta medida (área do pico); x = concentração, a = coeficiente angular - inclinação da curva analítica = sensibilidade e b = coeficiente linear - interseção com o eixo y, quando x = 0. É aceito pela ANVISA um coeficiente de correlação de 0,99 (ANVISA, 2003). Em qualquer técnica instrumental, a relação linear simples, descrita acima, só é válida em um determinado intervalo de massa ou concentração da espécie medida. Este intervalo de massas ou concentrações, no qual se pode construir uma curva analítica linear, é a faixa linear dinâmica (INMETRO, 2011).

2.8.3 Efeito matriz

De maneira geral, na cromatografia efeito matriz pode ser definido como o um aumento ou diminuição na resposta do detector na presença do analito no extrato da matriz comparado com o mesmo analito presente em solvente orgânico. Esse efeito pode ocorrer tanto na cromatografia liquida quando na gasosa de maneiras distintas (SOUSA et

mais pronunciada ambos associados a eficiência da ionização por eletronebulização. O primeiro está relacionado a uma alteração nas propriedades das gotas formadas no spray devido a presença da matriz. O segundo efeito, diz respeito a perda na eficiência de ionização do analito uma vez que, compostos presentes na matriz estariam competindo pela ionização (KRUVE et al., 2008). O efeito matriz na cromatografia a gás pode ocorrer em diferentes partes do sistema cromatográfico como por exemplo, no injetor, coluna ou detector. No injetor a presença da matriz pode alterar a interação entre o analito e os sítios ativos do liner. Além disso, compostos como pigmentos, lipídios e outros compostos de alto peso molecular causam alteração na interação do analito com o restante do sistema cromatográfico. O efeito matriz, tanto na cromatografia liquida quando na gasosa, pode causar supressão ou aumento do sinal analítico. Um efeito muito comum na cromatografia a gás ocorre quando a matriz interage com os sítios ativos do sistema preferencialmente ao analito. Desta forma, a matriz atua como protetora do analito gerando um aumento no sinal cromatográfico do mesmo (RAHMAN et al., 2013). O efeito de matriz é dependente das propriedades físico-química dos analitos e das características dos componentes da matriz e pode ser estimada por meio de cálculos. Não existem maneiras de eliminar o efeito de matriz, entretanto, a literatura reporta diversas estratégias para compensá-lo na quantificação dos analitos. Uma das estratégias mais adotadas é a construção da curva analítica de calibração no próprio extrato da matriz (ZROSTL KOV et al., 2002).

2.8.4 Limites de detecção e quantificação

O limite de detecção (LOD, do inglês limit of detection) representa a menor concentração da substância em análise que pode ser detectada, mas não necessariamente quantificada, utilizando um determinado procedimento experimental. Já o limite de quantificação (LOQ, do inglês limit of quantification) representa a menor concentração da substância em exame que pode ser medida, com um grau aceitável de confiança, utilizando um determinado procedimento experimental. Existem diversas formas de se calcular o LOD e o LOQ, pelo método visual, pelo método relação sinal- ruído ou, pelo método baseado em parâmetros da curva analítica. O método mais utilizado e o da relação sinal-ruído, porem em técnicas analíticas de separação, como as cromatográficas, a medição do ruído e as vezes subjetiva, uma vez que a curva analítica e construída a partir do valor das áreas dos picos e não a partir da altura dos picos.

Assim, e importante utilizar o método baseado nos parâmetros da curva analítica, que e estatisticamente mais confiável (RIBANI et al., 2004).

2.8.5 Precisão

Segundo LANÇAS (2004), a precisão expressa o grau de dispersão entre uma série de medidas obtidas a partir de ensaios múltiplos para uma mesma amostra, podendo ser estabelecida através da repetibilidade, reprodutibilidade e precisão intermediária, ou seja, nas mesmas condições operacionais e mudando um ou mais fatores, respectivamente. A repetibilidade representa a concordância entre os resultados de medições sucessivas de um mesmo método, efetuadas sob as mesmas condições de medição: procedimento; observador; instrumento usado sob mesmas condições; local, e repetições no menor espaço de tempo possível (RIBANI et al., 2004; INMETRO, 2011). Precisão intermediaria tem por objetivo verificar que no mesmo laboratório o método fornecera os mesmos resultados. Refere-se aos resultados dos estudos de colaboração entre laboratórios (interlaboratorial) e deve ser considerada em situações como a padronização de procedimentos analíticos (RIBANI et al., 2004; INMETRO, 2011). Para métodos empregados em nível de análise de traços ou impurezas, valores de desvio padrão relativo de até 20% são aceitos, dependendo da complexidade da amostra (SANTE, 2015).

2.8.6 Exatidão

A exatidão de método representa o grau de concordância entre os resultados individuais encontrados em um determinado ensaio é um valor de referência aceito como verdadeiro (RIBANI et al., 2004). Os processos mais utilizados para avaliar a exatidão de um método são: materiais de referência, comparação de métodos, ensaios de recuperação e adição padrão. Normalmente, na indisponibilidade de materiais de referência certificados, a exatidão pode ser avaliada através dos ensaios de fortificação e recuperação (INMETRO, 2011). Valores aceitos de recuperação para a análise de substâncias a nível de traços estão na faixa de 70 a 120%, com precisão de até ± 20%. Entretanto, dependendo da complexidade analítica e da amostra, este valor pode ser de 50 a 120%, com precisão de até ± 15% (SANTE, 2015).

3 MATERIAIS E MÉTODOS

Este trabalho foi desenvolvido no Laboratório de Análise de Resíduos de pesticidas (LARP) do Departamento de Química da Universidade Federal de Santa Maria.