A introdução dos instrumentos de campo “inteligentes” com microprocessadores representou um avanço significativo na instrumentação industrial. Esses dispositivos vêm equipados com diagnósticos integrados, o que significa que podem identificar problemas mais facilmente, oferecem maior precisão graças à correção digital de não linearidades nos sensores e, além disso, são capazes de estabelecer comunicação digital com os sistemas host para reportar uma variedade de parâmetros essenciais. Essas características tornam os instrumentos de campo inteligentes uma escolha valiosa para melhorar o desempenho e a eficiência nos ambientes industriais.
Uma representação simplificada em forma de diagrama de blocos de um transmissor de pressão “inteligente” é semelhante a esta:
É fundamental analisar todos os ajustes desse dispositivo e compará-los com a relativa simplicidade de um transmissor de pressão totalmente analógico. Isso nos permite compreender a complexidade e os benefícios dos transmissores de pressão “inteligentes”, que oferecem uma ampla gama de configurações e recursos avançados em comparação com seus equivalentes analógicos mais simples. Essa comparação é essencial para destacar as vantagens e a versatilidade dos transmissores de pressão inteligentes na instrumentação industrial.
Observe como os únicos ajustes de calibração disponíveis em um transmissor analógico são as configurações “zero” (ou offset) e “span” (ou escala). No entanto, isso não se aplica aos transmissores inteligentes. Com um transmissor inteligente, não apenas podemos definir os valores de faixa inferior (LRV – Lower Range Value) e superior (URV – Upper Range Value), mas também temos a capacidade de calibrar os circuitos de conversão analógico-digital e digital-analógico independentemente um do outro. Para técnicos de calibração, isso significa que o processo de calibração de um transmissor inteligente pode ser mais complexo e envolver mais ajustes em comparação com um transmissor totalmente analógico.
Um equívoco comum entre estudantes e técnicos experientes é confundir as configurações de faixa (LRV e URV) com os ajustes reais de calibração. Definir digitalmente o LRV de um transmissor de pressão como 0,00 PSI e o URV como 100,00 PSI não garante necessariamente que as leituras serão precisas em todos os pontos dentro desse intervalo. Para ilustrar esse equívoco, considere o seguinte exemplo.
Suponha que temos um transmissor de pressão inteligente com uma faixa de 0 a 100 PSI e uma saída analógica de 4 a 20 mA. No entanto, devido ao desgaste ao longo dos anos, o sensor de pressão deste transmissor produz um sinal que o conversor analógico-digital interpreta como 96 PSI quando a pressão real aplicada é de 100 PSI. Assumindo que todo o restante do transmissor está em perfeitas condições e com uma calibração ideal, o sinal de saída ainda conterá um erro. Isso demonstra como a configuração da faixa não é suficiente para garantir uma calibração precisa em todas as circunstâncias.
Como diz o ditado, “uma corrente é tão forte quanto seu elo mais fraco”. Essa máxima também se aplica à calibração de transmissores de pressão altamente sofisticados. Mesmo que os circuitos conversores analógicos/digitais estejam calibrados na perfeição e as configurações de faixa estejam corretas, a integridade da calibração pode ser comprometida devido a um componente crítico: o microprocessador. O microprocessador age como o “cérebro” do transmissor, interpretando os sinais do sensor de pressão e convertendo-os em saídas apropriadas.
No entanto, o microprocessador opera com base nas informações que recebe. No exemplo mencionado, o microprocessador “pensa” que a pressão aplicada é de apenas 96 PSI e, como resultado, produz um sinal de saída de 19,36 mA, quando deveria ser de 20 mA para 100 PSI. A única maneira de detectar essa imprecisão é aplicar um valor conhecido de pressão de 100 PSI ao sensor e observar a resposta incorreta do transmissor. Isso ilustra uma lição importante: simplesmente definir digitalmente os pontos LRV e URV de um instrumento inteligente não equivale a uma calibração legítima do instrumento.
Por essa razão, os instrumentos inteligentes sempre disponibilizam uma maneira de realizar o que é chamado de “ajuste digital” nos circuitos ADC (Analógico-Digital) e DAC (Digital-Analógico). Isso garante que o microprocessador perceba o estímulo aplicado de maneira precisa e que o sinal de saída seja convertido com precisão em uma corrente contínua. Esse ajuste digital é uma etapa crítica para manter a precisão e a confiabilidade dos instrumentos inteligentes, assegurando que os elos fracos não comprometam a integridade da medição.
Uma abordagem conveniente para testar os conversores analógico-digital (ADC) de um transmissor digital envolve monitorar os registros da variável de processo (PV) e da saída analógica (AO) do microprocessador enquanto comparamos esses valores com padrões de calibração confiáveis. Para realizar essa análise, utilizamos um dispositivo comunicador HART, que nos fornece uma “visão interna” dos registros do transmissor, permitindo-nos enxergar o que o microprocessador “vê”.
Vamos considerar um exemplo específico: um transmissor de pressão diferencial que apresenta um erro de calibração no sensor (analógico para digital). O padrão de calibração utilizado para a entrada de pressão no transmissor é um manômetro digital que registra uma leitura de 25,00 polegadas de coluna de água. Simultaneamente, usamos um multímetro digital (DMM) como nosso padrão de calibração para a saída de corrente, registrando uma leitura de 11,93 miliamperes.
Considerando que esperamos uma saída de 12,00 miliamperes a essa pressão (com base nos valores de faixa do transmissor, que vão de 0 a 50 polegadas de coluna d’água), fica evidente, a partir das medições do medidor de pressão e do multímetro, que há algum tipo de erro de calibração no transmissor.
Aprofundando nossa análise, comparamos as exibições da variável de processo (PV) e da saída analógica (AO) do comunicador HART com nossos padrões de calibração. Essa comparação revela informações adicionais sobre a natureza desse erro: notamos que o valor da saída analógica (AO) corresponde ao que registramos com o multímetro (11,930 mA), enquanto o valor da variável de processo (PV) não confirma com o manômetro digital (24,781 polegadas de coluna d’água).
Essa discrepância nos indica que o erro de calibração está localizado no sensor (entrada) do transmissor, e não no conversor analógico-digital (DAC) que controla a saída. Portanto, o procedimento de calibração apropriado para corrigir esse erro envolve um ajuste do sensor.
No próximo exemplo, exploraremos como um erro de saída (DAC) se manifestaria em outro transmissor de pressão diferencial quando submetido ao mesmo teste.
Vamos analisar outro cenário: mais uma vez, utilizamos um medidor de pressão digital como padrão de calibração para a entrada de pressão no transmissor, registrando uma leitura de 25,00 polegadas de coluna de água. Mantemos o multímetro digital como nosso padrão de calibração para a saída de corrente, que registra uma leitura de 11,93 miliamperes.
Dado que esperamos uma saída de 12,00 miliamperes a essa pressão, conforme determinado pelos valores de faixa do transmissor (0 a 50 polegadas de coluna d’água), é evidente, com base nas medições do medidor de pressão e do multímetro, que há algum tipo de erro de calibração neste transmissor, como já observado anteriormente.
Para identificar a natureza desse erro, comparamos as exibições da variável de processo (PV) e da saída analógica (AO) do comunicador HART com nossos padrões de calibração. Essa comparação revela informações adicionais:
notamos que o valor da variável de processo (PV) corresponde ao que registramos com o manômetro digital (25.002 polegadas de coluna d’água), enquanto o valor da saída analógica (AO) não coincide com a leitura do multímetro digital (12.001 mA). Isso nos indica que o erro de calibração está localizado no conversor digital-analógico (DAC) do transmissor, e não no sensor (entrada). Portanto, o procedimento de calibração correto a ser realizado neste transmissor incorretamente calibrado é um ajuste da saída.
Nos dois cenários anteriores, notamos a necessidade crucial de analisar os registros do microprocessador de um transmissor usando um comunicador HART para determinar a origem de um erro de calibração. A simples comparação das indicações de pressão e das leituras de corrente não foi suficiente para além da constatação de que havia um erro de calibração no transmissor. Somente ao examinarmos os valores da variável de processo (PV) e da saída analógica (AO) do microprocessador, fomos capazes de identificar se o erro de calibração estava relacionado ao conversor analógico-digital (ADC), ao conversor digital-analógico (DAC) ou a ambos.
Infelizmente, testemunhei técnicos tentando ajustar as configurações de faixa inferior (LRV) e faixa superior (URV) de uma forma semelhante ao ajuste de zero e span de um transmissor analógico para corrigir erros como esses. Embora seja possível fazer um transmissor fora de calibração gerar valores corretos de corrente de saída em sua faixa de valores de entrada calibrada, manipulando as configurações de LRV e URV, isso anula a distinção entre configurações de “trim” (ajuste fino) e “range” (faixa) dentro do transmissor.
Além disso, isso pode causar confusão se o sistema de controle conectado ao transmissor consultar valores variáveis digitalmente em vez de interpretá-los por meio do sinal de corrente de loop de 4-20 mA. Além disso, “calibrar” um transmissor ajustando as configurações de LRV/URV de forma inclinada compromete a precisão de funções intencionalmente não lineares, como a caracterização de raiz quadrada (usada em medições de vazão) ou tabelas de cintas (usadas em medições de nível de líquido em recipientes onde a área da seção transversal varia com a altura do líquido).
Após a realização dos ajustes digitais nos conversores de entrada e saída, os técnicos podem redefinir o microprocessador quantas vezes desejarem, sem a necessidade de recalibração. Esse recurso é especialmente útil quando são necessárias variações temporárias para condições especiais, como inicialização e desligamento do processo, quando determinadas variáveis do processo entram em regiões incomuns.
Um técnico de instrumentação pode utilizar um dispositivo de comunicação HART portátil para ajustar os valores de faixa de LRV e URV para quaisquer novos valores desejados pela equipe de operações, sem a necessidade de verificar novamente a calibração por meio da aplicação de estímulos físicos conhecidos ao instrumento.
Desde que as proteções do ADC e DAC estejam configuradas corretamente, a precisão geral do instrumento permanecerá adequada com a nova faixa. No caso de instrumentos analógicos, a única maneira de alterar a faixa de medição era ajustar o zero e o span, o que exigia a reaplicação de estímulos físicos ao dispositivo (uma recalibração completa).
É aqui e somente aqui que vemos a calibração não sendo necessária para um instrumento inteligente. No entanto, se a precisão geral da medição precisar ser verificada, não há substituto para uma calibração física real, o que envolve os procedimentos de “ajuste” do ADC e do DAC para um instrumento inteligente.
Os transmissores totalmente digitais, conhecidos como “Fieldbus”, compartilham semelhanças com os transmissores de saída analógica “inteligentes” em termos de ajustes distintos de compensação e alcance.
(1847) CALIBRAÇÃO DO TRANSMISSOR DE PRESSÃO LD-301 – YouTube