Definición de la clase de precisión.
Para utilizar equipos de alta calidad para medir diversas cantidades, es necesario conocer el error con que este dispositivo lo está midiendo. Las características técnicas de cualquier instrumento de medición incluyen los siguientes indicadores, que generalmente indican en la escala: la unidad de medida
- que es determinada por el dispositivo;
- sistema de principio de funcionamiento( magnetoeléctrico, electromagnético, inducción y otros)
- clase de precisión del dispositivo;
- posición de la escala del dispositivo( horizontal, vertical o inclinado);Tensión
- a la que se realizó la prueba de aislamiento de la carcasa;Número de serie
- y año de fabricación. Tipo de corriente
- , en la que es necesario realizar mediciones( constantes, variables).
Una de las características de una herramienta de medición técnica es la clase de precisión, un valor determinado por varios errores, a saber, sus límites. La fórmula para determinar las características de este dispositivo es el siguiente:
γ = ΔXnaib / Xpr⋅ x 100%, donde
ΔXnaib - error máximo absoluto de las mediciones;
Xpr: el valor más alto en la escala del dispositivo.
La clase de precisión del dispositivo también se denomina error reducido. Para este indicador, todos los dispositivos de medición se dividen en ocho clases:
- 0.05;
- 0.1;
- 0.2;
- 0.5;
Los dispositivos que tienen tales grupos de errores se llaman precisión, de la palabra inglesa "precisión", es decir, en la traducción al ruso: precisión. Estos son los dispositivos más precisos y se usan en estudios de laboratorio.
Las siguientes cuatro clases de precisión:
- 1.0;
- 1.5;
- 2.5;
- 4.
se utiliza en la industria técnica, y se llaman técnicos.
Los fabricantes de dispositivos técnicos de medición colocan su clase de precisión en una escala, si no hay notas: el dispositivo se considera extracurricular y su error en las mediciones es más del 4%.
La clase de precisión de los instrumentos es una característica de la precisión con respecto a los dispositivos en sí, pero este índice no determina la precisión de las mediciones. Por ejemplo, los amperímetros clase de precisión caracterizan límites error absoluto y no garantiza que estas lecturas no se hará los ajustes de factores tales como el efecto del campo magnético, la frecuencia de CA y los cambios de temperatura y otros estímulos externos.
Las clases de precisión de los instrumentos se pueden marcar con una letra latina o con números arábigos o romanos. Los valores numéricos árabes significan que el factor de precisión principal es el error reducido y se deben tener en cuenta los valores más grandes y más pequeños de una serie de mediciones. El número romano en la designación de la clase de precisión indica que la precisión del instrumento se determinó a partir del valor del error relativo. Si
marcado clase de precisión instrumento indica en la escala un número fraccionario( por ejemplo - "0,01 / 0,02"), esto significa que el error máximo reducido en la escala es de ± 0,01%, y al comienzo ± 001%.Esto es aplicable en instrumentos de medición eléctricos de alta frecuencia.
Todos los valores de los errores de cualquier instrumento de medida son estándares normalizados y aceptados, y no deben exceder estos valores. Estos indicadores pueden tener diferentes valores, dependiendo de las condiciones de operación del dispositivo de medición, pero en general los límites marginales de estos errores no deben exceder los límites del valor normalizado. El GOST establece los métodos para determinar las normas de los errores tolerables y marcar las clases de exactitud de los dispositivos.