Definition der Genauigkeitsklasse.
Um qualitativ hochwertige Geräte für die Messung verschiedener Größen zu verwenden, ist es notwendig, den Fehler zu kennen, mit dem dieses Gerät es misst. Zu den technischen Merkmalen eines jeden Messgeräts gehören die folgenden Indikatoren, die normalerweise auf der Skala angeben: die Maßeinheit
- , die vom Gerät bestimmt wird;
- Betriebsprinzipsystem( magnetoelektrisch, elektromagnetisch, Induktion und andere)
- Genauigkeitsklasse des Geräts;
- Position der Skala des Geräts( horizontal, vertikal oder geneigt);
- Spannung, bei der die Isolationsprüfung des Gehäuses durchgeführt wurde;
- Seriennummer und Herstellungsjahr.
- Art von Strom, in dem es notwendig ist, Messungen durchzuführen( konstant, variabel).
Eines der Merkmale eines technischen Messwerkzeugs ist die Genauigkeitsklasse - ein Wert, der durch mehrere Fehler, nämlich deren Grenzen, bestimmt wird. Die Formel zum Bestimmen dieser Eigenschaft der Vorrichtung lautet wie folgt:
& ggr; = & Dgr; Xinab / Xpr × × 100%, wobei
& Dgr; Xnab der maximale absolute Messfehler ist;
Xpr - der höchste Wert auf der Skala des Geräts.
Die Genauigkeitsklasse des Geräts wird auch als reduzierter Fehler bezeichnet. Für diesen Indikator sind alle Messgeräte in acht Klassen unterteilt:
- 0,05;
- 0,1;
- 0,2;
- 0,5;
Geräte, die solche Gruppen von Fehlern haben, werden Präzision genannt, aus dem englischen Wort "Präzision", das bedeutet in der Übersetzung in Russisch - Genauigkeit. Dies sind die genauesten Geräte und sie werden in Laborstudien verwendet.
Die folgenden vier Genauigkeitsklassen:
- 1.0;
- 1.5;
- 2.5;
- 4.
wird in der technischen Industrie verwendet und sie werden als technisch bezeichnet.
Hersteller von technischen Messgeräten legen ihre Genauigkeitsklasse auf eine Skala, wenn keine Notizen vorhanden sind - das Gerät wird als außerschulisch betrachtet und sein Fehler in den Messungen beträgt mehr als 4%.
Die Genauigkeitsklasse der Geräte ist ein Merkmal der Genauigkeit in Bezug auf die Geräte selbst, aber dieser Index bestimmt nicht die Genauigkeit der Messungen. Zum Beispiel ist die Genauigkeitsklasse der Amperemeter durch die Grenzen des absoluten Fehlers gekennzeichnet und garantiert nicht, dass solche Anzeigen wie die Wirkung des Magnetfeldes, die Frequenz der Wechselstrom- und Temperaturdifferenzen und auch andere externe Stimuli keine Korrekturen vornehmen.
Die Genauigkeitsklassen von Instrumenten können entweder mit einem lateinischen Buchstaben oder arabischen oder römischen Ziffern markiert werden. Numerische arabische Werte bedeuten, dass der Hauptgenauigkeitsfaktor der reduzierte Fehler ist und der größte und der kleinste Wert einer Reihe von Messungen berücksichtigt werden sollten. Die römische Ziffer in der Bezeichnung der Genauigkeitsklasse gibt an, dass die Genauigkeit des Instruments aus dem Wert des relativen Fehlers bestimmt wurde.
Wenn eine Bruchzahl auf der Skala angezeigt wird, wenn die Genauigkeitsklasse des Geräts markiert wird( z. B. "0,01 / 0,02"), bedeutet dies, dass der resultierende Fehler bei der maximalen Skala ± 0,01% und zu Beginn ± 0 ist.01%.Dies gilt für hochfrequente elektrische Messgeräte.
Alle Fehlerwerte von Messgeräten sind normalisierte und akzeptierte Standards und sollten diese Werte nicht überschreiten. Diese Indikatoren können abhängig von den Betriebsbedingungen des Messgeräts unterschiedliche Werte haben, aber im Allgemeinen sollten die Grenzgrenzen dieser Fehler die Grenzen des normalisierten Wertes nicht überschreiten. Die Methoden zur Bestimmung der Normen tolerierbarer Fehler und zur Kennzeichnung der Genauigkeitsklassen von Geräten werden von GOST festgelegt.