Eine korrekte Fehlerkompensation ist für die Anwendung von Drucksensoren unerlässlich. Drucksensoren sind hauptsächlich anfällig für Offset-, Empfindlichkeits-, Linearitäts- und Hysteresefehler. Dieser Artikel erläutert die Mechanismen dieser vier Fehlertypen und deren Auswirkungen auf die Messergebnisse. Zudem werden Methoden zur Druckkalibrierung vorgestellt, um die Messgenauigkeit zu verbessern, und Anwendungsbeispiele präsentiert. Der Markt bietet aktuell eine breite Palette an Sensoren, sodass Entwicklungsingenieure die für ihre Systeme benötigten Drucksensoren auswählen können. Das Spektrum reicht von einfachen Messwandlern bis hin zu komplexen, hochintegrierten Sensoren mit On-Chip-Schaltungen. Aufgrund dieser Unterschiede müssen Entwicklungsingenieure die Messfehler von Drucksensoren so weit wie möglich kompensieren. Dies ist ein wichtiger Schritt, um sicherzustellen, dass der Sensor die Anforderungen von Design und Anwendung erfüllt. In manchen Fällen kann die Kompensation sogar die Gesamtleistung des Sensors in der Anwendung verbessern. Dieser Artikel verwendet Drucksensoren von Motorola als Beispiel. Die vorgestellten Konzepte sind jedoch auf das Design und die Anwendung verschiedener Drucksensoren anwendbar. Die gängigen Drucksensoren von Motorola sind monolithische piezoresistive Bauelemente, die in drei Kategorien unterteilt werden: 1. Basiskalibrierung oder unkompensierte Kalibrierung; 2. Kalibriert und temperaturkompensiert; 3. Kalibriert, kompensiert und verstärkt. Offset, Bereichskalibrierung und Temperaturkompensation lassen sich mithilfe eines Dünnschichtwiderstandsnetzwerks (TFTN) realisieren, das während der Gehäusefertigung laserkorrigiert wird. Dieser Sensor wird typischerweise in Verbindung mit einem Mikrocontroller verwendet, dessen eingebettete Software das mathematische Modell des Sensors erstellt. Nachdem der Mikrocontroller die Ausgangsspannung erfasst hat, wandelt das Modell diese mittels eines Analog-Digital-Wandlers in einen Druckmesswert um. Das einfachste mathematische Modell für den Sensor ist die Übertragungsfunktion. Dieses Modell kann während des Kalibrierungsprozesses optimiert werden, und seine Genauigkeit steigt mit der Anzahl der Kalibrierpunkte. Aus messtechnischer Sicht ist der Messfehler streng definiert: Er beschreibt die Differenz zwischen dem gemessenen und dem tatsächlichen Druck. Der tatsächliche Druck ist in der Regel nicht direkt messbar, kann aber mithilfe eines geeigneten Drucknormals abgeschätzt werden. Messtechniker verwenden typischerweise Messgeräte mit mindestens zehnfach höherer Genauigkeit als das zu messende Gerät als Messnormal. Da ein unkalibriertes System nur typische Empfindlichkeits- und Offsetwerte zur Umrechnung der Ausgangsspannung in Druck verwenden kann, führt der gemessene Druck zu dem in Abbildung 1 dargestellten Fehler. Dieser unkalibrierte Anfangsfehler setzt sich aus folgenden Komponenten zusammen: a. Offsetfehler: Da der vertikale Offset über den gesamten Druckbereich konstant bleibt, verursachen Schwankungen in der Konverterdiffusion und der Laserkorrektur einen Offsetfehler. b. Empfindlichkeitsfehler: Dieser Fehler ist proportional zum Druck. Ist die Empfindlichkeit des Geräts höher als typisch, steigt der Empfindlichkeitsfehler mit dem Druck (siehe Abbildung 1). Ist die Empfindlichkeit niedriger als typisch, sinkt der Empfindlichkeitsfehler mit dem Druck. Dieser Fehler wird durch Änderungen im Diffusionsprozess verursacht. c. Linearitätsfehler: Dieser Faktor hat einen relativ geringen Einfluss auf den Anfangsfehler. Er wird durch die physikalische Nichtlinearität des Siliziumwafers verursacht. Bei Sensoren mit Verstärkern muss jedoch auch die Nichtlinearität des Verstärkers berücksichtigt werden. Die Kurve des Linearitätsfehlers kann konkav oder konvex verlaufen. d. Hysteresefehler: In den meisten Fällen ist der Hysteresefehler vernachlässigbar, da Siliziumwafer eine hohe mechanische Steifigkeit aufweisen. Er wird in der Regel nur bei großen Druckschwankungen berücksichtigt. Durch Kalibrierung lassen sich diese Fehler eliminieren oder stark reduzieren. Kompensationsverfahren erfordern üblicherweise die Bestimmung der Parameter der tatsächlichen Übertragungsfunktion des Systems, anstatt typische Werte zu verwenden. Potentiometer, einstellbare Widerstände und andere Hardware können im Kompensationsprozess eingesetzt werden, während Software diese Fehlerkompensation flexibler implementieren kann. Die Einpunktkalibrierung kann Offsetfehler kompensieren, indem sie die Drift am Nullpunkt der Übertragungsfunktion beseitigt; diese Kalibrierungsmethode wird als automatische Nullpunktkalibrierung bezeichnet. Die Offsetkalibrierung wird üblicherweise bei Nulldruck durchgeführt, insbesondere bei Differenzdrucksensoren, da der Differenzdruck unter Nennbedingungen typischerweise null ist. Bei reinen Sensoren ist die Offsetkalibrierung schwieriger, da sie entweder ein Druckmesssystem zur Messung des Kalibrierdrucks unter Umgebungsbedingungen oder einen Druckregler zur Erfassung des gewünschten Drucks erfordert. Die Nullpunktkalibrierung von Differenzdrucksensoren ist sehr genau, da der Kalibrierdruck exakt null ist. Die Genauigkeit der Kalibrierung bei Drücken ungleich null hängt hingegen von der Leistungsfähigkeit des Druckreglers bzw. des Messsystems ab. Die Wahl des Kalibrierdrucks ist entscheidend, da sie den Druckbereich bestimmt, in dem die optimale Genauigkeit erreicht wird. In der Praxis ist der tatsächliche Offsetfehler nach der Kalibrierung am Kalibrierpunkt minimal und bleibt gering. Daher muss der Kalibrierpunkt anhand des Zieldruckbereichs gewählt werden, der nicht unbedingt mit dem Betriebsbereich übereinstimmt. Da die tatsächliche Empfindlichkeit oft unbekannt ist, wird für die Einpunktkalibrierung im mathematischen Modell typischerweise eine typische Empfindlichkeit verwendet, um die Ausgangsspannung in einen Druckwert umzurechnen. Die rote Kurve stellt die Fehlerkurve nach der Offsetkalibrierung (PCAL = 0) dar. Man erkennt, dass die Fehlerkurve im Vergleich zur schwarzen Kurve, die den Fehler vor der Kalibrierung darstellt, vertikal verschoben ist. Diese Kalibriermethode ist aufwendiger und kostspieliger als die Einpunktkalibrierung. Im Vergleich zur Einpunktkalibrierung verbessert sie jedoch die Systemgenauigkeit deutlich, da sie neben dem Offset auch die Sensorempfindlichkeit kalibriert. Daher kann für Fehlerberechnungen der tatsächliche Empfindlichkeitswert anstelle eines typischen Wertes verwendet werden. Die grüne Kurve repräsentiert die verbesserte Genauigkeit. Die Kalibrierung erfolgt hier unter Bedingungen von 0 bis 500 Megabar (Vollausschlag). Da der Fehler an den Kalibrierpunkten nahezu null ist, ist die korrekte Einstellung dieser Punkte entscheidend für einen minimalen Messfehler im gewünschten Druckbereich. Einige Anwendungen erfordern eine hohe Genauigkeit über den gesamten Druckbereich. In diesen Fällen kann eine Mehrpunktkalibrierung die besten Ergebnisse liefern. Bei der Mehrpunktkalibrierung werden neben Offset- und Empfindlichkeitsfehlern auch der größte Teil des linearen Fehlers berücksichtigt, wie die magenta Kurve zeigt. Das hier verwendete mathematische Modell ist identisch mit dem der Zweistufenkalibrierung in jedem Kalibrierintervall (zwischen zwei Kalibrierpunkten). Wie bereits beschrieben, führt die Dreipunktkalibrierung zu einer konsistenten Form der linearen Fehler, wobei die Fehlerkurve einer quadratischen Gleichung folgt und eine vorhersagbare Größe und Form aufweist. Dies gilt insbesondere für Sensoren ohne Verstärker, da die Nichtlinearität des Sensors inhärent auf mechanischen Ursachen beruht (bedingt durch den Dünnschichtdruck auf dem Siliziumwafer). Die linearen Fehlercharakteristika lassen sich beschreiben, indem man den mittleren linearen Fehler eines typischen Beispiels berechnet und die Parameter der Polynomfunktion (a×2 + b× + c) bestimmt. Das nach der Bestimmung von a, b und c erhaltene Modell gilt für Sensoren desselben Typs. Diese Methode kompensiert lineare Fehler effektiv, ohne dass ein dritter Kalibrierpunkt erforderlich ist. Ein Beispiel für die Kompensation ist der Motorola MPX2300, ein temperaturkompensierter Sensor, der hauptsächlich zur Blutdruckmessung eingesetzt wird. Das Polynommodell kann aus den mittleren linearen Fehlern von 10 Sensoren abgeleitet werden. Der kompensierte Fehler beträgt etwa ein Zehntel bis ein Zwanzigstel des maximalen anfänglichen linearen Fehlers, wie in Abbildung 3 durch die gestrichelte Linie dargestellt. Mit dieser Fehlerkompensationsmethode lässt sich ein kostengünstiger Sensor mit nur einer Zweipunktkalibrierung in ein Hochleistungsgerät (Fehler unter 0,05 % des Messbereichsendwertes) verwandeln. Selbstverständlich müssen Entwicklungsingenieure die am besten geeignete Kalibriermethode anhand der Genauigkeitsanforderungen der jeweiligen Anwendung auswählen und die Systemkosten berücksichtigen. Dank der Vielzahl an Integrationsstufen und Kompensationstechniken können Entwicklungsingenieure die jeweils geeignete Methode je nach den unterschiedlichen Konstruktionsanforderungen auswählen.