Share this

Nichtlineares Korrekturverfahren für Vereisungssensoren basierend auf einem BP-Netzwerk

2026-02-21 11:12:21 · · #1
Zusammenfassung: Ausgehend von den bestehenden Problemen bei der nichtlinearen Korrektur von Vereisungssensoren wird ein Korrekturverfahren vorgeschlagen, das ein BP-Netzwerk zur Erstellung des inversen Sensormodells nutzt. Die leistungsstarke Software MATLAB wird verwendet, um das neuronale Netzwerk zu trainieren und Gewichte sowie Schwellenwerte zu ermitteln. Die Ergebnisse praktischer Anwendungen zeigen, dass dieses Verfahren einfach und praktikabel ist und den Einsatz von Vereisungssensoren mit inkonsistenter Produktleistung in Mess- und Steuerungssystemen erheblich erleichtert. Schlüsselwörter: BP-Netzwerk; nichtlineare Korrektur; Vereisungssensor. Einleitung: Vereisungssensoren dienen der Messung der Eisdicke. Sie basieren auf dem Prinzip der Schwingung, wobei der schwingende Körper die Form eines schwingenden Rohrs hat. Wird das schwingende Rohr vertikal in der Umgebung platziert, erzeugt die Erregerschaltung ein magnetisches Wechselfeld. Unter dem Einfluss des Magnetfelds erfährt das Rohr Magnetostriktion und axiale Schwingungen. Gleichzeitig wandelt die Signalerfassungsschaltung dieses mechanische Schwingungssignal in ein elektrisches Signal um und führt es an die Erregerschaltung zurück, wodurch diese mit der Eigenfrequenz der axialen Schwingung des Rohrs in Resonanz gerät. Gemäß der Schwingungstheorie verschiebt sich bei Eisbildung auf der Rohroberfläche die Eigenfrequenz der axialen Schwingung, wodurch sich auch die Resonanzfrequenz des Schwingkreises verschiebt. Daher lässt sich die Dicke der Eisschicht anhand dieser Frequenzverschiebung bestimmen: d = F(f′ - f0) (1). Dabei ist d die Eisdicke, f′ die Schwingungsfrequenz nach dem Gefrieren und f0 die Schwingungsfrequenz vor dem Gefrieren. Da f0 konstant ist, hängt die Eisdicke nur vom Frequenzwert f′ ab. Allerdings besteht zwischen Frequenzwert und Eisdicke ein nichtlinearer Zusammenhang, sodass die gemessene Eisdicke nicht einfach über den Frequenzwert bestimmt werden kann. Dies erhöht die Komplexität der Dickenanzeige und -verarbeitung. Um eine gewisse Messgenauigkeit für Anwendungen in Mess- und Regelsystemen zu gewährleisten, ist eine nichtlineare Korrektur erforderlich. Bisher wurde die Datenverarbeitung tabellarisch durchgeführt, wobei die statische Kennlinie des Sensors durch stückweise Linearisierung approximiert wurde. Dieses Verfahren war einfach und praktisch. Bei kleinen Tabellenwerten kann die Genauigkeit jedoch beeinträchtigt werden. Bei großen Messtabellen wird die Echtzeitleistung beeinträchtigt, was hohe Anforderungen an den Sensorprozessor stellt. Neuronale Netze eröffnen neue Wege für die Erforschung nichtlinearer Korrekturverfahren für Sensoren. Der konkrete Ansatz besteht darin, das Backpropagation-Netzwerk (BP-Netzwerk) mit experimentellen Daten als Stichproben zu trainieren, um das inverse Modell des Vereisungssensors zu erhalten. Dadurch wird der Sensor durch das neuronale Netzwerk linearisiert, seine nichtlinearen Eigenschaften werden kompensiert, und das korrigierte Netzwerk kann anhand der linearen Eigenschaften verarbeitet werden. Dies verbessert die Messgenauigkeit und erweitert den Anwendungsbereich des Vereisungssensors erheblich. 1. Backpropagation-Netzwerk (BP-Netzwerk): Künstliche neuronale Netze sind ein aufstrebendes interdisziplinäres Forschungsgebiet. In der Praxis verwenden 80–90 % der Modelle BP-Netzwerke. Es handelt sich um ein Feedforward-Netzwerk, das typischerweise aus einer Eingabeschicht, einer Ausgabeschicht und mehreren verborgenen Schichten besteht. Benachbarte Schichten sind durch synaptische Gewichtsmatrizen verbunden. Die am häufigsten untersuchten Netzwerke sind solche mit nur einer verborgenen Schicht, da ein dreischichtiges Feedforward-Netzwerk jede stetige Funktion approximieren kann. Die Ausgabe jedes Knotens wird mit der folgenden Formel berechnet: wobei yi die Knotenausgabe, xi die vom Knoten empfangene Information, wij das entsprechende Verbindungsgewicht, θi der Schwellenwert und n die Anzahl der Knoten ist. 2. Datenanpassung mit BP-Netzwerk: 2.1 Grundlagen: Das Prinzipdiagramm für die Datenanpassung von Sensorausgabecharakteristiken mithilfe neuronaler Netze besteht aus zwei Teilen: einem Sensormodell und einem Korrekturmodell des neuronalen Netzes (siehe Abbildung 1). In der Abbildung wird angenommen, dass die statische Eingangs-Ausgangs-Kennlinie des Sensors y = f(x) ist. Durch das Training des BP-Netzwerks mit experimentellen Werten kann das inverse Modell des Sensors, x = f⁻¹(y), ermittelt werden. Für jede Ausgabe yi kann die entsprechende Eingabe xi auf der Eingangs-Ausgangs-Kennlinie gefunden werden, wodurch eine Linearisierung erreicht wird. 2.2 Lernalgorithmus Der grundlegende Lernalgorithmus des BP-Netzwerks ist der Backpropagation-Fehlerlernalgorithmus. Dieser Algorithmus ist einfach und praktisch, lässt sich aber mathematisch auf ein nichtlineares Gradientenoptimierungsproblem reduzieren und weist daher zwangsläufig lokale Minima auf. Die Konvergenzgeschwindigkeit des Lernalgorithmus ist langsam und erfordert üblicherweise Tausende oder mehr Iterationen. In den letzten Jahren haben viele Experten umfangreiche Forschungen zu Lernalgorithmen durchgeführt und zahlreiche verbesserte Algorithmen entwickelt, wie beispielsweise das Fast-Descent-Verfahren und das Levenberg-Marquardt-Verfahren. Diese zeichnen sich durch eine hohe Konvergenzgeschwindigkeit aus und erfüllen Echtzeitanforderungen. Das Levenberg-Marquardt-Verfahren (LM-Algorithmus) kombiniert das Gradientenverfahren zweiter Ordnung mit dem Newton-Verfahren. Aufgrund seiner Funktionsweise konvergiert es sehr schnell. Aus diesem Grund wird der LM-Algorithmus in dieser Arbeit zum Trainieren des BP-Netzwerks verwendet. Die Berechnung der Hesse-Matrix ist nicht erforderlich; sie wird mithilfe von Gleichung (3) geschätzt: Dabei ist J die Jacobi-Matrix, die die erste Ableitung des Netzwerkfehlerterms nach den Gewichten und Schwellenwerten enthält, und e der Netzwerkfehlerterm. Die Jacobi-Matrix kann mit dem Standard-BP-Algorithmus ermittelt werden, was deutlich einfacher ist als die direkte Berechnung der Hesse-Matrix. Die Iterationsformel des L²M-Algorithmus lautet wie folgt: Ist der Skalierungsfaktor μ = 0, entspricht er dem Newton-Verfahren; ist μ sehr groß, ähnelt er dem Gradientenabstieg. Mit jeder erfolgreichen Iteration verringert sich μ leicht, wodurch sich das Verfahren dem Newton-Verfahren annähert, je näher es dem Fehlerziel kommt. Das Newton-Verfahren ist beim Annähern an den minimalen Fehler schneller und genauer. In der Praxis hat sich gezeigt, dass diese Methode die Geschwindigkeit im Vergleich zum ursprünglichen Gradientenabstiegsverfahren um das Zehn- bis Hundertfache steigern kann. 2.3 Lernprozess und Simulation in MATLAB Die Neural Network Toolbox in MATLAB 6.2 ist leistungsstark und ermöglicht nicht nur die Erstellung gängiger neuronaler Netze, sondern unterstützt auch benutzerdefinierte Netze. In der Praxis wurden basierend auf dem Messbereich und den Genauigkeitsanforderungen 101 Datenpunkte aus dem Experiment als Stichproben verwendet, um ein BP-Netzwerk für das Training in MATLAB zu erstellen. Vor dem Training wurden die Daten vorverarbeitet. Der Wert der Resonanzfrequenz diente als Eingabewert P, und die Eisdicke wurde als Ausgabewert t in den Bereich [-1, 1] transformiert. Nach dem Training wurde durch Nachbearbeitung der ursprüngliche Datenraum wiederhergestellt. Das neuronale Netzwerkmodell ist ein SISO-Modell (Single-Input, Single-Output) mit 5 Neuronen in der verborgenen Schicht. Der Trainingsfehlerindex wurde auf 0,01 festgelegt. Die Trainingsergebnisse sind in Abbildung 2 und 3 sowie in Tabelle 1 dargestellt. Die Fehleranforderung wurde nach 15 Trainingsschritten erfüllt, was auf eine schnelle Konvergenz hinweist. 3. Fazit: Neuronale Netze haben sich als neuartige Methode zur Analyse und Verarbeitung von Problemen in vielen Bereichen als äußerst vielversprechend erwiesen. Dank ihrer Fähigkeit zum parallelen Hochgeschwindigkeitsrechnen und zur nichtlinearen Transformation können neuronale Netze jederzeit mit hoher Lerneffizienz neu lernen. Dies ist besonders effektiv bei Vereisungssensoren mit inkonsistenter Leistung. Im Vergleich zu anderen Korrekturmethoden benötigen neuronale Netze kein tiefgreifendes Verständnis des Objektmechanismus und weisen eine hohe Kurvenanpassungsfähigkeit auf. Experimente zeigen einen zufriedenstellenden Kompensationseffekt, der den Einsatz von Vereisungssensoren in Mess- und Steuerungssystemen erheblich erleichtert.
Read next

Anwendung einer SPS-Positionssteuerung in der Präzisionsschleifsteuerung

Die Präzisionsbearbeitungstechnologie entwickelt sich weltweit rasant, und ständig entstehen neue Bearbeitungsmethoden u...

Articles 2026-02-20