Orthogonale Regression - Realität oder Isotropie? - Michael Lösler* und Cornelia Eschelbach - De Gruyter
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
tm – Technisches Messen 2020; 87(10): 637–646 Michael Lösler* und Cornelia Eschelbach Orthogonale Regression – Realität oder Isotropie? Orthogonal regression – reality or isotropy? https://doi.org/10.1515/teme-2020-0063 1 Einleitung Eingang 29. Juli 2020; angenommen 18. August 2020 Zusammenfassung: Nicht nur in der Metrologie wird für Für die sachgerechte Analyse von erhobenen Daten wird die Analyse von Daten auf eine orthogonale Regression in den messenden Disziplinen häufig auf eine Ausglei- chungsrechnung nach der Methode der kleinsten Qua- zurückgegriffen. Bei der orthogonalen Regression stehen dratsumme zurückgegriffen. Neben den eigentlichen Ziel- die zu minimierenden Verbesserungen senkrecht auf der größen, den Modellparametern, liefert die Ausgleichungs- Funktion, weshalb dem Verfahren häufig ein hoher An- rechnung weitere Kenngrößen und Zuverlässigkeitsma- schauungsgrad beigemessen wird. In diesem Beitrag wer- ße, die eine statistische Bewertung der Schätzung ermög- den einige Eigenschaften der orthogonalen Regression un- lichen. Die Ausgleichungsrechnung zählt somit zu den tersucht und geprüft, ob diese exklusiv diesem Verfahren wichtigsten Analysewerkzeugen um bspw. Veränderun- zuzuordnen sind oder ob es sich lediglich um übertragene gen an einem Messobjekt in der Kongruenzanalyse zu de- Eigenschaften eines allgemeinen Optimierungsproblems tektieren, um die Formtreue eines Bauteils zu validieren handelt. Ergänzend zu den Ausführungen von Kolaczia [9] oder um die Position und Ausrichtung einzelner Elemente soll die Frage nach der Eignung dieses Verfahrens für die im Maschinen- und Anlagenbau zu justieren. Messtechnik beantwortet werden. Im Reverse Engineering werden häufig Kurven bzw. Schlagwörter: Orthogonal-Distance-Fitting, Orthogonale Flächen zweiter Ordnung (Quadrik) wie bspw. Geraden, Regression, Sequentielle quadratische Programmierung, Kugeln, Ebenen oder Zylinder verwendet. Die Bestimmung Regressionsanalyse, Messtechnik. der Formparameter erfolgt hierbei mitunter durch Mini- Abstract: The orthogonal distance fitting is a common ap- mierung der orthogonalen Abstände, d. h., den Norma- proach not only in metrology. Minimizing the orthogonal lenabständen zwischen der Quadrik und den gemesse- distances is often called as the most natural error crite- nen Punkten. In der Literatur ist diese Schätzung auch als rion in least squares adjustments because such a derived Orthogonal-Distance-Fitting bzw. orthogonale Regression solution provides a clear physical meaning. In this con- bekannt. Sie wurde erstmals 1840 von Weisbach [18] be- tribution, some of the implied properties of the orthogo- schrieben, der zur Bestimmung der Hauptrichtung von La- nal regression are investigated. It is evaluated whether gerstädten im Markscheidewesen auf eine Regressionsge- these properties hold for a general optimization problem rade zurückgriff, die sowohl zufällige Messabweichungen or whether these are exclusive properties of the orthogonal in der x- als auch in der y-Komponente der Punkte berück- regression. Following Kolaczia [9], the goal of our investi- sichtigt. gation is to answer the question, whenever the orthogonal Die Verbreitung der orthogonalen Regression liegt vor- distance fitting should be applied in metrology. nehmlich in ihrem hohen Anschauungsgrad [15]. Wije- Keywords: Orthogonal-distance-fitting, orthogonal re- wickrema et al. [19] bezeichnen die Minimierung der Nor- gression, sequential quadratic programming, regression malenabstände als ein natürliches Bewertungsmaß, da den analysis, metrology. geschätzten Modellparametern eine physische oder geo- || metrische Bedeutung zugeordnet werden kann [6]. Insbe- Für Maria Hennes sondere sind die intrinsischen Formparameter wie bspw. der Radius einer Kugel invariant bzgl. einer Koordinaten- *Korrespondenzautor: Michael Lösler, Frankfurt University of Applied Sciences, Faculty of Architecture, Civil Engineering and transformation [1, S. 11]. Weiterhin existieren für einige Geomatics, Laboratory for Industrial Metrology, Nibelungenplatz 1, Geometrien direkte Lösungsverfahren, die den Einsatz der D-60318 Frankfurt am Main, Germany, E-Mail: orthogonalen Regression in der Praxis motivieren [10, 14]. michael.loesler@fb1.fra-uas.de, ORCID: Andererseits hinterfragt Kolaczia [9] die Eignung der https://orcid.org/0000-0002-1979-263X orthogonalen Regression für die sachgerechte Datenana- Cornelia Eschelbach, Frankfurt University of Applied Sciences, Faculty of Architecture, Civil Engineering and Geomatics, Laboratory lyse in der industriellen Messtechnik. Zum einen wer- for Industrial Metrology, Nibelungenplatz 1, D-60318 Frankfurt am den durch die Minimierung der orthogonalen Abstände Main, Germany, ORCID: https://orcid.org/0000-0003-4959-8712 die einzelnen Koordinatenkomponenten unterschiedlich Open Access. © 2020 Lösler and Eschelbach, publiziert von De Gruyter. Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
638 | M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? stark berücksichtigt. Zum anderen sind die Ergebnisse [3, S. 234]. Die SQP ist kein eigenständiges Verfahren. Viel- nicht skalierungsinvariant, wenn bspw. zwischen Maßein- mehr existiert eine ganze Reihe von Verfahren, die für heiten umgerechnet wird. Kolaczia [9] resümiert, dass die unterschiedliche Anwendungsbereiche optimiert sind. Die Anwendung der orthogonalen Regression in der Metrolo- folgende Ausführung beschränkt sich daher auf das Prin- gie ungeeignet ist, da die Ergebnisse von der Wahl der zip der SQP-Verfahren. Eine detaillierte Darstellung kann Maßeinheiten zwingend unabhängig sein müssen. der Standardliteratur zur numerischen Optimierung ent- In der Koordinatenmesstechnik wird eine Reihe von nommen werden [3, 17]. Messinstrumenten eingesetzt, die keine kartesischen Ko- Das zu lösende Optimierungsproblem ist gegeben ordinaten registrieren [5]. Der Lasertracker ist bspw. ein durch polares Messinstrument, welches eine Strecke und zwei min Ω(u) (1a) Winkel registriert. Koch & Kargoll [8] zeigen, dass die Er- gebnisse einer Parametereschätzung unabhängig von der unter der Nebenbedingung gewählten Koordinatendarstellung sind. Im Gegensatz da- zu weisen Holst et al. [6] darauf hin, dass es für eine Mi- f (u) = 0, (1b) nimierung der orthogonalen Abstände kartesische Koordi- worin Ω die Zielfunktion symbolisiert, und u den Vektor naten bedarf. Die Autoren schlagen vor, die originär erfass- der festen aber unbekannten Modellparameter repräsen- ten Polarkoordinaten in korrespondierende kartesische tiert. Sowohl die Zielfunktion Ω als auch die Nebenbedin- Koordinaten umzurechnen und die orthogonale Regressi- gung f seien glatte Funktionen. Das Lösen dieses Optimie- on auf der Basis der kartesischen Koordinaten durchzu- rungsproblems erfolgt mittels der Lagrange-Funktion, die führen. unter Berücksichtigung der Lagrange-Multiplikatoren λ In diesem Beitrag wird die Gültigkeit dieser z. T. kon- Zielfunktion und Nebenbedingung miteinander verknüpft trären Eigenschaften und Voraussetzungen der orthogo- [17, S. 530], d. h., nalen Regression näher untersucht. In Anlehnung an die 1 Untersuchungen von Kolaczia [9] wird geprüft, ob die An- L= Ω + λT f . (2) 2 wendung der orthogonalen Regression in der Metrologie empfehlenswert ist. Um weitgehend unabhängig von ei- In diesem Beitrag wird davon ausgegangen, dass neben nem speziellen Optimierungsproblem zu sein, erfolgt die dem eindeutigen Minimum kein Maximum oder Sattel- Schätzung der Modellparameter in diesem Beitrag mittels punkt existiert. Die notwendige und hinreichende Opti- T sequentieller quadratischer Programmierung (SQP). Die malitätsbedingung an der Stelle [ û T λ̂ ] ist somit er- SQP zählt zu den Standardverfahren in der numerischen füllt, wenn der Gradient der Lagrange-Funktion Null ist Optimierung und wird insbesondere für allgemeine Opti- [12], d. h., mierungsaufgaben mit nichtlinearen Nebenbedingungen 1 ∇u L (u,̂ λ)̂ = ∇Ω + JT λ̂ = 0, (3a) empfohlen [17, S. 529]. Nach einer kurzen Einführung in 2 die SQP in Abschnitt 2 werden in Abschnitt 3 exemplarisch ∇λ L (u,̂ λ)̂ = f = 0. (3b) die Modellparameter einer Regressionsgeraden unter Be- Hierin symbolisieren J die Jacobimatrix der Nebenbedin- rücksichtigung verschiedener Zielfunktionen und Koordi- gung und ∇Ω den Gradienten der Zielfunktion. natendarstellungen bestimmt. Die hierbei abgeleiteten Er- Eine Möglichkeit, die unbekannten Modellparame- gebnisse werden verwendet, um die Gültigkeit der zuge- ter und Lagrange-Multiplikatoren zu bestimmen, ist die sprochenen Eigenschaften der orthogonalen Regression Anwendung des Newton-Verfahrens auf Gl. (3). Die Para- zu eruieren. Abschnitt 4 fasst die Ergebnisse dieser Arbeit meterschätzung erfolgt hierbei iterativ, sodass geeignete zusammen und gibt Hinweise zum Einsatz in der Metrolo- Startwerte uk=0 , λk=0 bereitzustellen sind. Die zu lösende gie. Newton-Gleichung des k-ten Iterationsschrittes liefert die neuen Iterierten û = uk + Δu und ist gegeben durch [17, S. 532] 2 Parameterschätzung 2 ∇uu L JT Δu 1 ∇Ω [ ][ ̂ ] = −[ 2 ] (4) J 0 λ f In der numerischen Optimierung zählt die sequentielle quadratische Programmierung zu den wichtigsten und ef- worin fizientesten Verfahren zum Lösen von allgemeinen Opti- 2 1 2 L = ∇ Ω + ∑λ H (i) (i) ∇uu mierungsaufgaben mit nichtlinearen Nebenbedingungen 2 i=1
M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? | 639 die Hessematrix der Lagrange-Funktion ist und ∇2 Ω bzw. Entsprechend dem Prinzip der Methode der kleinsten (ge- H(i) die Hessematrizen der Zielfunktion bzw. der i-ten Ne- wichteten) Verbesserungsquadratsumme lautet die Ziel- benbedingung an der aktuellen Entwicklungsstelle dar- funktion stellen. Die SQP-Verfahren minimieren somit in jedem Ite- Ω = uT Wu = vT Wxy v, (10) rationsschritt das quadratische Teilproblem worin 1 1 min ∇T ΩΔu + ΔuT ∇uu 2 LΔu (5a) 0 0 2 2 W=[ ] (11) 0 Wxy unter der Nebenbedingung die Extraktions- und Gewichtsmatrix der zu berücksichti- JΔu + f = 0. (5b) gen Modellparameter in Gl. (1a) ist. Da das Minimum i. A. nur für v gefordert wird, ist hier lediglich die korrespon- Um den numerischen Aufwand zu reduzieren, wird in der dierende Matrix Wxy zu spezifizieren. praktischen Anwendung häufig auf das explizite Aufstel- Die Gewichtung steuert den Einfluss der Beobachtun- len der Hessematrizen in Gl. (4) verzichtet und i. A. auf gen auf die Schätzung, wobei höhere Gewichte einen grö- das Quasi-Newton-Verfahren zurückgegriffen. Ein Über- ßeren Einfluss ausüben als kleinere. Insbesondere bei he- blick über mögliche Verfahren findet sich in [3, 17]. terogenen Beobachtungen bietet sich eine Gewichtung an, die präzisere Beobachtungen stärker berücksichtigt. Eine geeignete Wahl für die Gewichtsmatrix ergibt sich aus der inversen Dispersionsmatrix der Beobachtungen [7, S. 104]. 3 Regressionsgerade Beobachtungen mit kleinen Varianzen erhalten gegenüber Beobachtungen mit größeren Varianzen hierdurch ein hö- Aufgrund der hohen Anschaulichkeit und in Anlehnung heres Gewicht. Im Gegenzug bedeutet eine Gleichgewich- an die Untersuchungen von Kolaczia [9] wird nachfolgend tung stochastische Isotropie des Beobachtungsmaterials. die Gültigkeit für einige der zugesprochenen Eigenschaf- Hinweise für eine sachgerechte Abschätzung von Messun- ten der orthogonalen Regression am Beispiel einer Regres- sicherheiten und zur Bildung der Dispersionsmatrix fin- sionsgeraden untersucht. Zur Parametrierung einer Gera- den sich in [11, 4]. den in der Ebene existieren eine Reihe von Darstellun- Zum Bilden der Newton-Gleichung in Gl. (4) sind der gen [2, Kap. 3.5.2.4]. Eine gebräuchliche Darstellung ist die Gradient der Zielfunktion, Punkt-Richtung-Gleichung ∇Ω = 2Wu, (12a) yi = y0 + a (xi − x0 ) , (6) sowie die Jacobimatrix der Nebenbedingung, worin PT0 = ( x0 y0 ) die Koordinaten des Aufpunktes x1 + vxk1 1 ak ⋅⋅⋅ 0 −1 ⋅⋅⋅ 0 sind und a die Steigung der Geraden darstellt. Weiterhin .. .. .. .. .. .. .. .. J= ( . . . . . . . . ), ist PTi = ( xi yi ) ein beliebiger Punkt der Geraden. Aus xn + vxkn 1 0 ⋅⋅⋅ ak 0 ⋅⋅⋅ −1 der Substitution von b = y0 − ax0 in Gl. (6) resultiert die (12b) kompakte Darstellung an der aktuellen Entwicklungsstelle uk zu bilden. Die Hes- yi = axi + b, (7) sematrix der Zielfunktion lautet worin b den Schnittpunkt mit der y-Achse beschreibt. ∇2 Ω = 2W. (12c) Für n Punkte enthält der Vektor der Modellparameter Die Hessematrizen der n Nebenbedingung sind dünn be- u neben dem Anstieg a und dem y-Achsenabschnitt b zu- setzt. Sie besitzen jeweils an der mit vxi korrespondieren- sätzlich auch die Beobachtungsverbesserungen v der 2n den Zeile bzw. Spalte eine Eins in der ersten Spalte bzw. Koordinatenkomponenten und lautet Zeile, d. h., uT = ( a b vx1 ⋅⋅⋅ vxn vy1 ⋅⋅⋅ vyn ) . (8) 0 0 1i 0 ⋅⋅⋅ 0 0 0 0 ⋅⋅⋅ Die Nebenbedingung in Gl. (1b) ergibt sich unter Berück- ( 1i 0 0 0 ⋅⋅⋅ ) H(i) =( ). (12d) sichtigung von v zu ( .. ) 0 0 0 . ⋅⋅⋅ .. .. .. .. .. 0 = a (xi + vxi ) + b − (yi + vyi ) . (9) ( . . . . . )
640 | M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? Tab. 1: Kartesische Koordinaten zur Schätzung der Modellparameter Tab. 2: Zusammenstellung der geschätzten Modellparameter für einer Regressionsgeraden in der Ebene. drei unterschiedlich gewählte Gewichtsverhältnisse. Nr. P1 P2 P3 P4 P5 wx ≫ wy wx = wy wx ≪ wy x 0,20 0,33 0,60 0,67 0,80 a −0,5224 −0,5860 −0,7938 y 0,47 0,27 0,33 0,07 0,13 b 0,5256 0,5587 0,6668 vx1 0,0000 −0,0124 0,0479 vx2 0,0000 0,0416 0,1698 vx3 0,0000 −0,0536 −0,1757 Das Iterationsverfahren wird solange wiederholt, bis die vx4 0,0000 0,0419 0,0818 Optimalitätsbedingung in Gl. (3) erfüllt ist, wobei die Ite- vx5 0,0000 −0,0175 −0,1238 vy1 0,0000 rierten des vorangegangenen Berechnungsschrittes als −0,0488 −0,0212 vy2 0,0833 0,0710 0,0000 verbesserte Startlösung im darauffolgenden Berechnungs- vy3 −0,1178 −0,0915 0,0000 schritt verwendet werden. vy4 0,1056 0,0715 0,0000 Zur Schätzung einer Regressionsgeraden liegen die in vy5 −0,0223 −0,0298 0,0000 Tabelle 1 gegebenen n = 5 fiktiven kartesischen Koordi- naten vor. Die x- und y-Komponenten dieser Punkte seien jeweils unabhängige und identisch verteilte Zufallsvaria- der Beobachtungen. Beobachtungen mit einer kleinen Va- blen, sodass die Gewichtsmatrix durch rianz bzw. einem großen Gewicht weisen somit geringere wx I 0 Verbesserungen auf und beeinflussen die Schätzung stär- Wxy = [ ] (13) ker als Beobachtungen mit größeren Varianzen. Wird hin- 0 wy I gegen stochastische Isotropie, d. h. identische Gewichte beschrieben wird. Hierin ist I die Einheitsmatrix und wx wx = wy gewählt, so stehen die einzelnen Verbesserungs- bzw. wy die einheitlichen Gewichtungen für die x- bzw. vektoren der Punkte senkrecht auf der geschätzten Gera- y-Komponente. den. Diese Lösung entspricht einer orthogonalen Regres- Im Folgenden soll geprüft werden, welche Rolle die sion, welche somit als Spezialfall eines allgemeinen Opti- Gewichtung auf die Schätzung hat. Ferner wird unter- mierungsproblems aufgefasst werden darf. sucht, ob die Ergebnisse bzgl. einer Koordinatentransfor- mation invariant sind und wie sich ein Wechsel der Koor- dinatendarstellung auswirkt. 3.2 Koordinatentransformation Unter einer Koordinatentransformation wird in diesem 3.1 Einfluss der Gewichtung Beitrag eine Verschiebung, Drehung oder Skalierung des Koordinatensystems verstanden. Für die orthogonale Re- Um den Einfluss der Gewichtung auf die Schätzung zu de- gression gibt Ahn [1, Kap. 1.2.2] an, dass die Schätzungen monstrieren, wurden drei unterschiedliche Gewichtsver- durch eine Transformation der Koordinaten nicht beein- hältnisse bei der Bestimmung der Regressionsgeraden ge- flusst wird. Intrinsische Modellparameter wie bspw. der wählt. Radius eines Kreises bleiben somit invariant. Kolaczia [9] Abbildung 1 zeigt neben den fünf Punkten (siehe Ta- weist andererseits daraufhin, dass eine Skalierung zu un- belle 1) die resultierenden Regressionsgeraden für drei un- terschiedlichen Ergebnissen führt und somit die Ergeb- terschiedlich gewählte Gewichtungen, wx ≫ wy (1a), wx = nisse nicht mehr unabhängig von den gewählten Maßein- wy (1b) und wx ≪ wy (1c). Weiterhin sind die geschätzten heiten sind. Im Folgenden werden beide Aussagen unter- Verbesserungsvektoren der einzelnen Schätzungen durch sucht. Zwei Schätzungen werden hierbei als äquivalent schwarze Pfeile eingezeichnet. Numerische Werte für die angesehen, wenn deren (gewichtete) Verbesserungsqua- geschätzten Modellparameter sind in Tabelle 2 zusammen- dratsummen identisch und somit unabhängig von der Ko- gestellt. ordinatentransformation sind. Für wx ≫ wy bzw. wx ≪ wy gehen die geschätzten Verbesserungen vx bzw. vy gegen Null, siehe Tabelle 2. Für entsprechend große Gewichtsverhältnisse gehen die- 3.2.1 Verschiebung se Lösungen somit in eine Ausgleichung über, die nur die horizontalen bzw. vertikalen Abstände minimiert. Die Ge- Eine Verschiebung der Koordinaten um tx bzw. ty führt mit wichtsmatrix entspricht der inversen Dispersionsmatrix x0 +tx und y0 +ty zu einer Änderung in den Koordinaten des
M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? | 641 Abb. 1: Resultierende Regressionsgeraden bei unterschiedlich gewählten Gewichtsverhältnissen: (a) wx ≫ wy , (b) wx = wy und (c) wx ≪ wy . Die originären Koordinaten sind durch graue Quadrate und die jeweils verbesserten Koordinaten der einzelnen Schätzungen sind durch rote Kreise dargestellt. Schwarze Pfeile symbolisieren die geschätzten Verbesserungsvektoren. Für wx = wy stehen diese Verbesserungsvekto- ren senkrecht auf der geschätzten Geraden. Aufpunktes in Gl. (6). Die (gewichtete) Verbesserungsqua- Mittels der linearen Transformation in Gl. (14) ist auch die dratsumme bleibt jedoch unverändert. Wie man sich leicht Gewichtsmatrix zu transformieren, da diese ebenfalls vom an Abbildung 1 veranschaulichen kann, trifft dies auf je- gewählten Koordinatensystem bzw. Datum abhängt. Die des Optimierungsproblem zu und ist somit keine exklusive transformierte Gewichtsmatrix lautet [7, S. 100] Eigenschaft der orthogonalen Regression. Es handelt sich T −1 um den Trivialfall, sodass sich eine weitere Untersuchung W xy = ((R ⊗ I) W−1 xy (R ⊗ I) ) . (15) erübrigt. Für die Zielfunktion in Gl. (10) folgt somit unmittelbar 3.2.2 Drehung Ω = v T W xy v (16) = vT (R ⊗ I)T ((R ⊗ I) W−1 T −1 xy (R ⊗ I) ) (R ⊗ I) v Eine Drehung wird allgemein durch eine orthogonale Ma- trix R parametriert, für die RRT = RT R = I und det R = +1 = vT (R ⊗ I)T (R ⊗ I) Wxy (R ⊗ I)T (R ⊗ I) v gilt [16]. Für eine Drehung in der Ebene um den Winkel α = vT Wxy v ergibt sich die Rotationsmatrix zu = Ω. cos α − sin α R=( ). Beide Schätzungen liefern identische (gewichtete) Verbes- sin α cos α serungsquadratsummen und sind somit äquivalent. Die Eine Koordinatentransformation, die ausschließlich Modellparameter mögen aufgrund des geänderten Koor- eine Drehung um den Koordinatenursprung beschreibt, ist dinatensystems differieren, lassen sich jedoch durch eine gegeben durch geeignete Transformation ineinander überführen. Es han- L = (R ⊗ I) L, delt sich somit um keine exklusive Eigenschaft der ortho- gonalen Regression. Für die rotierte Gerade ergeben sich worin Anstieg und y-Achsenabschnitt aus LT = ( x1 x2 ... xn y1 y2 ... yn ) a = tan (α + arctan a) und L die Vektoren der originären bzw. der rotierten Koor- dinaten sind und ⊗ das Kronecker-Produkt symbolisiert [2, bzw. S. 258]. Da diese Transformation sowohl auf die originären Koordinaten als auch auf die verbesserten Koordinaten an- b = b (cos α + a sin α) . gewendet werden darf, ergibt sich für den Verbesserungs- vektor die wichtige Beziehung Während sich die Vektorkomponenten durch Multipli- kation mit einer orthogonalen Matrix ändern, bleibt die v = (R ⊗ I) (L + v − L) (14) Länge des Vektors unverändert. Tabelle 3 stellt die resul- = (R ⊗ I) v. tierenden Verbesserungsvektoren sowie deren Länge für
642 | M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? Tab. 3: Gegenüberstellung der geschätzten Verbesserungsvektoren sowie deren Länge für die Regressionsgerade vor und nach einer Dre- hung (Gewichtung wx = wy ). Die Drehung wurde so gewählt, dass der Anstieg der gedrehten Geraden a = −1 ist. Nr. vx vy vx vy v |v| P1 −0,0124 −0,0212 0,0246 −0,0174 −0,0174 0,0246 P2 0,0416 0,0710 0,0823 0,0582 0,0582 0,0823 P3 −0,0536 −0,0915 0,1060 −0,0750 −0,0750 0,1060 P4 0,0419 0,0715 0,0829 0,0586 0,0586 0,0829 P5 −0,0175 −0,0298 0,0346 −0,0244 −0,0244 0,0346 die Regressionsgerade vor und nach einer Drehung gegen- Beide Schätzungen liefern identische (gewichtete) Ver- über. Der Drehwinkel α wurde hierbei so gewählt, dass die besserungsquadratsummen und sind somit äquivalent. Steigung der gedrehten Geraden −45° beträgt. Dies ent- Durch die Skalierung ändern sich u. U. die geschätzten spricht einem Anstieg von a = −1. Für die Komponenten Modellparameter, diese können jedoch durch eine geeig- der Verbesserungsvektoren ergibt sich hierdurch bei iden- nete Transformation ineinander überführt werden. Seien tischer Gewichtung vx i = vy i . Da die mittels Gl. (14) ermit- sx und sy die Skalierungen der x- bzw. y-Komponente, so telten Vektorkomponenten vom gewählten Datum abhän- resultieren Anstieg und y-Achsenabschnitt aus gen, erscheinen diese für eine objektive Bewertung unge- sy eignet. a = a sx bzw. 3.2.3 Skalierung b = sy b. Eine Skalierung der Beobachtungen wird nötig, wenn bspw. zwischen Maßeinheiten umzurechnen ist. Sie lässt Standen die Verbesserungsvektoren vor der Transformati- sich allgemein durch eine reguläre Diagonalmatrix S dar- on senkrecht auf der Geraden, so stehen die skalierten Vek- stellen, welche auf der Hauptdiagonalen die Skalierungs- toren aufgrund von Gl. (17) nach der Transformation nicht parameter enthält. Die lineare Koordinatentransformati- mehr senkrecht auf der Geraden, sofern es sich bei S nicht on, die ausschließlich eine Skalierung berücksichtigt, ist um eine einheitlich skalierte Einheitsmatrix handelt. gegeben durch Unabhängig von der Orientierung der Verbesserungs- vektoren bleibt die zugewiesene physische oder geometri- L = SL, sche Bedeutung der Modellparameter erhalten und eine Umrechnung zwischen Maßeinheiten ist problemlos mög- worin L und L die Vektoren der originären bzw. der ska- lich. Es handelt sich somit um keine exklusive Eigenschaft lierten Koordinaten sind. Verbesserungen und Gewichts- der orthogonalen Regression. Zu beachten ist, dass der matrix lauten Wechsel der Maßeinheit bzw. die Skalierung nicht nur für v = S (L + v − L) (17) die Messwerte selbst, sondern auch für deren Dispersion durchzuführen ist. Bei Missachtung werden unterschied- = Sv liche Zielfunktionen minimiert, sodass die Schätzungen bzw. nicht mehr äquivalent zueinander sind, wie Kolaczia [9] −1 zeigt. Weiterhin zeigt das Beispiel der Skalierung anschau- W xy = (SWxy S) . −1 (18) lich, dass jedes allgemeine Optimierungsproblem durch eine geeignete Modifikation in das spezielle Problem einer Für die Zielfunktion in Gl. (10) folgt orthogonalen Regression überführbar ist. Ω = v T W xy v (19) T −1 = v S (SW−1xy S) Sv 3.3 Koordinatendarstellung = vT SS−1 Wxy S−1 Sv In einigen Anwendungen in der Koordinatenmesstech- = vT Wxy v nik werden anstelle von kartesischen Koordinaten die = Ω. korrespondierenden polaren Messelemente registriert,
M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? | 643 bspw. bei Verwendung eines Lasertrackers [5]. Eine Um- rechnung zwischen beiden Koordinatendarstellungen ist widerspruchsfrei möglich. In der Ebene lautet die Umfor- mung von Polarkoordinaten in kartesische Koordinaten xi = ri cos ϕi , (20a) yi = ri sin ϕi . (20b) Die Umformung von kartesischen Koordinaten in Polarko- ordinaten ist gegeben durch y ϕi = arctan i , (21a) xi ri = √xi2 + yi2 . (21b) Hierin bezeichnet ri die Strecke und ϕi den Richtungswin- kel. Abb. 2: Resultierende Regressionsgerade bei Verwendung von Po- larkoordinaten. Für diese Darstellung wurden die polaren Elemente In diesem Abschnitt wird untersucht, ob die gewähl- mittels Gl. (20) umgeformt. Graue Quadrate und rote Kreise entspre- te Koordinatendarstellung die Schätzung beeinflusst, oder chen den originären bzw. verbesserten Koordinaten in kartesischer ob die Ergebnisse unabhängig hiervon sind. Einerseits ge- Darstellung. Schwarze Pfeile symbolisieren die jeweiligen Verbes- ben Holst et al. [6] an, dass eine orthogonale Regression serungsvektoren, die nicht senkrecht auf der geschätzten Geraden nur mit kartesischen Koordinaten durchführbar sei. Ande- stehen. rerseits zeigen Koch & Kargoll [8], dass die Ausgleichungs- ergebnisse unabhängig von der Wahl der Koordinatendar- Tab. 4: Verbesserungsvektoren in kartesischer Darstellung für die stellung sind. Eine Umrechnung wäre demnach unnötig. Regressionsgerade bei Verwendung von Polarkoordinaten. Um zu prüfen, inwieweit sich eine gewählte Koordina- tendarstellung auf die Schätzung auswirkt, werden die Ko- P1 P2 P3 P4 P5 ordinaten aus Tabelle 1 mittels Gl. (21) in ihre polare Dar- vx −0,0048 0,0652 −0,0861 0,0625 −0,0330 stellung umgeformt. Weiterhin ergibt die Substitution der vy −0,0100 0,0632 −0,0722 0,0492 −0,0327 Gl. (20) in Gl. (7) die Regressionsgerade mit Polarkoordina- |v| 0,0111 0,0907 0,1123 0,0795 0,0465 ten, d. h., ri sin ϕi = a (ri cos ϕi ) + b. (22) dennoch um eine orthogonale Regression handelt, kann Unter Berücksichtigung der polaren Verbesserungen lau- Abbildung 3 leicht entnommen werden. tet die in Gl. (1b) zu berücksichtigende Nebenbedingung Abbildung 3 zeigt die identische Regressionsgerade 0 = a (ri + vri ) cos (ϕi + vϕi ) + in polarer Darstellung, die sich durch Umformung von Gl. (22) zu + b − (ri + vri ) sin (ϕi + vϕi ). (23) b Gemäß dem Prinzip der Methode der kleinsten Qua- ri = f (ϕi ) = (sin ϕi − a cos ϕi ) drate wird Gl. (10) als Zielfunktion verwendet. Der Verbes- serungsvektor enthält hierbei jedoch die polaren Verbes- ergibt. Gut zu erkennen ist, dass in dieser Darstellung die serungen vT = ( vϕ1 . . . vϕn vr1 . . . vrn ) und Wxy Verbesserungsvektoren senkrecht auf der Regressionskur- wird sinngemäß durch Wϕr ersetzt. Im Abschnitt 3.1 konn- ve stehen, sodass es sich um eine orthogonale Regression te bereits gezeigt werden, dass eine orthogonale Regressi- handelt. Eine orthogonale Regression ist folglich auch mit on durch eine einheitliche Gewichtung realisiert werden Polarkoordinaten möglich und beschränkt sich nicht auf kann. Als Gewichtung wird daher Wϕr = I verwendet. die Verwendung kartesischer Koordinaten. Abbildung 2 zeigt die resultierende Regressionsgera- Die Abbildungen 2 und 3 zeigen identische Schätzun- de mit den geschätzten Formparametern a = −0,634 und gen in unterschiedlichen Koordinatendarstellungen. Be- b = 0,584 in kartesischer Darstellung. Numerische Wer- sitzen die Formparameter a und b eine physische oder te für die Verbesserungen sind in Tabelle 4 zusammenge- geometrische Bedeutung in der kartesischen Darstellung, stellt. Gut zu erkennen ist, dass die Verbesserungsvekto- so ist diese in der Polardarstellung nicht unmittelbar er- ren nicht senkrecht auf dieser Geraden stehen. Dass es sich kennbar – wenngleich die Verbesserungen hier orthogo-
644 | M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? mit der Zielfunktion n yi + vyi yi 2 Ω (vx , vy ) = ∑ (arctan − arctan ) + i=1 xi + vxi xi n 2 2 2 + ∑ (√(xi + vxi ) + (yi + vyi ) − √xi2 + yi2 ) i=1 replizieren, wenn kartesische Koordinaten verwendet wer- den. Ein vorheriger Wechsel der Koordinatendarstellung ist demnach unnötig. Der Wechsel der Koordinatendarstellung ist ein wei- Abb. 3: Darstellung der geschätzten Regressionsgeraden in Ab- teres anschauliches Beispiel dafür, dass jedes allgemeine hängigkeit der polaren Elemente ϕ und r. Graue Quadrate und rote Optimierungsproblem durch eine geeignete Modifikation Kreise entsprechen den originären bzw. verbesserten Koordinaten in das spezielle Problem einer orthogonalen Regression in polarer Darstellung. Schwarze Pfeile symbolisieren die jeweiligen überführbar ist, vgl. Abbildung 2 und 3. Ob die Verbesse- Verbesserungsvektoren, die senkrecht auf der geschätzten Funktion stehen. rungen senkrecht auf der Funktion stehen, hängt von der gewählten Modellbildung, d. h, vom funktionalen Modell, vom stochastischen Modell und von der gewählten Ziel- funktion ab. nal sind. Die orthogonale Regression liefert somit keine Modellparameter, die eine physische oder geometrische Bedeutung aufweisen müssen. Dies ist auch nicht die Auf- gabe des Schätzers. Vielmehr weist der Analyst durch eine 4 Zusammenfassung entsprechende Modellbildung den hierfür gewählten Mo- dellparametern der Schätzung eine physische oder geome- In vielen Anwendungen wird zur Datenanalyse auf die or- trische Bedeutung zu. thogonale Regression zurückgegriffen und somit stochas- Weiterhin veranschaulichen die Ergebnisse, dass die- tische Isotropie der Beobachtungen unterstellt, bei der se nicht unabhängig von der Koordinatendarstellung sind, die zu minimierenden Verbesserungen senkrecht auf der da jeweils unterschiedliche Zielfunktionen minimiert wer- Funktion stehen. Einer der zumeist aufgeführten Haupt- den [13]. Koch & Kargoll [8] zeigen, dass die Ergebnisse gründe für den Einsatz dieses Verfahrens ist der hohe An- einer Schätzung nur dann unabhängig von der Koordi- schauungsgrad. In diesem Beitrag wurde untersucht, ob natendarstellung sind, wenn eine linearisierte Transfor- ein Teil der zugesprochenen Eigenschaften der orthogona- mation verwendet wird. Die Umformungen nach Gl. (20) len Regression exklusive Eigenschaften dieses Verfahrens bzw. Gl. (21) sind nichtlinear, sodass diese Aussage nicht sind oder ob es sich um grundlegende Eigenschaften eines verallgemeinert werden darf. In der Praxis treten jedoch allgemeinen Optimierungsproblems handelt. meist nur kleine Verbesserungen auf, sodass die Diffe- Es wurde untersucht, ob die Modellparameter der or- renzen, die aus den unterschiedlich gewählten Koordi- thogonalen Regression eine spezielle physische oder geo- natendarstellungen resultieren, häufig vernachlässigbar metrische Bedeutung aufweisen, die Lösungen eines all- sind. gemeinen Optimierungsproblems nicht besitzen. Die Un- Lösler [13] zeigt, dass identische Ergebnisse durch ei- tersuchungen in Abschnitt 3 zeigen, dass die physische ne sachgerechte Modifikation der Zielfunktion gewonnen oder geometrische Bedeutung der Modellparameter nicht werden. Mit der Zielfunktion der polaren Verbesserungen aus dem gewählten Optimierungsverfahren resultiert, son- dern sich aus der gewählten Modellbildung, d. h. dem n Ω (vϕ , vr ) = ∑ ((ri + vri ) cos (ϕi + vϕi ) − ri cos ϕi ) + 2 funktionalen Modell, dem stochastischen Modell und der i=1 gewählten Zielfunktion, ergibt. Ein gewähltes Optimie- n 2 rungsverfahren weist den Modellparametern grundsätz- + ∑ ((ri + vri ) sin (ϕi + vϕi ) − ri sin ϕi ) lich keine physische oder geometrische Bedeutung zu. i=1 Dies ist Aufgabe des Anwenders bei der Analyse und der ergeben sich die Ergebnisse der orthogonalen Regression Ergebnisinterpretation. im kartesischen Datum. Entsprechend lassen sich die Er- Im Abschnitt 3.2 wurde geprüft, ob die Ergebnisse ei- gebnisse der orthogonalen Regression im polaren Datum nes allgemeinen Optimierungsproblems durch eine Koor-
M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? | 645 dinatentransformation beeinflusst werden. Denkbare An- Danksagung: Wir widmen diesen Beitrag Frau Prof. wendungen sind das Zusammenführen von Bauteilen mit Dr.-Ing. Maria Hennes vom Geodätischen Institut des unterschiedlichen Objektkoordinatensystemen oder das Karlsruher Instituts für Technologie. Umrechnen von Maßeinheiten. Es konnte gezeigt werden, dass sich die Zielfunktion durch eine Koordinatentrans- formation nicht ändert, sodass die Ergebnisse äquivalent Literatur zueinander sind. Änderungen in den geschätzten Modell- parametern lassen sich durch eine geeignete Transforma- 1. Ahn, S. J. Least Squares Orthogonal Distance Fitting of Curves and Surfaces in Space. Lecture Notes in Computer tion umkehren. Dies wurde exemplarisch für die Parame- Science, vol. 3151. Springer, Berlin, Heidelberg, 2004. ter der Geraden gezeigt. Standen die Verbesserungsvekto- doi: 10.1007/b104017. ren vor der Transformation senkrecht auf der Funktion, so 2. Bronshtein, I. N., Semendyayev, K. A., Musiol, G., und können diese in Abhängigkeit der gewählten Transforma- Muehlig, H. Handbook of Mathematics, 5. Auflage. Springer, tion jedoch nach der Transformation eine beliebige Orien- Berlin, Heidelberg, 2007. doi: 10.1007/978-3-540-72122-2. tierung annehmen. 3. Geiger, C., und Kanzow, C. Theorie und Numerik restringierter Optimierungsaufgaben. Springer, Berlin, Heidelberg, 2002. Eine orthogonale Regression ist unabhängig von der doi: 10.1007/978-3-642-56004-0. Koordinatendarstellung der Beobachtungen und sowohl 4. Hennes, M. Zum Umgang mit Unsicherheiten bei geodätischen mit kartesischen Koordinaten als auch mit Polarkoordina- Mess- und Auswerteverfahren. In 125. DVW-Seminar: ten durchführbar. Ob die kartesischen oder die polaren Qualitätssicherung geodätischer Mess- und Auswertverfahren, Verbesserungen senkrecht auf der geschätzten Funktion I. Neumann, V. Schwieger, und K. Fritzensmeier, Eds., DVW-Schriftenreihe, vol. 71. Wißner-Verlag, Augsburg, 2013, stehen, hängt vom funktionalen Modell, vom stochasti- S. 25–46. schen Modell und von der gewählten Zielfunktion ab, wie 5. Hennes, M. Messmittel der Large Volume Metrology die Ergebnisse in Abschnitt 3.2 zeigen. (LVM). In Handbuch der Geodäsie – Ingenieurgeodäsie, Für die Datenanalyse wurde auf die sequentielle qua- W. Freeden und R. Rummel, Eds., Springer Reference dratische Programmierung zurückgegriffen. In der nume- Naturwissenschaften. Springer, Berlin, Heidelberg, 2017, rischen Optimierung wird die SQP insbesondere für allge- S. 347–370. doi: 10.1007/978-3-662-47188-3_26. 6. Holst, C., Zeimetz, P., Nothnagel, A., Schauerte, W., und meine Optimierungsaufgaben mit nichtlinearen Nebenbe- Kuhlmann, H. Estimation of focal length variations of a dingungen empfohlen. In diesem Beitrag wurde die SQP 100-m radio telescope’s main reflector by laser scanner zur Einordnung der Ergebnisse der orthogonalen Regres- measurements. Journal of Surveying Engineering 138, 3 (2012), sion verwendet. Es konnte gezeigt werden, dass von den 126–135. doi: 10.1061/(asce)su.1943-5428.0000082. unendlich vielen Formulierungen eines Optimierungspro- 7. Koch, K.-R. Parameter Estimation and Hypothesis Testing in Linear Models. Springer, Berlin, Heidelberg, 1999. blems die orthogonale Regression lediglich ein spezielles doi: 10.1007/978-3-662-03976-2. beschreibt, siehe z. B. Abbildung 1. Weiterhin wurde in den 8. Koch, K.-R., und Kargoll, B. Outlier detection by the Abschnitten 3.1 und 3.3 exemplarisch gezeigt, dass sich je- EM algorithm for laser scanning in rectangular and polar des allgemeine Optimierungsproblem durch eine geeigne- coordinate systems. Journal of Applied Geodesy 9, 3 (2015), te Modellmodifikation in das spezielle Problem der ortho- 162–173. doi: 10.1515/jag-2015-0004. gonalen Regression überführen lässt, welches äquivalente 9. Kolaczia, W. Das Problem der linearen Ausgleichung im R2. tm – Technisches Messen 73, 11 (2006), 629–633. Ergebnisse liefert. doi: 10.1524/teme.2006.73.11.629. Die Motivation für diese Untersuchungen war die 10. Krystek, M. Ausgleichsgeraden in der Ebene. tm – Technisches durch Kolaczia [9] aufgeworfene Frage, ob die orthogonale Messen 71, 1 (2004), 19–23. doi: 10.1524/teme.2011.0118. Regression für die Auswertung von Daten in der Metrolo- 11. Krystek, M. Berechnung der Messunsicherheit – Grundlagen gie geeignet ist. Die orthogonale Regression kann geeignet und Anleitung für die praktische Anwendung. Messwesen. DIN Deutsches Institut für Normung e. V., Beuth Verlag, Berlin, 2012. sein, da diese eine spezielle Formulierung eines allgemei- 12. Lenzmann, L., und Lenzmann, E. Strenge Auswertung des nen Optimierungsproblems darstellt. Kolaczia [9] zeigt je- nichtlinearen Gauß-Helmert-Modells. avn – Allgemeine doch anschaulich am Beispiel einer Skalierung, dass oh- Vermessungs-Nachrichten 111, 2 (2004), 68–73. ne geeignete Maßnahmen die Ergebnisse der orthogona- 13. Lösler, M. Zur Parameterschätzung mit unterschiedlichen len Regression widersprüchlich werden können. Die or- Koordinatendarstellungen. zfv – Zeitschrift für Geodäsie, thogonale Regression ist demnach kein Analysewerkzeug, Geoinformation und Landmanagement (2020). doi: 10.12902/zfv-0319-2020. das universell auf jede Problemstellung direkt anwendbar 14. Malissiovas, G. New nonlinear adjustment approaches ist. Hierin wiederum liegt die Stärke eines allgemeinen Op- for applications in geodesy and related fields. Doctoral timierungsverfahrens wie bspw. der in Abschnitt 2 vorge- thesis, Technische Universität Berlin, Berlin, 2019. stellten sequentiellen quadratischen Programmierung. doi: 10.14279/depositonce-9194.2.
646 | M. Lösler und C. Eschelbach, Orthogonale Regression – Realität oder Isotropie? 15. Neitzel, F., Ezhov, N., und Petrovic, S. Total least squares Cornelia Eschelbach spline approximation. Mathematics 7, 5 (2019), 462. Frankfurt University of Applied Sciences, doi: 10.3390/math7050462. Faculty of Architecture, Civil Engineering 16. Nitschke, M., und Knickmeyer, E. H. Rotation parameters – a and Geomatics, Laboratory for Industrial survey of techniques. Journal of Surveying Engineering 126, 3 Metrology, Nibelungenplatz 1, D-60318 (2000), 83–105. doi: 10.1061/(asce)0733-9453(2000)126:3(83). Frankfurt am Main, Germany 17. Nocedal, J., und Wright, S. J. Numerical cornelia.eschelbach@fb1.fra-uas.de Optimization, 2. Auflage. Springer, New York, 2006. doi: 10.1007/978-0-387-40065-5. 18. Weisbach, J. Bestimmung des Hauptstreichens und Cornelia Eschelbach studierte zwischen 1997 und 2002 Geodäsie Hauptfallens von Lagerstätten. In Archiv für Mineralogie, am Karlsruher Institut für Technologie. Sie promovierte am Geodäti- Geognosie, Bergbau und Hüttenkunde, C. J. B. Karsten und H. schen Institut des Karlsruher Instituts für Technologie am Lehrstuhl v. Dechen, Eds., vol. 14. Reimer, Berlin, 1840, S. 159–174. für Vermessungskunde und Geodätische Sensorik von Frau Prof. 19. Wijewickrema, S., Esson, C., und Papliński, A. Orthogonal Dr.-Ing Maria Hennes zum Thema: Refraktionskorrekturbestimmung Distance Least Squares Fitting: A Novel Approach. In Computer durch Modellierung des Impuls- und Wärmeflusses in der Rauhig- Vision, Imaging and Computer Graphics – Theory and keitsschicht. 2010 nahm sie den Ruf an die Frankfurt University of Applications, A. K. Ranchordas, J. M. Pereira, H. J. Araújo, und Applied Sciences für die Professur für Vermessung und angewandte J. M. R. S. Tavares, Eds., vol. 68. Springer, Berlin, Heidelberg, Geodäsie an. Drei Jahre später gründete sie das Labor für Industriel- 2010, ch. Computer Vision Theory and Applications (VISAPP), le Messtechnik, welches in den Bereichen Large Volume Metrology pp. 255–268. doi: 10.1007/978-3-642-11840-1_19. und Parameterschätzung Forschungsschwerpunkte setzt. Autoreninformationen Michael Lösler Frankfurt University of Applied Sciences, Faculty of Architecture, Civil Engineering and Geomatics, Laboratory for Industrial Metrology, Nibelungenplatz 1, D-60318 Frankfurt am Main, Germany michael.loesler@fb1.fra-uas.de Michael Lösler schloss 2006 sein Studium zum Vermessungs- ingenieur an der Hochschule Neubrandenburg erfolgreich mit dem Diplom ab. Er entwickelte ein neues mathematisches Mo- dell zur automatisierten Referenzpunktbestimmung an Radiote- leskopen im Rahmen des DFG Projektes: Hochpräzise Echtzeit- Referenzpunktbestimmung von VLBI-Radioteleskopen zur Verknüp- fung der IVS- und IGS-Referenzrahmen am Karlsruher Institut für Technologie am Lehrstuhl für Vermessungskunde und Geodätische Sensorik von Frau Prof. Dr.-Ing Maria Hennes am Geodätischen Insti- tut. Seit 2014 ist er im Labor für Industrielle Messtechnik der Frank- furt University of Applied Sciences beschäftigt und wissenschaft- licher Mitarbeiter im GeoMetre Projekt: Large-scale dimensional measurements for geodesy.
Sie können auch lesen