Die partielle Regression der kleinsten Quadrate (PLS-Regression) ist eine statistische Methode, die eine Beziehung zur Regression der Hauptkomponenten aufweist. Anstatt Hyperebenen mit maximaler Varianz zwischen der Antwort und unabhängigen Variablen zu finden, findet sie ein lineares Regressionsmodell, indem die vorhergesagten Variablen und die beobachtbaren Variablen in einen neuen Raum projiziert werden. Da sowohl die Daten X als auch Y in neue Räume projiziert werden, werden die Methoden der PLS-Familie als bilineare Faktormodelle bezeichnet. Die Diskriminanzanalyse mit partiellen kleinsten Quadraten (PLS-DA) ist eine Variante, die verwendet wird, wenn das Y kategorial ist.
PLS wird verwendet, um die grundlegenden Beziehungen zwischen zwei Matrizen zu finden ( X und Y ), d. H. Ein latenter variabler Ansatz zur Modellierung der Kovarianzstrukturen in diesen beiden Räumen. Ein PLS-Modell versucht, die multidimensionale Richtung im X -Feld zu finden, die die maximale multidimensionale Varianzrichtung im Y -Raum erklärt. Die PLS-Regression ist besonders geeignet, wenn die Matrix der Prädiktoren mehr Variablen als Beobachtungen aufweist und wenn zwischen X Werten Multikollinearität besteht. Im Gegensatz dazu schlägt die Standardregression in diesen Fällen fehl (es sei denn, sie wird reguliert).
Partielle Kleinste Quadrate wurde vom schwedischen Statistiker Herman O. A. Wold eingeführt, der es dann zusammen mit seinem Sohn Svante Wold entwickelte. Ein alternativer Begriff für PLS (und richtiger nach Svante Wold [1]) ist eine Projektion auf latente Strukturen aber der Begriff partiellen kleinsten Quadraten ist in vielen Bereichen immer noch vorherrschend. Obwohl sich die ursprünglichen Anwendungen in den Sozialwissenschaften befanden, wird die PLS-Regression heute am häufigsten in der Chemometrie und verwandten Bereichen eingesetzt. Es wird auch in der Bioinformatik, Sensometrie, Neurowissenschaft und Anthropologie verwendet.
Basiswert [ edit ]
Das allgemeine zugrundeliegende Modell von multivariaten PLS ist
wobei X ein [ist] 19659029] n
Algorithmen [ edit ]
Es gibt eine Reihe von Varianten von PLS zum Schätzen des Faktors und der Ladematrizen T, U, P und [194590012] Q . Die meisten von ihnen konstruieren Schätzungen der linearen Regression zwischen X und Y als . Einige PLS-Algorithmen sind nur für den Fall geeignet, in dem Y ein Spaltenvektor ist, während andere den allgemeinen Fall einer Matrix Y behandeln. Algorithmen unterscheiden sich auch darin, ob sie die Faktormatrix T als orthogonale, orthonormale -Matrix schätzen oder nicht. [2][3][4][5][6][7] Die endgültige Vorhersage wird für alle diese PLS-Varietäten dieselbe sein, jedoch nicht für die Komponenten wird sich unterscheiden
PLS1 [ edit ]
PLS1 ist ein weit verbreiteter Algorithmus, der für den Vektor Y geeignet ist. Es schätzt T als orthonormale Matrix. Im Pseudocode wird er unten ausgedrückt (Großbuchstaben sind Matrizen, Kleinbuchstaben sind Vektoren, wenn sie hochgestellt sind, und Skalare, wenn sie tiefgestellt werden):
1 Funktion PLS1 ( X, y, l ) 2 3 eine erste Schätzung von w . 4 für bis 5 6 (beachten Sie, dass dies ein Skalar ist) 7 9 if 11 bricht für Loop 12 if <img src = "https://wikimedia.org / api / rest_v1 / media / math / render / svg / 7b2f20fd084745291b8dd9dac5c454a705d5a85a "class =" mwe-math-fallback-image-inline "aria-hidden =" true "style =" vertical-align: -0.838ex; Breite: 10.815ex; height: 2.843ex; "alt =" { displaystyle k <(l-1)}"/> 13 14 15 end für 16 definieren W als Matrix mit Säulen . Machen Sie dasselbe, um die Matrix P und den Vektor q zu bilden. 17 18 19 return
Diese Form des Algorithmus erfordert keine Zentrierung der Eingabe X und Y da dies vom Algorithmus implizit ausgeführt wird. Dieser Algorithmus weist eine "Deflation" der Matrix auf X (Subtraktion von ]aber Deflation des Vektors y wird nicht durchgeführt, da es nicht notwendig ist (es kann nachgewiesen werden, dass das Ablassen von Luft und die gleichen Ergebnisse liefert wie das Nicht-Ablassen). Die vom Benutzer bereitgestellte Variable l ist die Begrenzung der Anzahl der latenten Faktoren bei der Regression. Wenn es dem Rang der Matrix X entspricht, liefert der Algorithmus die Schätzwerte für die Regression der kleinsten Quadrate für B und
Erweiterungen [ edit ]
Im Jahr 2002 wurde eine neue Methode veröffentlicht, die als orthogonale Projektionen auf latente Strukturen (OPLS) bezeichnet wurde. In OPLS werden fortlaufende variable Daten in vorhersagende und unkorrelierte Informationen unterteilt. Dies führt zu einer verbesserten Diagnose sowie zu einer leichteren Interpretation der Visualisierung. Diese Änderungen verbessern jedoch nur die Interpretierbarkeit und nicht die Vorhersagbarkeit der PLS-Modelle. [8] L-PLS erweitert die PLS-Regression auf 3 verbundene Datenblöcke. [9] In ähnlicher Weise kann beim Arbeiten OPLS-DA (Diskriminanzanalyse) angewendet werden mit diskreten Variablen, wie in Klassifizierungs- und Biomarker-Studien.
Im Jahr 2015 wurden partielle kleinste Fehlerquadrate mit einem Verfahren bezeichnet, das als Drei-Pass-Regressionsfilter (3PRF) bezeichnet wird. [10] Unter der Annahme, dass die Anzahl der Beobachtungen und Variablen groß ist, ist die 3PRF (und damit der PLS) für die "asymptotisch normal". beste "Vorhersage, impliziert durch ein lineares latentes Faktormodell. In den Aktienmarktdaten hat sich gezeigt, dass PLS exakte Prognosen außerhalb der Stichprobe für die Rendite und das Wachstum des Cashflows liefert. [11]
Eine PLS-Version, die auf Singular Value Decomposition (SVD) basiert eine speichereffiziente Implementierung, die verwendet werden kann, um hochdimensionale Probleme anzugehen, wie z. B. das Verknüpfen von Millionen genetischer Marker mit Tausenden von Bildgebungsmerkmalen in der bildgebenden Genetik auf Hardware für den Consumer-Bereich. [12]
PLS Korrelation (PLSC) ist eine andere Methodik, die sich auf die PLS-Regression bezieht, [13] die im Neuroimaging [13][14][15] und in letzter Zeit in der Sportwissenschaft [16] verwendet wurde, um die Stärke der Beziehung zwischen Datensätzen zu quantifizieren. Normalerweise teilt PLSC die Daten in zwei Blöcke (Untergruppen) auf, die jeweils eine oder mehrere Variablen enthalten, und verwendet dann Singular Value Decomposition (SVD), um die Stärke einer beliebigen Beziehung (dh der Menge an gemeinsam genutzten Informationen) festzulegen, die zwischen den beiden bestehen können zwei Komponenten-Untergruppen. [17] Dazu wird die Trägheit (dh die Summe der Einzelwerte) der Kovarianzmatrix der betrachteten Untergruppen mit Hilfe von SVD bestimmt. [17][13]
Siehe auch [ edit ]
Weiterführende Literatur [ edit
- Kramer, R. (1998). Chemometrische Verfahren zur quantitativen Analyse . Marcel-Dekker ISBN 978-0-8247-0198-7.
- Frank, Ildiko E .; Friedman, Jerome H. (1993). Msgstr "Eine statistische Sicht auf einige Chemometrie - Regressionstools". Technometrics . 35 (2): 109–148. doi: 10.1080 / 00401706.1993.10485033.
- Haenlein, Michael; Kaplan, Andreas M. (2004). Msgstr "Ein Leitfaden für Anfänger zur Analyse der Analyse von Teilquadraten". Verständnisstatistik . 3 (4): 283–297. doi: 10.1207 / s15328031us0304_4.
- Henseler, Jörg; Fassott, Georg (2005). "Testen moderierender Effekte in PLS-Pfadmodellen. Eine Illustration verfügbarer Verfahren".
- Lingjærde, Ole-Christian; Christophersen, Nils (2000). "Schrumpfungsstruktur von partiellen kleinsten Quadraten". Scandinavian Journal of Statistics . 27 (3): 459–473. doi: 10.1111 / 1467-9469.00201
- Tenenhaus, Michel (1998). La Régression PLS: Théorie et Pratique. Paris: Technip .
- Rosipal, Roman; Kramer, Nicole (2006). "Überblick und jüngste Fortschritte bei partiellen kleinsten Quadraten, bei Subraum, latenter Struktur und Feature-Auswahlverfahren": 34–51.
- Helland, Inge S. (1990). "PLS - Regression und statistische Modelle". Scandinavian Journal of Statistics . 17 (2): 97–114. JSTOR 4616159.
- Wold, Herman (1966). "Schätzung der Hauptkomponenten und verwandten Modelle durch iterative kleinste Quadrate". In Krishnaiaah, P. R. Multivariate Analysis . New York: Akademische Presse. S. 391–420.
- Wold, Herman (1981). Der Fixpunkt-Ansatz für voneinander abhängige Systeme . Amsterdam: Nordholland
- Wold, Herman (1985). "Teilweise kleinste Quadrate". In Kotz, Samuel; Johnson, Norman L. Enzyklopädie der statistischen Wissenschaften . 6 . New York: Wiley. S. 581–591.
- Wold, Svante; Ruhe, Axel; Wold, Herman; Dunn, W. J. (1984). "Das Kollinearitätsproblem bei der linearen Regression. Der Ansatz der partiellen kleinsten Quadrate (PLS) für verallgemeinerte Inverse". SIAM Journal on Scientific and Statistical Computing . 5 (3): 735–743. doi: 10.1137 / 0905052.
- Garthwaite, Paul H. (1994). "Eine Interpretation von Partial Least Squares". Zeitschrift der American Statistical Association . 89 (425): 122–7. doi: 10.1080 / 01621459.1994.10476452. JSTOR 2291207.
- Wang, H., Hrsg. (2010). Handbook of Partial Least Squares . ISBN 978-3-540-32825-4.
- Stone, M .; Brooks, R.J. (1990). "Kontinuum-Regression: Kreuzvalidierte, sequentiell konstruierte Vorhersage, die gewöhnliche kleinste Quadrate, partielle kleinste Quadrate und Hauptkomponenten-Regression umfasst". Zeitschrift der Royal Statistical Society, Serie B . 52 (2): 237–269. JSTOR 2345437.
- Wan Mohamad Asyraf Bin Wan Afthanorhan. (2013). Ein Vergleich der strukturellen Gleichungsmodellierung (PLS-SEM) und der Kovarianz-basierten Strukturgleichungsmodellierung (CB-SEM) für Bestätigungsfaktorenanalyse International Journal of Engineering Science und Innovative Technology (IJESIT), 2 (5), 9.
Referenzen [ edit ]
- ^ Wold, S; Sjöström, M .; Eriksson, L. (2001). "PLS-Regression: ein grundlegendes Instrument der Chemometrie". Chemometrie und intelligente Laborsysteme . 58 (2): 109–130. doi: 10.1016 / S0169-7439 (01) 00155-1.
- ^ Lindgren, F; Geladi, P; Wold, S. (1993). Msgstr "Der Kernel - Algorithmus für PLS". J. Chemometrics . 7 : 45–59. doi: 10.1002 / cem.1180070104.
- ^ de Jong, S.; ter Braak, C.J.F. (1994). Msgstr "Kommentare zum PLS - Kernelalgorithmus". J. Chemometrics . 8 (2): 169–174. doi: 10.1002 / cem.1180080208.
- ^ Dayal, B.S .; MacGregor, J. F. (1997). "Verbesserte PLS-Algorithmen". J. Chemometrics . 11 (1): 73–85. doi: 10.1002 / (SICI) 1099-128X (199701) 11: 1 <73::AID-CEM435> 3.0.CO; 2 - #.
- de Jong, S. (1993). "SIMPLS: Ein alternativer Ansatz zur partiellen Regression der kleinsten Quadrate". Chemometrie und intelligente Laborsysteme . 18 (3): 251–263. doi: 10.1016 / 0169-7439 (93) 85002-X.
- ^ Rannar, S.; Lindgren, F .; Geladi, P .; Wold, S. (1994). "Ein PLS-Kernel-Algorithmus für Datensätze mit vielen Variablen und weniger Objekten. Teil 1: Theorie und Algorithmus". J. Chemometrics . 8 (2): 111–125. doi: 10.1002 / cem.1180080204.
- ^ Abdi, H. (2010). "Partielle Regression der kleinsten Quadrate und Projektion auf latente Strukturregression (PLS-Regression)". Wiley Interdisziplinäre Besprechungen: Computational Statistics . 2 : 97–106. doi: 10.1002 / wics.51.
- ^ Trygg, J; Wold, S (2002). "Orthogonale Projektionen auf latente Strukturen". Journal of Chemometrics . 16 (3): 119–128. doi: 10.1002 / cem.695.
- ^ Sæbøa, S .; Almøya, T .; Flatbergb, A .; Aastveita, A. H .; Martens, H. (2008). "LPLS-Regression: eine Methode zur Vorhersage und Klassifizierung unter dem Einfluss von Hintergrundinformationen auf Prädiktorvariablen". Chemometrie und intelligente Laborsysteme . 91 (2): 121–132. doi: 10.1016 / j.chemolab.2007.10.006.
- ^ Kelly, Bryan; Pruitt, Seth (01.06.2015). "Der Regressionsfilter mit drei Durchgängen: Ein neuer Ansatz für die Prognose mit vielen Prädiktoren". Journal of Econometrics . Hochdimensionale Probleme in der Ökonometrie. 186 (2): 294–316. doi: 10.1016 / j.jeconom.2015.02.011.
- ^ Kelly, Bryan; Pruitt, Seth (2013-10-01). "Markterwartungen im Querschnitt der Gegenwartswerte". Das Journal of Finance . 68 (5): 1721–1756. CiteSeerX 10.1.1.498.5973 . doi: 10.1111 / jofi.12060. ISSN 1540-6261.
- ^ Lorenzi, Marco; Altmann, Andre; Gutman, Boris; Wray, Selina; Arber, Charles; Hibar, Derrek P .; Jahanshad, Neda; Schott, Jonathan M .; Alexander, Daniel C. (2018-03-20). "Empfindlichkeit der Gehirnatrophie gegenüber TRIB3 bei der Alzheimer-Krankheit, Beweis für funktionelle Prioritätensetzung in der bildgebenden Genetik". Verfahren der National Academy of Sciences . 115 (12): 3162–3167. doi: 10.1073 / pnas.1706100115. ISSN 0027-8424. PMC 5866534 . PMID 29511103.
- ^ a b Krishnan, Anjali; Williams, Lynne J .; McIntosh, Anthony Randal; Abdi, Hervé (Mai 2011). "Partial Least Squares (PLS) -Methoden für das Neuroimaging: Ein Tutorial und eine Überprüfung". NeuroImage . 56 (2): 455–475. doi: 10.1016 / j.neuroimage.2010.07.034.
- ^ McIntosh, Anthony R .; Mišić, Bratislav (2013-01-03). "Multivariate statistische Analysen für Neuroimaging-Daten". Jährliche Überprüfung der Psychologie . 64 (1): 499–525. doi: 10.1146 / annurev-psych-113011-143804. ISSN 0066-4308.
- ^ Beggs, Clive B .; Magnano, Christopher; Belov, Pavel; Krawiecki, Jacqueline; Ramasamy, Deepa P .; Hagemeier, Jesper; Zivadinov, Robert (2016-05-02). de Castro, Fernando, Hrsg. "Querschnittsfläche der Jugularvene interna und Zerebrospinalflüssigkeit im Aquädukt von Sylvius: Eine vergleichende Studie zwischen gesunden Probanden und Patienten mit Multipler Sklerose". PLOS ONE . 11 (5): e0153960. doi: 10.1371 / journal.pone.0153960. ISSN 1932-6203. PMC 4852898 . PMID 27135831.
- ^ Weaving, Dan; Jones, Ben; Ireton, Matt; Whitehead, Sarah; Bis, Kevin; Beggs, Clive B. (2019-02-14). Connaboy, Chris, hrsg. "Überwindung des Problems der Multikollinearität in Sportleistungsdaten: Eine neuartige Anwendung der partiellen Analyse der kleinsten Quadrate". PLOS ONE . 14 (2): e0211776. doi: 10.1371 / journal.pone.0211776. ISSN 1932-6203.
- ^ a b Abdi, Hervé; Williams, Lynne J. (2013), Reisfeld, Brad; Mayeno, Arthur N., Hrsg., "Partial Least Squares Methods: Partielle Least Squares Korrelation und Partielle Least Square Regression", Computational Toxicology Humana Press, 930 S. 549– 579, doi: 10.1007 / 978-1-62703-059-5_23, ISBN 9781627030588 abgerufen 2019-02-18
No comments:
Post a Comment