Kalman filter - Kalman filter
I statistik og kontrolteori er Kalman -filtrering , også kendt som lineær kvadratisk estimering ( LQE ), en algoritme, der bruger en række målinger observeret over tid, herunder statistisk støj og andre unøjagtigheder, og producerer estimater af ukendte variabler, der har tendens til at være mere præcis end dem, der er baseret på en enkelt måling alene, ved at estimere en fælles sandsynlighedsfordeling over variablerne for hver tidsramme. Filtret er opkaldt efter Rudolf E. Kálmán , som var en af de primære udviklere af dets teori.
Dette digitale filter kaldes undertiden Stratonovich – Kalman – Bucy -filteret, fordi det er et specielt tilfælde af et mere generelt, ikke -lineært filter udviklet noget tidligere af den sovjetiske matematiker Ruslan Stratonovich . Faktisk optrådte nogle af special case lineære filters ligninger i papirer af Stratonovich, der blev offentliggjort før sommeren 1960, da Kalman mødtes med Stratonovich under en konference i Moskva.
Kalman -filtrering har mange teknologiske anvendelser. En fælles applikation er til vejledning, navigation og kontrol af køretøjer, især fly, rumfartøjer og skibe, der er placeret dynamisk . Desuden er Kalman -filtrering et begreb, der er meget anvendt i tidsserieanalyser , der bruges til emner som signalbehandling og økonometri . Kalman -filtrering er også et af hovedemnerne inden for planlægning og kontrol af robotbevægelser og kan bruges til baneoptimering . Kalman filtrering fungerer også til modellering af centralnervesystemets kontrol af bevægelse. På grund af tidsforsinkelsen mellem udsendelse af motorkommandoer og modtagelse af sensorisk feedback giver brugen af Kalman -filtre en realistisk model til at foretage estimater af et motorsystems aktuelle tilstand og udsende opdaterede kommandoer.
Algoritmen fungerer ved en tofaset proces. I forudsigelsesfasen producerer Kalman -filteret estimater af de aktuelle tilstandsvariabler sammen med deres usikkerheder. Når resultatet af den næste måling (nødvendigvis beskadiget med en vis fejl, herunder tilfældig støj) er observeret, opdateres disse estimater ved hjælp af et vejet gennemsnit , med større vægt på estimater med større sikkerhed. Algoritmen er rekursiv . Den kan fungere i realtid ved kun at bruge de nuværende inputmålinger og den tidligere beregnede tilstand og dens usikkerhedsmatrix; ingen yderligere tidligere oplysninger er påkrævet.
Optimalt ved Kalman -filtrering forudsætter, at fejl har en normal (gaussisk) fordeling. Med ordene fra Rudolf E. Kálmán : "Sammenfattende gøres følgende antagelser om tilfældige processer: Fysiske tilfældige fænomener kan tænkes som på grund af primære tilfældige kilder spændende dynamiske systemer. De primære kilder antages at være uafhængige gaussiske tilfældige processer med nul middelværdi; de dynamiske systemer vil være lineære. " Selvom uanset Gaussianity, er proces- og målingskovarianserne kendt, er Kalman-filteret den bedst mulige lineære estimator i den mindste middelværdi-kvadrat-fejlforstand .
Udvidelser og generaliseringer af metoden er også blevet udviklet, såsom det udvidede Kalman -filter og det uparfumerede Kalman -filter, der arbejder på ikke -lineære systemer . Grundlaget er en skjult Markov -model, således at tilstandsrummet for de latente variabler er kontinuerligt, og alle latente og observerede variabler har gaussiske fordelinger. Kalman-filtrering er også blevet brugt med succes i multi-sensor fusion og distribuerede sensornetværk til at udvikle distribueret eller konsensus Kalman filtrering.
Historie
Filtreringsmetoden er opkaldt efter den ungarske emigrant Rudolf E. Kálmán , selvom Thorvald Nicolai Thiele og Peter Swerling tidligere har udviklet en lignende algoritme. Richard S. Bucy fra Johns Hopkins Applied Physics Laboratory bidrog til teorien, hvilket fik den til at blive kendt som Kalman -Bucy -filtrering. Stanley F. Schmidt krediteres generelt for at have udviklet den første implementering af et Kalman -filter. Han indså, at filteret kunne opdeles i to forskellige dele, med en del i tidsperioder mellem sensorudgange og en anden del til at inkorporere målinger. Det var under et besøg af Kálmán i NASA Ames Research Center, at Schmidt så anvendeligheden af Kálmáns ideer på det ikke -lineære problem med banestimering for Apollo -programmet, hvilket resulterede i, at det blev inkorporeret i Apollo -navigationscomputeren . Denne Kalman -filtrering blev først beskrevet og udviklet delvist i tekniske papirer af Swerling (1958), Kalman (1960) og Kalman og Bucy (1961).
Apollo -computeren brugte 2 k magnetisk kerne -RAM og 36 k wire [...]. CPU'en blev bygget fra IC'er [...]. Urhastigheden var under 100 kHz [...]. Det faktum, at MIT -ingeniørerne var i stand til at pakke så god software (en af de allerførste applikationer af Kalman -filteret) i sådan en lille computer, er virkelig bemærkelsesværdig.
- Interview med Jack Crenshaw, af Matthew Reed, TRS-80.org (2009) [1]
Kalman -filtre har været afgørende for implementeringen af navigationssystemerne i ubådene til atomvåbenballistiske missiler fra US Navy og i vejlednings- og navigationssystemer for krydsermissiler, såsom den amerikanske flådes Tomahawk -missil og US Air Force 's Air Launched Cruise Missile . De bruges også i vejlednings- og navigationssystemer til genanvendelige affyringsbiler og holdningskontrol- og navigationssystemer til rumfartøjer, der lægger til ved den internationale rumstation .
Oversigt over beregningen
Kalman -filtrering bruger et systems dynamiske model (f.eks. Fysiske bevægelseslove), kendte kontrolindgange til det system og flere sekventielle målinger (f.eks. Fra sensorer) til at danne et estimat af systemets varierende mængder (dets tilstand ), der er bedre end estimatet opnået ved kun at bruge en måling alene. Som sådan er det en almindelig sensor fusion og datafusion algoritme.
Støjende sensordata, tilnærmelser i ligningerne, der beskriver systemudviklingen og eksterne faktorer, der ikke tages højde for, begrænser alle, hvor godt det er muligt at bestemme systemets tilstand. Kalman -filteret håndterer effektivt usikkerheden på grund af støjende sensordata og til en vis grad tilfældige eksterne faktorer. Kalman -filteret producerer et estimat af systemets tilstand som et gennemsnit af systemets forudsagte tilstand og af den nye måling ved hjælp af et vægtet gennemsnit . Formålet med vægtene er, at værdier med bedre (dvs. mindre) estimeret usikkerhed "stoler på" mere. Vægtene beregnes ud fra kovariansen , et mål for den estimerede usikkerhed ved forudsigelse af systemets tilstand. Resultatet af det vejede gennemsnit er et nyt tilstandsestimat, der ligger mellem den forudsagte og målte tilstand, og har en bedre estimeret usikkerhed end enten alene. Denne proces gentages ved hvert trin, hvor det nye estimat og dets kovarians informerer den forudsigelse, der bruges i den følgende iteration. Det betyder, at Kalman -filter fungerer rekursivt og kun kræver det sidste "bedste gæt", snarere end hele historien om et systems tilstand for at beregne en ny tilstand.
Målingernes sikkerhedsgradering og estimat af nuværende tilstand er vigtige overvejelser. Det er almindeligt at diskutere filterets reaktion med hensyn til Kalman -filterets forstærkning . Kalman-gevinsten er vægten, der er givet til målingerne og estimatet for nuværende tilstand, og kan "indstilles" for at opnå en bestemt ydelse. Med en høj gevinst lægger filteret større vægt på de seneste målinger og tilpasses dem derfor mere responsivt. Med en lav forstærkning overholder filteret tættere på modelforudsigelserne. I yderlighederne vil en høj forstærkning tæt på en resultere i en mere hoppet estimeret bane, mens en lav forstærkning tæt på nul vil udjævne støj, men reducere lydhørheden.
Når de faktiske beregninger for filteret udføres (som diskuteret nedenfor), kodes tilstandsestimatet og kovarianserne i matricer på grund af de flere dimensioner, der er involveret i et enkelt sæt beregninger. Dette giver mulighed for en repræsentation af lineære forhold mellem forskellige tilstandsvariabler (såsom position, hastighed og acceleration) i en hvilken som helst overgangsmodel eller kovarians.
Eksempel ansøgning
Som et eksempel kan du overveje problemet med at bestemme den nøjagtige placering af en lastbil. Lastbilen kan udstyres med en GPS -enhed, der giver et skøn over positionen inden for få meter. GPS -estimatet vil sandsynligvis være støjende; målinger 'hopper rundt' hurtigt, selvom de forbliver inden for få meter fra den virkelige position. Da lastbilen forventes at følge fysikkens love, kan dens position også estimeres ved at integrere dens hastighed over tid, bestemt ved at holde styr på hjulets omdrejninger og rattets vinkel. Dette er en teknik kendt som død regning . Typisk vil den døde opgørelse give et meget gnidningsfrit skøn over lastbilens position, men den vil drive over tid, efterhånden som små fejl akkumuleres.
I dette eksempel kan Kalman -filteret betragtes som værende i to forskellige faser: forudsig og opdater. I forudsigelsesfasen vil lastbilens gamle position blive ændret i henhold til de fysiske bevægelseslove (den dynamiske eller "tilstandsovergang" -model). Ikke alene vil et nyt positionsestimat blive beregnet, men også en ny kovarians vil blive beregnet. Måske er kovariansen proportional med lastbilens hastighed, fordi vi er mere usikre på nøjagtigheden af det estimerede positionsestimat ved høje hastigheder, men meget sikker på positionsestimatet ved lave hastigheder. I opdateringsfasen tages der derefter en måling af lastbilens position fra GPS -enheden. Sammen med denne måling følger en vis usikkerhed, og dens kovarians i forhold til forudsigelsen fra den foregående fase bestemmer, hvor meget den nye måling vil påvirke den opdaterede forudsigelse. Ideelt set, da estimaterne for døde beregninger har tendens til at glide væk fra den virkelige position, bør GPS -målingen trække positionsestimatet tilbage mod den reelle position, men ikke forstyrre det til det punkt, hvor det bliver støjende og hurtigt hopper.
Teknisk beskrivelse og kontekst
Kalman-filteret er et effektivt rekursivt filter, der estimerer den interne tilstand af et lineært dynamisk system ud fra en række støjende målinger. Det bruges i en bred vifte af tekniske og økonometriske applikationer fra radar og computervision til estimering af strukturelle makroøkonomiske modeller og er et vigtigt emne inden for kontrolteori og kontrolsystemteknik . Sammen med den lineære-kvadratiske regulator (LQR) løser Kalman-filteret det lineære-kvadratiske-gaussiske kontrolproblem (LQG). Kalman-filteret, den lineære-kvadratiske regulator og den lineære-kvadratiske-gaussiske controller er løsninger på, hvad der uden tvivl er de mest fundamentale problemer inden for kontrolteori.
I de fleste applikationer er den interne tilstand meget større (flere frihedsgrader ) end de få "observerbare" parametre, der måles. Ved at kombinere en række målinger kan Kalman -filteret imidlertid estimere hele den interne tilstand.
For Dempster-Shafer-teorien betragtes hver tilstandsligning eller observation som et specielt tilfælde af en lineær trosfunktion, og Kalman-filtreringen er et særligt tilfælde af kombination af lineære trosfunktioner på et join-træ eller Markov-træ . Yderligere metoder omfatter trosfiltrering, der bruger Bayes eller bevismæssige opdateringer til statens ligninger.
Der findes nu en lang række Kalman -filtre fra Kalmans originale formulering - nu kaldet det "simple" Kalman -filter, Kalman – Bucy -filteret , Schmidts "udvidede" filter, informationsfilteret og en række "kvadratrode" -filtre der blev udviklet af Bierman, Thornton og mange andre. Måske er den mest almindeligt anvendte type meget simpelt Kalman-filter den faselåste sløjfe , som nu er allestedsnærværende i radioer, især frekvensmodulation (FM) radioer, fjernsynsapparater, satellitkommunikationsmodtagere , ydre rumkommunikationssystemer og næsten enhver anden elektronisk kommunikationsudstyr.
Underliggende dynamisk systemmodel
Kalman -filtrering er baseret på lineære dynamiske systemer diskretiseret i tidsdomænet. De er modelleret på en Markov -kæde bygget på lineære operatører forstyrret af fejl, der kan omfatte gaussisk støj . Målsystemets tilstand refererer til den grundlæggende sandhed (endnu skjulte) systemkonfiguration af interesse, som er repræsenteret som en vektor af reelle tal . Ved hver diskret tidsforøgelse påføres en lineær operator til staten for at generere den nye tilstand, med noget støj blandet ind, og eventuelt nogle oplysninger fra kontrolelementerne på systemet, hvis de er kendte. Derefter genererer en anden lineær operator blandet med mere støj de målbare output (dvs. observation) fra den sande ("skjulte") tilstand. Kalman -filteret kan betragtes som analogt med den skjulte Markov -model med den forskel, at de skjulte tilstandsvariabler har værdier i et kontinuerligt rum i modsætning til et diskret statsrum som for den skjulte Markov -model. Der er en stærk analogi mellem ligningerne for et Kalman -filter og dem for den skjulte Markov -model. En gennemgang af denne og andre modeller er givet i Roweis og Ghahramani (1999) og Hamilton (1994), kapitel 13.
For at bruge Kalman -filteret til at estimere den interne tilstand af en proces, der kun får en række støjende observationer, skal man modellere processen i overensstemmelse med følgende rammer. Det betyder, at du skal angive følgende matricer:
- F k , statsovergangsmodellen;
- H k , observationsmodellen;
- Q k , processtøjens kovarians ;
- R k , observationsstøjens kovarians ;
- og nogle gange B k , kontrolindgangsmodellen, for hvert tidstrin, k , som beskrevet nedenfor.
Kalman -filtermodellen antager, at den sande tilstand på tidspunktet k udvikles fra tilstanden ved ( k - 1) iflg
hvor
- F k er tilstandsovergangsmodellen, der anvendes på den tidligere tilstand x k −1 ;
- B k er kontrolindgangsmodellen, der påføres kontrolvektoren u k ;
- w k er den proces støj, antages der at blive trukket fra en nul middelværdi flerdimensionale normalfordeling , med kovarians , Q k : .
På tidspunktet k foretages en observation (eller måling) z k af den sande tilstand x k iflg
hvor
- H k er observationsmodellen, som kortlægger det sande tilstandsrum ind i det observerede rum og
- v k er den observation støj, som antages at være nul middelværdi Gaussisk hvid støj med covarians R k : .
Starttilstanden og støjvektorerne ved hvert trin { x 0 , w 1 , ..., w k , v 1 , ..., v k } antages alle at være indbyrdes uafhængige .
Mange realtids dynamiske systemer er ikke ligefrem i overensstemmelse med denne model. Faktisk kan umodelleret dynamik alvorligt forringe filterydelsen, selv når det skulle fungere med ukendte stokastiske signaler som input. Grunden til dette er, at effekten af umodelleret dynamik afhænger af input, og derfor kan bringe estimeringsalgoritmen til ustabilitet (den afviger). På den anden side vil uafhængige hvide støjsignaler ikke få algoritmen til at afvige. Problemet med at skelne mellem målestøj og umodelleret dynamik er svært og behandles som et problem med kontrolteori ved hjælp af robust kontrol .
detaljer
Kalman -filteret er en rekursiv estimator. Dette betyder, at kun den estimerede tilstand fra det foregående tidstrin og den aktuelle måling er nødvendig for at beregne estimatet for den aktuelle tilstand. I modsætning til batchestimeringsteknikker kræves ingen historik af observationer og/eller estimater. I det følgende repræsenterer notationen estimatet af på tidspunkt n givet observationer til og med tidspunktet m ≤ n .
Filterets tilstand repræsenteres af to variabler:
- , estimatet a posteriori på tidspunktet k givet observationer til og med tidspunktet k ;
- , a posteriori estimat -kovariansmatrix (et mål for den estimerede nøjagtighed af statens estimat).
Kalmanfilterets algoritmestruktur ligner alfa -betafilteret . Kalman -filteret kan skrives som en enkelt ligning; det er dog oftest konceptualiseret som to forskellige faser: "Forudsig" og "Opdater". Forudsigelsesfasen bruger tilstandsestimatet fra det foregående tidsskridt til at producere et skøn over tilstanden i det aktuelle tidssteg. Dette forudsagte tilstandsestimat er også kendt som a priori state -estimatet, fordi det, selv om det er et estimat af staten på det aktuelle tidssteg, ikke indeholder observationsinformation fra det aktuelle tidssteg. I opdateringsfasen multipliceres innovationen (pre-fit residualen), dvs. forskellen mellem den nuværende a priori forudsigelse og den aktuelle observationsinformation, med den optimale Kalman-forstærkning og kombineres med det tidligere statsestimat for at forfine statsestimatet. Dette forbedrede estimat baseret på den aktuelle observation betegnes estimatet a posteriori .
Typisk skifter de to faser med forudsigelsen, der fremmer staten indtil den næste planlagte observation, og opdateringen inkorporerer observationen. Dette er imidlertid ikke nødvendigt; hvis en observation af en eller anden grund ikke er tilgængelig, kan opdateringen springes over og flere forudsigelsesprocedurer udføres. Ligeledes, hvis flere uafhængige observationer er tilgængelige på samme tid, flere opdateringsprocedurer kan udføres (typisk med forskellige observation matricer H k ).
Forudsige
Forudsagt ( a priori ) statsestimat | |
Forudsagt ( a priori ) skøn kovarians |
Opdatering
Innovation eller måling pre-fit rest | |
Innovation (eller pre-fit rest) kovarians | |
Optimal Kalman gevinst | |
Opdateret ( efterfølgende ) tilstandsestimat | |
Opdateret ( efterfølgende ) estimat -kovarians | |
Måling efter pasform resterende |
Formlen for den opdaterede ( a posteriori ) estimat -kovarians ovenfor er gyldig for den optimale K k -forstærkning, der minimerer den resterende fejl, i hvilken form den bruges mest i applikationer. Bevis for formlerne findes i afledningsafsnittet , hvor formlen, der er gyldig for enhver K k , også vises.
En mere intuitiv måde at udtrykke det opdaterede tilstandsestimat ( ) er:
Dette udtryk minder os om en lineær interpolation, for mellem [0,1]. I vores tilfælde:
- er Kalman gain ( ), en matrix, der tager værdier fra (høj fejl i sensoren) til (lav fejl).
- er den værdi, der anslås ud fra modellen.
- er værdien fra målingen.
Dette udtryk ligner også alfa -beta -filteropdateringstrinet .
Invarianter
Hvis modellen er nøjagtig, og værdierne for og nøjagtigt afspejler fordelingen af de oprindelige tilstandsværdier, bevares følgende invarianter:
hvor er den forventede værdi af . Det vil sige, at alle estimater har en gennemsnitlig fejl på nul.
Også:
så kovariansmatricer afspejler nøjagtigt estimaternes kovarians.
Estimering af støjkovarianserne Q k og R k
Praktisk implementering af et Kalman -filter er ofte svært på grund af vanskeligheden ved at få et godt skøn over støjkovariansmatricerne Q k og R k . Omfattende forskning er blevet foretaget for at estimere disse kovarianser ud fra data. En praktisk metode til at gøre dette er autocovariance least-squares (ALS) -teknikken, der bruger tidsforsinkede autocovariancer af rutinemæssige driftsdata til at estimere kovarianserne. Den GNU Octave og Matlab kode, der bruges til at beregne støj kovariansmatrixer hjælp af ALS teknik er tilgængelig online ved hjælp af GNU General Public License . Field Kalman Filter (FKF), en bayesisk algoritme, som tillader samtidig estimering af tilstand, parametre og støjkovarians er blevet foreslået i. FKF -algoritme har en rekursiv formulering, god observeret konvergens og relativt lav kompleksitet. Dette giver en mulighed for, at FKF-algoritmen kan være et alternativ til Autocovariance Least-Squares-metoderne.
Optimalitet og ydeevne
Det følger af teorien, at Kalman -filteret er det optimale lineære filter i tilfælde, hvor a) modellen matcher det virkelige system perfekt, b) den indgående støj er "hvid" (ikke -korreleret) og c) støjens kovariationer kendes nøjagtigt. Korrelerede lyde kan også behandles ved hjælp af Kalman -filtre. Flere metoder til støjkovariansestimering er blevet foreslået i løbet af de sidste årtier, herunder ALS, nævnt i afsnittet ovenfor. Efter at kovarianserne er estimeret, er det nyttigt at evaluere filterets ydeevne; dvs. om det er muligt at forbedre statens estimeringskvalitet. Hvis Kalman -filteret fungerer optimalt, er innovationssekvensen (output -forudsigelsesfejlen) en hvid støj, derfor måler innovationernes hvideegenskab filterydelse. Flere forskellige metoder kan bruges til dette formål. Hvis støjbegreberne distribueres på en ikke-gaussisk måde, er metoder til vurdering af filterestimatets ydeevne, der anvender sandsynlighedsuligheder eller storprøve-teori, kendt i litteraturen.
Eksempel applikation, teknisk
Overvej en lastbil på friktionsløse, lige skinner. I første omgang er lastbilen stationær i position 0, men den er bufferet på denne måde og det med tilfældige ukontrollerede kræfter. Vi måler lastbilens position hvert Δ t sekund, men disse målinger er upræcise; vi ønsker at fastholde en model for lastbilens position og hastighed . Vi viser her, hvordan vi udleder modellen, som vi opretter vores Kalman -filter fra.
Da de er konstante, falder deres tidsindeks.
Lastbilens position og hastighed er beskrevet af det lineære tilstandsrum
hvor er hastigheden, det vil sige derivatet af position med hensyn til tid.
Vi antager, at mellem ( k - 1) og k tidssteg forårsager ukontrollerede kræfter en konstant acceleration af en k, der er normalfordelt , med middelværdi 0 og standardafvigelse σ a . Ud fra Newtons bevægelseslove konkluderer vi det
(der er ingen betegnelse, da der ikke er nogen kendte kontrolindgange. I stedet er a k effekten af et ukendt input og anvender denne effekt på tilstandsvektoren) hvor
så det
hvor
Matrixen er ikke fuld rang (den er af rang én hvis ). Derfor er fordelingen ikke absolut kontinuerlig og har ingen sandsynlighedstæthedsfunktion . En anden måde at udtrykke dette på, undgå eksplicitte degenererede fordelinger, er givet af
I hver tidsfase foretages en støjende måling af lastbilens sande position. Lad os formode, at målestøj v k også er normalfordelt med middelværdi 0 og standardafvigelse σ z .
hvor
og
Vi kender lastbilens starttilstand med perfekt præcision, så vi initialiserer
og for at fortælle filteret, at vi kender den nøjagtige position og hastighed, giver vi det en nul -kovariansmatrix:
Hvis udgangspositionen og hastigheden ikke kendes perfekt, bør kovariansmatricen initialiseres med passende afvigelser på sin diagonal:
Filteret foretrækker derefter oplysningerne fra de første målinger frem for de oplysninger, der allerede findes i modellen.
Asymptotisk form
For nemheds skyld antages, at kontrolindgangen . Så kan Kalman -filteret skrives:
En lignende ligning gælder, hvis vi inkluderer en ikke-nul kontrolindgang. Gain -matricer udvikler sig uafhængigt af målingerne . Ovenfra er de fire ligninger, der er nødvendige for at opdatere Kalman -forstærkningen, som følger:
Da gain -matricerne kun afhænger af modellen og ikke målingerne, kan de beregnes offline. Konvergensen af forstærkningsmatricerne til en asymptotisk matrix gælder for betingelser etableret i Walrand og Dimakis. Simuleringer fastlægger antallet af trin til konvergens. Eksemplet på flyttevognen beskrevet ovenfor med . og simulering viser konvergens i iterationer.
Ved hjælp af den asymptotiske forstærkning, og antager og er uafhængige af , bliver Kalman-filteret et lineært tidsinvariant filter:
Den asymptotiske gevinst , hvis den findes, kan beregnes ved først at løse følgende diskrete Riccati -ligning for asymptotisk tilstandskovarians :
Den asymptotiske gevinst beregnes derefter som før.
Afledninger
Kalman -filteret kan udledes som en generaliseret mindste kvadratemetode, der fungerer på tidligere data.
Afledning af det posteriori skøn kovariansmatrix
Starter med vores invariant på fejlkovariansen P k | k som ovenfor
erstatte i definitionen af
og erstatte
og
og ved at indsamle de fejlvektorer, vi får
Da målefejlen v k ikke er korreleret med de andre udtryk, bliver dette
ved egenskaberne af vektorkovarians bliver dette
som ved hjælp af vores invariant på P k | k −1 og definitionen af R k bliver
Denne formel (undertiden kendt som Joseph -formen for kovariansopdateringsligningen) er gyldig for enhver værdi af K k . Det viser sig, at hvis K k er den optimale Kalman -forstærkning, kan dette forenkles yderligere som vist nedenfor.
Kalman gain derivation
Kalman-filteret er en minimumsværdi for kvadratfejl . Fejlen i estimatet a posteriori state er
Vi søger at minimere den forventede værdi af kvadratet på størrelsen af denne vektor, . Dette svarer til at minimere sporet af den a posteriori estimerede kovariansmatrix . Ved at udvide vilkårene i ligningen ovenfor og indsamle får vi:
Sporet minimeres, når dets matrixderivat i forhold til forstærkningsmatricen er nul. Ved hjælp af gradientmatrixreglerne og symmetrien i de involverede matricer finder vi det
At løse dette for K k giver Kalman gevinst:
Denne forstærkning, som er kendt som den optimale Kalman -forstærkning , er den, der giver MMSE -skøn, når den bruges.
Forenkling af den posteriori fejlkovariansformel
Formlen, der bruges til at beregne kovariansen a posteriori fejl, kan forenkles, når Kalman -forstærkningen er lig med den optimale værdi, der er afledt ovenfor. Når vi multiplicerer begge sider af vores Kalman -gevinstformel til højre med S k K k T , følger det
Med henvisning til vores udvidede formel for a posteriori fejlkovarians,
vi finder de to sidste udtryk annullere, giver
Denne formel er beregningsmæssigt billigere og bruges derfor næsten altid i praksis, men er kun korrekt for den optimale gevinst. Hvis den aritmetiske præcision er usædvanligt lav, hvilket forårsager problemer med numerisk stabilitet , eller hvis en ikke-optimal Kalman-forstærkning bevidst bruges, kan denne forenkling ikke anvendes; den a posteriori fejlkovariansformel som afledt ovenfor (Joseph -formular) skal bruges.
Følsomhedsanalyse
Kalman -filtreringsligningerne giver et estimat af tilstanden og dens fejlkovarians rekursivt. Estimatet og dets kvalitet afhænger af systemparametrene og støjstatistikken, der indgives som input til estimatoren. Dette afsnit analyserer effekten af usikkerheder i de statistiske input til filteret. I mangel af pålidelige statistikker eller de sande værdier for støjkovariansmatricer og udtrykket
giver ikke længere den faktiske fejlkovarians. Med andre ord, . I de fleste realtidsapplikationer er kovariansmatricerne, der bruges til at designe Kalman-filteret, forskellige fra de faktiske (ægte) støjkovariancer-matricer. Denne følsomhedsanalyse beskriver adfærden for estimatfejlkovariansen, når støjkovarianserne såvel som systemmatricerne, og som indføres som input til filteret, er forkerte. Følsomhedsanalysen beskriver således estimatorens robusthed (eller følsomhed) over for fejlspecificerede statistiske og parametriske input til estimatoren.
Denne diskussion er begrænset til fejlfølsomhedsanalysen i tilfælde af statistiske usikkerheder. Her den faktiske støj kovarianser er betegnet med og , hvorimod projekteringsværdierne anvendes i estimatoren er og henholdsvis. Den faktiske fejlkovarians betegnes med, og som beregnet af Kalman -filteret betegnes Riccati -variablen. Når og , betyder det det . Mens du beregner den faktiske fejlkovarians ved hjælp af , erstatter og bruger det faktum, at og resulterer i følgende rekursive ligninger for :
og
Under computing antager filteret ved design implicit at og . De rekursive udtryk for og er identiske bortset fra tilstedeværelsen af og i stedet for designværdierne og hhv. Der er foretaget undersøgelser for at analysere Kalman -filtersystemets robusthed.
Kvadratrodsform
Et problem med Kalman -filteret er dets numeriske stabilitet . Hvis processtøj-kovariansen Q k er lille, bevirker afrundingsfejl ofte, at en lille positiv egenværdi beregnes som et negativt tal. Dette gør den numeriske repræsentation af statens kovariansmatrix P ubestemt , mens dens sande form er positiv-bestemt .
Positive bestemte matricer har den egenskab, at de har en trekantet matrix kvadratrod P = S · S T . Dette kan beregnes effektivt ved hjælp af Cholesky -faktoriseringsalgoritmen , men endnu vigtigere, hvis kovariansen bevares i denne form, kan den aldrig have en negativ diagonal eller blive asymmetrisk. En ækvivalent form, der undgår mange af de kvadratrodsoperationer , der kræves af matrixkvadratroden, men alligevel bevarer de ønskelige numeriske egenskaber, er UD -nedbrydningsformen, P = U · D · U T , hvor U er en enheds trekantet matrix (med enhed diagonal), og D er en diagonal matrix.
Mellem de to bruger UD -faktoriseringen den samme mængde lagerplads og noget mindre beregning og er den mest almindeligt anvendte kvadratrodsform. (Tidlig litteratur om den relative effektivitet er noget misvisende, da den antog, at kvadratrødder var meget mere tidskrævende end divisioner, mens de på computere fra det 21. århundrede kun er lidt dyrere.)
Effektive algoritmer til Kalman forudsigelse og opdateringstrin i kvadratrodsformen blev udviklet af GJ Bierman og CL Thornton.
Den L · D · L T nedbrydning af innovation kovariansmatrixen S k er grundlaget for en anden type numerisk effektiv og robust kvadratrod filter. Algoritmen starter med LU -nedbrydningen som implementeret i den lineære algebra -pakke ( LAPACK ). Disse resultater indregnes yderligere i L · D · L T -strukturen med metoder givet af Golub og Van Loan (algoritme 4.1.2) til en symmetrisk ikke -singulær matrix. Alle ental kovariansmatrix er drejet således at den første diagonal skillevæg er non-singul og velkonditioneret . Den drejelige algoritme skal beholde enhver del af innovationskovariansmatrixen, der direkte svarer til observerede tilstandsvariabler H k · x k | k-1, der er forbundet med hjælpobservationer i y k . Den l · d · l t kvadratroden filteret kræver ortogonalisering af observationsvektoren. Dette kan gøres med den inverse kvadratrod af kovariansmatrixen for hjælpevariablerne ved hjælp af metode 2 i Higham (2002, s. 263).
Parallel form
Kalman -filteret er effektivt til sekventiel databehandling på centrale processorenheder (CPU'er), men i sin oprindelige form er det ineffektivt på parallelle arkitekturer såsom grafikprocessorenheder (GPU'er). Det er dog muligt at udtrykke filteropdateringsrutinen i form af en associativ operatør ved hjælp af formuleringen i Särkkä (2021). Filterløsningen kan derefter hentes ved brug af en præfiks -algoritme, som effektivt kan implementeres på GPU. Dette reducerer beregningskompleksiteten fra i antallet af tidstrin til .
Forholdet til rekursiv bayesisk estimering
Kalman -filteret kan præsenteres som et af de enkleste dynamiske Bayesianske netværk . Kalman -filteret beregner estimater af staters sande værdier rekursivt over tid ved hjælp af indgående målinger og en matematisk procesmodel. På samme måde beregner rekursiv bayesisk estimering estimater af en ukendt sandsynlighedstæthedsfunktion (PDF) rekursivt over tid ved hjælp af indgående målinger og en matematisk procesmodel.
Ved rekursiv bayesisk vurdering antages den sande tilstand at være en uobserveret Markov -proces , og målingerne er de observerede tilstande for en skjult Markov -model (HMM).
på grund af Markov -antagelsen er den sande tilstand betinget uafhængig af alle tidligere tilstande givet den umiddelbart tidligere tilstand.
På samme måde afhænger målingen ved k -t. Tidssteg kun af den aktuelle tilstand og er betinget uafhængig af alle andre tilstande givet den aktuelle tilstand.
Ved hjælp af disse antagelser kan sandsynlighedsfordelingen over alle tilstande i den skjulte Markov -model skrives ganske enkelt som:
Men når et Kalman -filter bruges til at estimere tilstanden x , er sandsynlighedsfordelingen af interesse den, der er forbundet med de nuværende tilstande betinget af målingerne op til det aktuelle tidssteg. Dette opnås ved at marginalisere de tidligere tilstande og dividere med sandsynligheden for målesættet.
Dette resulterer i forudsigelses- og opdateringsfaser af Kalman -filteret skrevet sandsynligt. Sandsynlighedsfordelingen forbundet med den forudsagte tilstand er summen (integral) af produkterne af sandsynlighedsfordelingen, der er forbundet med overgangen fra ( k -1) -tids -trin til k -th og sandsynlighedsfordelingen forbundet med den tidligere tilstand, over alt muligt .
Målingen indstillet til tidspunktet t er
Sandsynlighedsfordelingen for opdateringen er proportional med produktet af målesandsynligheden og den forudsagte tilstand.
Nævneren
er et normaliseringsbegreb.
De resterende sandsynlighedstæthedsfunktioner er
PDF -filen på det foregående tidspunkt antages induktivt at være den estimerede tilstand og kovarians. Dette er berettiget, fordi Kalman -filteret som en optimal estimator bedst udnytter målingerne, derfor er PDF'en for givne målinger Kalman -filterestimatet.
Marginal sandsynlighed
I forbindelse med den rekursive bayesiske fortolkning beskrevet ovenfor kan Kalman -filteret ses som en generativ model , dvs. en proces til generering af en strøm af tilfældige observationer z = ( z 0 , z 1 , z 2 , ...). Konkret er processen
- Prøv en skjult tilstand fra den tidligere gaussiske distribution .
- Prøv en observation fra observationsmodellen .
- For , gør
- Prøv den næste skjulte tilstand fra overgangsmodellen
- Prøv en observation fra observationsmodellen
Denne proces har identisk struktur til den skjulte Markov -model , bortset fra at den diskrete tilstand og observationer erstattes med kontinuerlige variabler, der er udtaget fra gaussiske distributioner.
I nogle applikationer er det nyttigt at beregne sandsynligheden for, at et Kalman -filter med et givet sæt parametre (forudgående distribution, overgangs- og observationsmodeller og kontrolindgange) ville generere et bestemt observeret signal. Denne sandsynlighed er kendt som den marginale sandsynlighed, fordi den integrerer over ("marginaliserer ud") værdierne for de skjulte tilstandsvariabler, så den kan beregnes ved hjælp af kun det observerede signal. Den marginale sandsynlighed kan være nyttig til at evaluere forskellige parametervalg eller sammenligne Kalman -filteret med andre modeller ved hjælp af Bayesiansk model sammenligning .
Det er ligetil at beregne den marginale sandsynlighed som en bivirkning af den rekursive filtreringsberegning. Af kæden regel , kan sandsynligheden være indregnet som produktet af sandsynligheden for hver observation givet tidligere bemærkninger,
- ,
og fordi Kalman -filteret beskriver en Markov -proces, er alle relevante oplysninger fra tidligere observationer indeholdt i det nuværende tilstandsestimat Således er den marginale sandsynlighed givet ved
dvs. et produkt af gaussiske tætheder, der hver svarer til densiteten af en observation z k under den aktuelle filtreringsfordeling . Dette kan let beregnes som en simpel rekursiv opdatering; Men for at undgå numerisk understrøm , i en praktisk implementering er det normalt ønskeligt at beregne log marginal sandsynlighed i stedet. Ved at vedtage konventionen kan dette gøres via reglen om rekursiv opdatering
hvor er målingsvektorens dimension.
En vigtig applikation, hvor en sådan (log) sandsynlighed for observationer (givet filterparametrene) bruges, er multi-target tracking. Overvej f.eks. Et objektsporingsscenarie, hvor en strøm af observationer er input, men det er ukendt, hvor mange objekter der er i scenen (eller antallet af objekter er kendt, men er større end et). For et sådant scenario kan det være ukendt apriori, hvilke observationer/målinger der blev genereret af hvilket objekt. En multiple hypothesis tracker (MHT) vil typisk danne forskellige sporforeningshypoteser, hvor hver hypotese kan betragtes som et Kalman -filter (for det lineære gaussiske tilfælde) med et specifikt sæt parametre forbundet med det hypotetiserede objekt. Det er således vigtigt at beregne sandsynligheden for observationerne for de forskellige hypoteser, der behandles, således at den mest sandsynlige kan findes.
Informationsfilter
I informationsfilteret eller det inverse kovariansfilter erstattes den estimerede kovarians og den estimerede tilstand med henholdsvis informationsmatrixen og informationsvektoren . Disse er defineret som:
Tilsvarende har den forudsagte kovarians og tilstand ækvivalente informationsformer, defineret som:
som har målekovariansen og målevektoren, som er defineret som:
Opdateringsopdateringen bliver nu til en triviel sum.
Den største fordel ved informationsfilteret er, at N -målinger kan filtreres på hvert trin ved blot at opsummere deres informationsmatricer og vektorer.
For at forudsige informationsfilteret kan informationsmatrixen og vektoren konverteres tilbage til deres tilstandsrumækvivalenter, eller alternativt kan informationsrumsprognosen bruges.
Hvis F og Q er tidsinvariante, kan disse værdier cachelagres, og F og Q skal være inverterbare.
Fixed-lag glattere
Den optimale fast-lag-glatter giver det optimale estimat for en given fast-lag ved hjælp af målingerne fra til . Det kan udledes ved hjælp af den tidligere teori via en forstærket tilstand, og filterets hovedligning er følgende:
hvor:
- estimeres via et standard Kalman -filter;
- er innovationen produceret i betragtning af estimatet af standard Kalman -filteret;
- de forskellige med er nye variabler; dvs. de vises ikke i standard Kalman -filteret;
- gevinsterne beregnes via følgende ordning:
- og
- hvor og er forudsigelsesfejlkovariansen og gevinsterne ved standard Kalman -filteret (dvs. ).
Hvis estimationsfejlkovariansen er defineret således, at
så har vi, at forbedringen af estimeringen af er givet ved:
Fixed-interval smoothers
Den optimale fast-interval jævnere giver det optimale estimat af ( ) ved hjælp af målingerne fra et fast interval til . Dette kaldes også "Kalman Smoothing". Der er flere udjævningsalgoritmer i almindelig brug.
Rauch – Tung – Striebel
Rauch – Tung – Striebel (RTS) glattere er en effektiv topas-algoritme til udjævning af faste intervaller.
Videresendelsen er den samme som den almindelige Kalman -filteralgoritme. Disse filtrerede a-priori og der efterfølgende statslige estimater , og kovarianser , gemmes til brug i baglæns passere (for retrodiction ).
I baglænspasset beregner vi de udjævne tilstandsestimater og kovarianser . Vi starter ved det sidste tidstrin og går baglæns i tiden ved hjælp af følgende rekursive ligninger:
hvor
er det a-posteriori tilstandsestimat af tidsstempel og er a-priori-statens estimat af tidssteg . Den samme notation gælder for kovariansen.
Modificeret Bryson – Frazier glattere
Et alternativ til RTS -algoritmen er den modificerede Bryson – Frazier (MBF) glattere med fast interval, der er udviklet af Bierman. Dette bruger også et baglæns pass, der behandler data, der er gemt fra Kalman -filteret forward pass. Ligningerne for baglæns passering involverer den rekursive beregning af data, der bruges på hvert observationstidspunkt til at beregne den glatte tilstand og kovarians.
De rekursive ligninger er
hvor er den resterende kovarians og . Den udglattede tilstand og kovarians kan derefter findes ved substitution i ligningerne
eller
En vigtig fordel ved MBF er, at det ikke kræver at finde det inverse af kovariansmatricen.
Mindste varians glattere
Den mindste varians-glattere kan opnå den bedst mulige fejlydelse, forudsat at modellerne er lineære, deres parametre og støjstatistikken kendes præcist. Denne glattere er en tidsvarierende generalisering af tilstand-rum i det optimale ikke-kausale Wiener-filter .
De glattere beregninger udføres i to passager. De fremadrettede beregninger involverer en et-skridt-forudsigelse og er givet af
Ovenstående system er kendt som den inverse Wiener-Hopf-faktor. Den tilbagevendende rekursion er tilstødende til ovenstående fremadgående system. Resultatet af baglæns passering kan beregnes ved at betjene fremadligningerne på den tilbageførte tid og den tid, der vender resultatet. I tilfælde af outputestimering er det udjævne estimat givet af
Tager kausaldelen af denne mindste varians jævnere udbytter
som er identisk med Kalman-filteret med minimal varians. Ovennævnte løsninger minimerer variansen af outputestimeringsfejlen. Bemærk, at Rauch – Tung – Striebel jævnere afledning antager, at de underliggende fordelinger er gaussiske, hvorimod løsningerne med minimal varians ikke gør det. Optimale udjævninger til statsestimering og inputestimering kan konstrueres på samme måde.
En kontinuerlig version af ovenstående glattere er beskrevet i.
Forventningsmaksimeringsalgoritmer kan anvendes til at beregne omtrentlige maksimale sandsynlighedsestimater for ukendte parametre i tilstandsrum inden for minimum-variansfiltre og udjævninger. Ofte forbliver usikkerheder inden for problemantagelser. En glattere, der rummer usikkerheder, kan designes ved at tilføje et positivt bestemt udtryk til Riccati -ligningen.
I de tilfælde, hvor modellerne er ikke-lineære, kan trinvise lineariseringer ligge inden for filteret med minimumsvarians og jævnere recursioner ( udvidet Kalman-filtrering ).
Frekvensvægtede Kalman-filtre
Banebrydende forskning om opfattelsen af lyde ved forskellige frekvenser blev udført af Fletcher og Munson i 1930'erne. Deres arbejde førte til en standardvægtning af målte lydniveauer inden for undersøgelser af industriel støj og høretab. Frekvensvægtninger er siden blevet brugt inden for filter- og controller -designs til at styre ydeevnen inden for interessebånd.
Typisk bruges en frekvensformningsfunktion til at veje den gennemsnitlige effekt af fejlspektraltætheden i et bestemt frekvensbånd. Lad betegne den output -estimeringsfejl, der udvises af et konventionelt Kalman -filter. Lad os også betegne en kausal frekvensvægtningsoverføringsfunktion. Den optimale løsning, der minimerer variationen af opstår ved simpelthen at konstruere .
Designet af er stadig et åbent spørgsmål. En måde at gå videre på er at identificere et system, der genererer estimeringsfejl og indstilling, der er lig med det inverse af dette system. Denne procedure kan gentages for at opnå gennemsnitlig kvadratfejlforbedring på bekostning af øget filterordre. Den samme teknik kan anvendes på smoothers.
Ikke -lineære filtre
Det grundlæggende Kalman -filter er begrænset til en lineær antagelse. Mere komplekse systemer kan imidlertid være ikke -lineære . Nonlineariteten kan enten være forbundet med procesmodellen eller med observationsmodellen eller med begge dele.
De mest almindelige varianter af Kalman-filtre til ikke-lineære systemer er det forlængede Kalman-filter og det uparfumerede Kalman-filter. Egnetheden af hvilket filter, der skal bruges, afhænger af proces- og observationsmodellens ikke-linearitetsindeks.
Forlænget Kalman filter
I det udvidede Kalman -filter (EKF) behøver tilstandsovergangs- og observationsmodellerne ikke at være statens lineære funktioner, men kan i stedet være ikke -lineære funktioner. Disse funktioner er af differentierbar type.
Funktionen f kan bruges til at beregne den forudsagte tilstand ud fra det tidligere estimat og på samme måde kan funktionen h bruges til at beregne den forudsagte måling ud fra den forudsagte tilstand. Men f og h kan ikke anvendes til kovariansen direkte. I stedet beregnes en matrix af partielle derivater ( jakobiansk ).
På hvert tidspunkt skridt Jacobian evalueres med aktuelle forudsagte tilstande. Disse matricer kan bruges i Kalman -filterligningerne. Denne proces lineariserer i det væsentlige den ikke -lineære funktion omkring det nuværende estimat.
Uparfumeret Kalman -filter
Når tilstandsovergangs- og observationsmodellerne - det vil sige forudsigelses- og opdateringsfunktionerne og - er meget ulineære, kan det udvidede Kalman -filter give særlig dårlig ydeevne. Dette skyldes, at kovariansen spredes gennem linearisering af den underliggende ikke -lineære model. Det uparfumerede Kalman -filter (UKF) bruger en deterministisk prøvetagningsteknik kendt som den uparfumerede transformation (UT) til at vælge et minimalt sæt prøvepunkter (kaldet sigmapunkter) omkring middelværdien. Sigma -punkterne formeres derefter gennem de ikke -lineære funktioner, hvorfra der derefter dannes et nyt middel og kovariansestimat. Det resulterende filter afhænger af, hvordan den transformerede statistik for UT beregnes, og hvilket sæt sigma -punkter der bruges. Det skal bemærkes, at det altid er muligt at konstruere nye UKF'er på en konsekvent måde. For visse systemer estimerer den resulterende UKF mere præcist det sande middel og kovarians. Dette kan verificeres med Monte Carlo -prøveudtagning eller Taylor -serieudvidelse af posteriorstatistikken. Derudover fjerner denne teknik kravet om eksplicit at beregne Jacobians, hvilket for komplekse funktioner kan være en vanskelig opgave i sig selv (dvs. at kræve komplicerede derivater, hvis de udføres analytisk eller er beregningsmæssigt dyre, hvis de udføres numerisk), hvis ikke umuligt (hvis disse funktioner er ikke differentieret).
Sigma peger
For en tilfældig vektor er sigmapunkter ethvert sæt vektorer
tilskrives med
- første ordens vægte, der opfylder
- for alle :
- andenordensvægte, der opfylder
- for alle par .
Et simpelt valg af sigmapunkter og vægte i UKF -algoritmen er
hvor er middelværdien af . Vektoren er den j th kolonne af hvor . Matrixen skal beregnes ved hjælp af numerisk effektive og stabile metoder såsom Cholesky -nedbrydning ifølge forfatterne til UKF -originalpapir fra 1997
"2. Sigma -punkterne fanger samme middelværdi og kovarians uanset valget af matrix kvadratrode, der bruges. Numerisk effektive og stabile metoder såsom Cholesky -dekomponering18 kan bruges."
Vægten af middelværdien,, kan vælges vilkårligt.
En anden populær parameterisering (som generaliserer ovenstående) er
og kontrollere spredningen af sigma -punkterne. er relateret til fordelingen af .
Passende værdier afhænger af problemet ved hånden, men en typisk anbefaling er , og . Imidlertid kan en større værdi af (f.eks. ) Være fordelagtig for bedre at fange fordelingen af distributionen og mulige ulineariteter. Hvis den sande fordeling af er Gaussisk, er optimal.
Forudsige
Som med EKF kan UKF -forudsigelsen bruges uafhængigt af UKF -opdateringen i kombination med en lineær (eller faktisk EKF) opdatering eller omvendt.
I betragtning af estimater af middelværdien og kovarians, og man opnår sigma -punkter som beskrevet i afsnittet ovenfor. Sigma -punkterne formeres gennem overgangsfunktionen f .
- .
De formerede sigmapunkter vejes for at producere det forudsagte middelværdi og kovarians.
hvor er vægten i første orden af de originale sigmapunkter, og er vægten af anden orden. Matrixen er kovariansen af overgangen støj, .
Opdatering
Givet forudsigelse skøn og et nyt sæt af sigma point med tilsvarende første-ordens vægte og anden ordens vægte beregnes. Disse sigma -punkter transformeres igennem .
- .
Derefter beregnes empirisk middelværdi og kovarians for de transformerede punkter.
hvor er kovariansmatrixen af observationsperioden støj, . Derudover er krydskovariansmatrixen også nødvendig
hvor er de utransformerede sigmapunkter skabt af og .
Kalman gevinsten er
De opdaterede gennemsnit og kovariansestimater er
Diskriminerende Kalman -filter
Når observationsmodellen er meget ikke-lineær og/eller ikke-gaussisk, kan det vise sig fordelagtigt at anvende Bayes 'regel og skøn
hvor for ikke -lineære funktioner . Dette erstatter den generative specifikation af standard Kalman -filteret med en diskriminerende model for de latente stater, der er givet observationer.
Under en stationær tilstandsmodel
hvor , hvis
givet en ny observation , følger det
hvor
Bemærk, at denne tilnærmelse skal være positiv-bestemt; i tilfælde af at det ikke er,
bruges i stedet. En sådan fremgangsmåde viser sig særlig nyttig, når observationernes dimensionalitet er meget større end latentstaternes og kan bruges til at bygge filtre, der er særligt robuste over for ikke -stationariteter i observationsmodellen.
Adaptivt Kalman filter
Adaptive Kalman-filtre gør det muligt at tilpasse sig processdynamik, der ikke er modelleret i procesmodellen, hvilket f.eks. Sker i forbindelse med et manøvreringsmål, når et Kalman-filter i reduceret orden bruges til sporing.
Kalman – Bucy filter
Kalman – Bucy filtrering (opkaldt efter Richard Snowden Bucy) er en kontinuerlig tidsversion af Kalman filtrering.
Det er baseret på den statslige rummodel
hvor og repræsenterer intensiteterne (eller mere præcist: Power Spectral Density - PSD - matricer) for de to hvide støjtermer og hhv.
Filtret består af to differentialligninger, en for statens skøn og en for kovariansen:
hvor Kalman gevinst er givet af
Bemærk, at i dette udtryk for kovariansen af observationsstøj repræsenterer samtidig kovariansen af forudsigelsesfejlen (eller innovationen ) ; disse kovarianser er kun ens i tilfælde af kontinuerlig tid.
Skelnen mellem forudsigelses- og opdateringstrin ved diskret Kalman-filtrering eksisterer ikke i kontinuerlig tid.
Den anden differentialligning, for kovariansen, er et eksempel på en Riccati -ligning . Ikke -lineære generaliseringer til Kalman – Bucy -filtre inkluderer forlænget Kalman -filter med forlænget tid.
Hybrid Kalman filter
De fleste fysiske systemer er repræsenteret som modeller med kontinuerlig tid, mens diskrete tidsmålinger foretages hyppigt til statsestimering via en digital processor. Derfor er systemmodellen og målemodellen givet af
hvor
- .
Initialiser
Forudsige
Forudsigelsesdataene ligninger er afledt af kontinuerlig-tid Kalman filter uden opdatering fra målinger, dvs. . Den forudsagte tilstand og kovarians beregnes henholdsvis ved at løse et sæt differentialligninger med den oprindelige værdi lig med estimatet på det foregående trin.
For lineære tidsinvariante systemer kan den kontinuerlige tidsdynamik nøjagtigt diskretiseres til et diskret tidssystem ved hjælp af matrixeksponentialer .
Opdatering
Opdateringsligningerne er identiske med dem for det diskrete Kalman-filter.
Varianter til genopretning af sparsomme signaler
Det traditionelle Kalman -filter er også blevet anvendt til genopretning af sparsomme , muligvis dynamiske, signaler fra støjende observationer. Nylige værker anvender begreber fra teorien om komprimeret sansning /prøvetagning, såsom den begrænsede isometri-egenskab og relaterede sandsynlige genoprettelsesargumenter, til sekventielt at estimere den sparsomme tilstand i iboende lavdimensionelle systemer.
Forholdet til gaussiske processer
Kalman -filteret er relateret til gaussiske processer .
Ansøgninger
- Holdning og overskriftsreferencesystemer
- Autopilot
- Estimering af opladningstilstand for elektrisk batteri (SoC)
- Hjerne -computer -grænseflader
- Kaotiske signaler
- Sporing og toppunktsmontering af ladede partikler i partikeldetektorer
- Sporing af objekter i computersyn
- Dynamisk positionering inden for forsendelse
- Økonomi , især makroøkonomi , tidsserieanalyse og økonometri
- Inertial vejledningssystem
- Nuklearmedicin - restaurering af enkelt fotonemission computertomografi
- Orbit bestemmelse
- Estimering af energisystemets tilstand
- Radar tracker
- Satellitnavigationssystemer
- Seismologi
- Sensorløs styring af vekselstrømsmotorer med frekvensomformer
- Samtidig lokalisering og kortlægning
- Taleudvidelse
- Visuel kilometertæller
- Vejrudsigter
- Navigations system
- 3D modellering
- Strukturel sundhedsovervågning
- Menneskelig sensorimotorisk behandling
Se også
- Alpha beta filter
- Omvendt variansvægtning
- Kovarians kryds
- Data assimilering
- Ensemble Kalman filter
- Hurtigt Kalman filter
- Filtreringsproblem (stokastiske processer)
- Generaliseret filtrering
- Invariant forlænget Kalman filter
- Kernel adaptivt filter
- Masreliez sætning
- Estimering af bevægelig horisont
- Partikelfilter estimator
- PID -controller
- Predictor -corrector metode
- Rekursivt mindst firkantet filter
- Schmidt -Kalman filter
- Adskillelsesprincip
- Glidefunktionskontrol
- Statens overgangsmatrix
- Stokastiske differentialligninger
- Skifter Kalman filter
- Samtidig estimering og modellering
Referencer
Yderligere læsning
- Einicke, GA (2019). Udjævning, filtrering og forudsigelse: Estimering af fortid, nutid og fremtid (2. udgave) . Amazon Prime Publishing. ISBN 978-0-6485115-0-2.
- Jinya Su; Baibing Li; Wen-Hua Chen (2015). "På eksistens, optimalitet og asymptotisk stabilitet af Kalman -filteret med delvist observerede input" . Automatica . 53 : 149–154. doi : 10.1016/j.automatica.2014.12.044 .
- Gelb, A. (1974). Anvendt optimal estimering . MIT Tryk.
- Kalman, RE (1960). "En ny tilgang til lineær filtrering og forudsigelsesproblemer" (PDF) . Journal of Basic Engineering . 82 (1): 35–45. doi : 10.1115/1.3662552 . Arkiveret fra originalen (PDF) den 2008-05-29 . Hentet 2008-05-03 .
- Kalman, RE; Bucy, RS (1961). "Nye resultater i lineær filtrering og forudsigelsesteori". Journal of Basic Engineering . 83 : 95–108. CiteSeerX 10.1.1.361.6851 . doi : 10.1115/1.3658902 .
- Harvey, AC (1990). Prognoser, strukturelle tidsseriemodeller og Kalman -filteret . Cambridge University Press. ISBN 9780521405737.
- Roweis, S .; Ghahramani, Z. (1999). "En samlende gennemgang af lineære gaussiske modeller" (PDF) . Neural beregning . 11 (2): 305–345. doi : 10.1162/089976699300016674 . PMID 9950734 . S2CID 2590898 .
- Simon, D. (2006). Optimal tilstandsestimering: Kalman, H Infinity og Nonlinear Approaches . Wiley-Interscience.
- Warwick, K . (1987). "Optimale observatører til ARMA -modeller". International Journal of Control . 46 (5): 1493–1503. doi : 10.1080/00207178708933989 .
- Bierman, GJ (1977). Faktoriseringsmetoder til diskret sekventiel vurdering . Matematik i videnskab og teknik . 128 . Mineola, NY: Dover Publications. ISBN 978-0-486-44981-4.
- Bozic, SM (1994). Digital og Kalman filtrering . Butterworth – Heinemann.
- Haykin, S. (2002). Adaptiv filterteori . Prentice Hall.
- Liu, W .; Principe, JC og Haykin, S. (2010). Kernel adaptiv filtrering: En omfattende introduktion . John Wiley.CS1 maint: flere navne: forfatterliste ( link )
- Manolakis, DG (1999). Statistisk og adaptiv signalbehandling . Artech House.
- Welch, Greg; Biskop, Gary (1997). "SCAAT: trinvis sporing med ufuldstændige oplysninger" (PDF) . SIGGRAPH '97 Forløb fra den 24. årlige konference om computergrafik og interaktive teknikker . ACM Press/Addison-Wesley Publishing Co. s. 333–344. doi : 10.1145/258734.258876 . ISBN 978-0-89791-896-1. S2CID 1512754 .
- Jazwinski, Andrew H. (1970). Stokastiske processer og filtrering . Matematik i videnskab og teknik. New York: Academic Press . s. 376. ISBN 978-0-12-381550-7.
- Maybeck, Peter S. (1979). "Kapitel 1" (PDF) . Stokastiske modeller, estimering og kontrol . Matematik i videnskab og teknik. 141–1. New York: Academic Press . ISBN 978-0-12-480701-3.
- Moriya, N. (2011). Primer til Kalman filtrering: Et fysikerperspektiv . New York: Nova Science Publishers, Inc. ISBN 978-1-61668-311-5.
- Dunik, J .; Simandl M .; Straka O. (2009). "Metoder til estimering af tilstand og målestøj Kovariansmatricer: aspekter og sammenligning" . 15. IFAC -symposium om systemidentifikation, 2009 . 15. IFAC -symposium om systemidentifikation, 2009. Frankrig. s. 372–377. doi : 10.3182/20090706-3-FR-2004.00061 . ISBN 978-3-902661-47-0.
- Chui, Charles K .; Chen, Guanrong (2009). Kalman-filtrering med applikationer i realtid . Springer -serien i informationsvidenskab. 17 (4. udgave). New York: Springer . s. 229. ISBN 978-3-540-87848-3.
- Spivey, Ben; Hedengren, JD og Edgar, TF (2010). "Begrænset ikke -lineær estimering for industriel procesforurening". Industriel og ingeniørkemisk forskning . 49 (17): 7824–7831. doi : 10.1021/ie9018116 .CS1 maint: flere navne: forfatterliste ( link )
- Thomas Kailath ; Ali H. Sayed ; Babak Hassibi (2000). Lineær estimering . NJ: Prentice – Hall. ISBN 978-0-13-022464-4.
- Ali H. Sayed (2008). Adaptive filtre . NJ: Wiley. ISBN 978-0-470-25388-5.CS1 maint: bruger forfatterparameter ( link )
eksterne links
- En ny tilgang til lineære filtrerings- og forudsigelsesproblemer , af RE Kalman, 1960
- Kalman og Bayesian filtre i Python . Kalman -filtreringsbog i åben kildekode.
- Sådan fungerer et Kalman -filter i billeder . Oplyser Kalman -filteret med billeder og farver
- Kalman – Bucy Filter , en afledning af Kalman – Bucy Filter
- MIT -videoforedrag om Kalman -filteret på YouTube
- Kalman filter i Javascript . Kalman -filterbibliotek med åben kildekode til node.js og webbrowseren.
- En introduktion til Kalman -filteret , SIGGRAPH 2001 Course, Greg Welch og Gary Bishop
- Kalman Filter -webside med mange links
- Kalman-filter forklaret enkelt , trin-for-trin vejledning i Kalman-filteret med ligninger
- "Kalman -filtre brugt i vejrmodeller" (PDF) . SIAM Nyheder . 36 (8). Oktober 2003. Arkiveret fra originalen (PDF) 2011-05-17 . Hentet 2007-01-27 .
- Haseltine, Eric L .; Rawlings, James B. (2005). "Kritisk evaluering af udvidet Kalman-filtrering og Moving-Horizon Estimation". Industriel og ingeniørkemisk forskning . 44 (8): 2451. doi : 10.1021/ie034308l .
- Gerald J. Biermans Estimation Subroutine Library : Svarer til koden i forskningsmonografien "Factorization Methods for Discrete Sequential Estimation", der oprindeligt blev udgivet af Academic Press i 1977. Udgivet på ny af Dover.
- Matlab Toolbox implementerer dele af Gerald J. Biermans Estimation Subroutine Library : UD / UDU 'og LD / LDL' faktorisering med tilhørende tid og måleopdateringer, der udgør Kalman -filteret.
- Matlab Toolbox med Kalman -filtrering anvendt på samtidig lokalisering og kortlægning : Køretøj bevæger sig i 1D, 2D og 3D
- Kalman -filteret i gengivelse af kernel Hilbert -rum En omfattende introduktion.
- Matlab-kode til estimering af Cox – Ingersoll – Ross rentemodel med Kalman Filter : Svarer til papiret "estimering og test af eksponentielt affine termstrukturmodeller efter kalmanfilter" udgivet af Review of Quantitative Finance and Accounting i 1999.
- Online demo af Kalman Filter . Demonstration af Kalman -filter (og andre dataassimilationsmetoder) ved hjælp af tvillingeforsøg.
- Botella, Guillermo; Martín h., José Antonio; Santos, Matilde; Meyer-Baese, Uwe (2011). "FPGA-baseret multimodalt integreret sensorsystem, der integrerer lav- og mellemniveau-vision" . Sensorer . 11 (12): 1251–1259. Bibcode : 2011Senso..11.8164B . doi : 10.3390/s110808164 . PMC 3231703 . PMID 22164069 .
- Eksempler og vejledninger til brug af Kalman-filtre med MATLAB A Tutorial om filtrering og estimering
- Forklarer filtrering (estimering) på en time, ti minutter, et minut og en sætning af Yu-Chi Ho
- Simo Särkkä (2013). "Bayesiansk filtrering og udjævning". Cambridge University Press. Fuldtekst tilgængelig på forfatterens webside https://users.aalto.fi/~ssarkka/ .