Kalman filter - Kalman filter

Kalman -filteret holder styr på systemets estimerede tilstand og estimatets varians eller usikkerhed. Estimatet opdateres ved hjælp af en tilstandsovergangsmodel og målinger. betegner estimatet af systemets tilstand på tidstrin k, før k -t måling y k er taget i betragtning; er den tilsvarende usikkerhed.

I statistik og kontrolteori er Kalman -filtrering , også kendt som lineær kvadratisk estimering ( LQE ), en algoritme, der bruger en række målinger observeret over tid, herunder statistisk støj og andre unøjagtigheder, og producerer estimater af ukendte variabler, der har tendens til at være mere præcis end dem, der er baseret på en enkelt måling alene, ved at estimere en fælles sandsynlighedsfordeling over variablerne for hver tidsramme. Filtret er opkaldt efter Rudolf E. Kálmán , som var en af ​​de primære udviklere af dets teori.

Dette digitale filter kaldes undertiden Stratonovich – Kalman – Bucy -filteret, fordi det er et specielt tilfælde af et mere generelt, ikke -lineært filter udviklet noget tidligere af den sovjetiske matematiker Ruslan Stratonovich . Faktisk optrådte nogle af special case lineære filters ligninger i papirer af Stratonovich, der blev offentliggjort før sommeren 1960, da Kalman mødtes med Stratonovich under en konference i Moskva.

Kalman -filtrering har mange teknologiske anvendelser. En fælles applikation er til vejledning, navigation og kontrol af køretøjer, især fly, rumfartøjer og skibe, der er placeret dynamisk . Desuden er Kalman -filtrering et begreb, der er meget anvendt i tidsserieanalyser , der bruges til emner som signalbehandling og økonometri . Kalman -filtrering er også et af hovedemnerne inden for planlægning og kontrol af robotbevægelser og kan bruges til baneoptimering . Kalman filtrering fungerer også til modellering af centralnervesystemets kontrol af bevægelse. På grund af tidsforsinkelsen mellem udsendelse af motorkommandoer og modtagelse af sensorisk feedback giver brugen af ​​Kalman -filtre en realistisk model til at foretage estimater af et motorsystems aktuelle tilstand og udsende opdaterede kommandoer.

Algoritmen fungerer ved en tofaset proces. I forudsigelsesfasen producerer Kalman -filteret estimater af de aktuelle tilstandsvariabler sammen med deres usikkerheder. Når resultatet af den næste måling (nødvendigvis beskadiget med en vis fejl, herunder tilfældig støj) er observeret, opdateres disse estimater ved hjælp af et vejet gennemsnit , med større vægt på estimater med større sikkerhed. Algoritmen er rekursiv . Den kan fungere i realtid ved kun at bruge de nuværende inputmålinger og den tidligere beregnede tilstand og dens usikkerhedsmatrix; ingen yderligere tidligere oplysninger er påkrævet.

Optimalt ved Kalman -filtrering forudsætter, at fejl har en normal (gaussisk) fordeling. Med ordene fra Rudolf E. Kálmán : "Sammenfattende gøres følgende antagelser om tilfældige processer: Fysiske tilfældige fænomener kan tænkes som på grund af primære tilfældige kilder spændende dynamiske systemer. De primære kilder antages at være uafhængige gaussiske tilfældige processer med nul middelværdi; de dynamiske systemer vil være lineære. " Selvom uanset Gaussianity, er proces- og målingskovarianserne kendt, er Kalman-filteret den bedst mulige lineære estimator i den mindste middelværdi-kvadrat-fejlforstand .

Udvidelser og generaliseringer af metoden er også blevet udviklet, såsom det udvidede Kalman -filter og det uparfumerede Kalman -filter, der arbejder på ikke -lineære systemer . Grundlaget er en skjult Markov -model, således at tilstandsrummet for de latente variabler er kontinuerligt, og alle latente og observerede variabler har gaussiske fordelinger. Kalman-filtrering er også blevet brugt med succes i multi-sensor fusion og distribuerede sensornetværk til at udvikle distribueret eller konsensus Kalman filtrering.

Historie

Filtreringsmetoden er opkaldt efter den ungarske emigrant Rudolf E. Kálmán , selvom Thorvald Nicolai Thiele og Peter Swerling tidligere har udviklet en lignende algoritme. Richard S. Bucy fra Johns Hopkins Applied Physics Laboratory bidrog til teorien, hvilket fik den til at blive kendt som Kalman -Bucy -filtrering. Stanley F. Schmidt krediteres generelt for at have udviklet den første implementering af et Kalman -filter. Han indså, at filteret kunne opdeles i to forskellige dele, med en del i tidsperioder mellem sensorudgange og en anden del til at inkorporere målinger. Det var under et besøg af Kálmán i NASA Ames Research Center, at Schmidt så anvendeligheden af ​​Kálmáns ideer på det ikke -lineære problem med banestimering for Apollo -programmet, hvilket resulterede i, at det blev inkorporeret i Apollo -navigationscomputeren . Denne Kalman -filtrering blev først beskrevet og udviklet delvist i tekniske papirer af Swerling (1958), Kalman (1960) og Kalman og Bucy (1961).

Apollo -computeren brugte 2 k magnetisk kerne -RAM og 36 k wire [...]. CPU'en blev bygget fra IC'er [...]. Urhastigheden var under 100 kHz [...]. Det faktum, at MIT -ingeniørerne var i stand til at pakke så god software (en af ​​de allerførste applikationer af Kalman -filteret) i sådan en lille computer, er virkelig bemærkelsesværdig.

-  Interview med Jack Crenshaw, af Matthew Reed, TRS-80.org (2009) [1]

Kalman -filtre har været afgørende for implementeringen af ​​navigationssystemerne i ubådene til atomvåbenballistiske missiler fra US Navy og i vejlednings- og navigationssystemer for krydsermissiler, såsom den amerikanske flådes Tomahawk -missil og US Air Force 's Air Launched Cruise Missile . De bruges også i vejlednings- og navigationssystemer til genanvendelige affyringsbiler og holdningskontrol- og navigationssystemer til rumfartøjer, der lægger til ved den internationale rumstation .

Oversigt over beregningen

Kalman -filtrering bruger et systems dynamiske model (f.eks. Fysiske bevægelseslove), kendte kontrolindgange til det system og flere sekventielle målinger (f.eks. Fra sensorer) til at danne et estimat af systemets varierende mængder (dets tilstand ), der er bedre end estimatet opnået ved kun at bruge en måling alene. Som sådan er det en almindelig sensor fusion og datafusion algoritme.

Støjende sensordata, tilnærmelser i ligningerne, der beskriver systemudviklingen og eksterne faktorer, der ikke tages højde for, begrænser alle, hvor godt det er muligt at bestemme systemets tilstand. Kalman -filteret håndterer effektivt usikkerheden på grund af støjende sensordata og til en vis grad tilfældige eksterne faktorer. Kalman -filteret producerer et estimat af systemets tilstand som et gennemsnit af systemets forudsagte tilstand og af den nye måling ved hjælp af et vægtet gennemsnit . Formålet med vægtene er, at værdier med bedre (dvs. mindre) estimeret usikkerhed "stoler på" mere. Vægtene beregnes ud fra kovariansen , et mål for den estimerede usikkerhed ved forudsigelse af systemets tilstand. Resultatet af det vejede gennemsnit er et nyt tilstandsestimat, der ligger mellem den forudsagte og målte tilstand, og har en bedre estimeret usikkerhed end enten alene. Denne proces gentages ved hvert trin, hvor det nye estimat og dets kovarians informerer den forudsigelse, der bruges i den følgende iteration. Det betyder, at Kalman -filter fungerer rekursivt og kun kræver det sidste "bedste gæt", snarere end hele historien om et systems tilstand for at beregne en ny tilstand.

Målingernes sikkerhedsgradering og estimat af nuværende tilstand er vigtige overvejelser. Det er almindeligt at diskutere filterets reaktion med hensyn til Kalman -filterets forstærkning . Kalman-gevinsten er vægten, der er givet til målingerne og estimatet for nuværende tilstand, og kan "indstilles" for at opnå en bestemt ydelse. Med en høj gevinst lægger filteret større vægt på de seneste målinger og tilpasses dem derfor mere responsivt. Med en lav forstærkning overholder filteret tættere på modelforudsigelserne. I yderlighederne vil en høj forstærkning tæt på en resultere i en mere hoppet estimeret bane, mens en lav forstærkning tæt på nul vil udjævne støj, men reducere lydhørheden.

Når de faktiske beregninger for filteret udføres (som diskuteret nedenfor), kodes tilstandsestimatet og kovarianserne i matricer på grund af de flere dimensioner, der er involveret i et enkelt sæt beregninger. Dette giver mulighed for en repræsentation af lineære forhold mellem forskellige tilstandsvariabler (såsom position, hastighed og acceleration) i en hvilken som helst overgangsmodel eller kovarians.

Eksempel ansøgning

Som et eksempel kan du overveje problemet med at bestemme den nøjagtige placering af en lastbil. Lastbilen kan udstyres med en GPS -enhed, der giver et skøn over positionen inden for få meter. GPS -estimatet vil sandsynligvis være støjende; målinger 'hopper rundt' hurtigt, selvom de forbliver inden for få meter fra den virkelige position. Da lastbilen forventes at følge fysikkens love, kan dens position også estimeres ved at integrere dens hastighed over tid, bestemt ved at holde styr på hjulets omdrejninger og rattets vinkel. Dette er en teknik kendt som død regning . Typisk vil den døde opgørelse give et meget gnidningsfrit skøn over lastbilens position, men den vil drive over tid, efterhånden som små fejl akkumuleres.

I dette eksempel kan Kalman -filteret betragtes som værende i to forskellige faser: forudsig og opdater. I forudsigelsesfasen vil lastbilens gamle position blive ændret i henhold til de fysiske bevægelseslove (den dynamiske eller "tilstandsovergang" -model). Ikke alene vil et nyt positionsestimat blive beregnet, men også en ny kovarians vil blive beregnet. Måske er kovariansen proportional med lastbilens hastighed, fordi vi er mere usikre på nøjagtigheden af ​​det estimerede positionsestimat ved høje hastigheder, men meget sikker på positionsestimatet ved lave hastigheder. I opdateringsfasen tages der derefter en måling af lastbilens position fra GPS -enheden. Sammen med denne måling følger en vis usikkerhed, og dens kovarians i forhold til forudsigelsen fra den foregående fase bestemmer, hvor meget den nye måling vil påvirke den opdaterede forudsigelse. Ideelt set, da estimaterne for døde beregninger har tendens til at glide væk fra den virkelige position, bør GPS -målingen trække positionsestimatet tilbage mod den reelle position, men ikke forstyrre det til det punkt, hvor det bliver støjende og hurtigt hopper.

Teknisk beskrivelse og kontekst

Kalman-filteret er et effektivt rekursivt filter, der estimerer den interne tilstand af et lineært dynamisk system ud fra en række støjende målinger. Det bruges i en bred vifte af tekniske og økonometriske applikationer fra radar og computervision til estimering af strukturelle makroøkonomiske modeller og er et vigtigt emne inden for kontrolteori og kontrolsystemteknik . Sammen med den lineære-kvadratiske regulator (LQR) løser Kalman-filteret det lineære-kvadratiske-gaussiske kontrolproblem (LQG). Kalman-filteret, den lineære-kvadratiske regulator og den lineære-kvadratiske-gaussiske controller er løsninger på, hvad der uden tvivl er de mest fundamentale problemer inden for kontrolteori.

I de fleste applikationer er den interne tilstand meget større (flere frihedsgrader ) end de få "observerbare" parametre, der måles. Ved at kombinere en række målinger kan Kalman -filteret imidlertid estimere hele den interne tilstand.

For Dempster-Shafer-teorien betragtes hver tilstandsligning eller observation som et specielt tilfælde af en lineær trosfunktion, og Kalman-filtreringen er et særligt tilfælde af kombination af lineære trosfunktioner på et join-træ eller Markov-træ . Yderligere metoder omfatter trosfiltrering, der bruger Bayes eller bevismæssige opdateringer til statens ligninger.

Der findes nu en lang række Kalman -filtre fra Kalmans originale formulering - nu kaldet det "simple" Kalman -filter, Kalman – Bucy -filteret , Schmidts "udvidede" filter, informationsfilteret og en række "kvadratrode" -filtre der blev udviklet af Bierman, Thornton og mange andre. Måske er den mest almindeligt anvendte type meget simpelt Kalman-filter den faselåste sløjfe , som nu er allestedsnærværende i radioer, især frekvensmodulation (FM) radioer, fjernsynsapparater, satellitkommunikationsmodtagere , ydre rumkommunikationssystemer og næsten enhver anden elektronisk kommunikationsudstyr.

Underliggende dynamisk systemmodel

Kalman -filtrering er baseret på lineære dynamiske systemer diskretiseret i tidsdomænet. De er modelleret på en Markov -kæde bygget på lineære operatører forstyrret af fejl, der kan omfatte gaussisk støj . Målsystemets tilstand refererer til den grundlæggende sandhed (endnu skjulte) systemkonfiguration af interesse, som er repræsenteret som en vektor af reelle tal . Ved hver diskret tidsforøgelse påføres en lineær operator til staten for at generere den nye tilstand, med noget støj blandet ind, og eventuelt nogle oplysninger fra kontrolelementerne på systemet, hvis de er kendte. Derefter genererer en anden lineær operator blandet med mere støj de målbare output (dvs. observation) fra den sande ("skjulte") tilstand. Kalman -filteret kan betragtes som analogt med den skjulte Markov -model med den forskel, at de skjulte tilstandsvariabler har værdier i et kontinuerligt rum i modsætning til et diskret statsrum som for den skjulte Markov -model. Der er en stærk analogi mellem ligningerne for et Kalman -filter og dem for den skjulte Markov -model. En gennemgang af denne og andre modeller er givet i Roweis og Ghahramani (1999) og Hamilton (1994), kapitel 13.

For at bruge Kalman -filteret til at estimere den interne tilstand af en proces, der kun får en række støjende observationer, skal man modellere processen i overensstemmelse med følgende rammer. Det betyder, at du skal angive følgende matricer:

  • F k , statsovergangsmodellen;
  • H k , observationsmodellen;
  • Q k , processtøjens kovarians ;
  • R k , observationsstøjens kovarians ;
  • og nogle gange B k , kontrolindgangsmodellen, for hvert tidstrin, k , som beskrevet nedenfor.
Model, der ligger til grund for Kalman -filteret. Kvadrater repræsenterer matricer. Ellipser repræsenterer multivariate normalfordelinger (med middelværdien og kovariansmatricen vedlagt). Ikke -lukkede værdier er vektorer . For det enkle tilfælde er de forskellige matricer konstante med tiden, og dermed bruges abonnementerne ikke, men Kalman -filtrering tillader, at enhver af dem ændres hvert gangstrin.

Kalman -filtermodellen antager, at den sande tilstand på tidspunktet k udvikles fra tilstanden ved ( k  - 1) iflg

hvor

  • F k er tilstandsovergangsmodellen, der anvendes på den tidligere tilstand x k −1 ;
  • B k er kontrolindgangsmodellen, der påføres kontrolvektoren u k ;
  • w k er den proces støj, antages der at blive trukket fra en nul middelværdi flerdimensionale normalfordeling , med kovarians , Q k : .

På tidspunktet k foretages en observation (eller måling) z k af den sande tilstand x k iflg

hvor

  • H k er observationsmodellen, som kortlægger det sande tilstandsrum ind i det observerede rum og
  • v k er den observation støj, som antages at være nul middelværdi Gaussisk hvid støj med covarians R k : .

Starttilstanden og støjvektorerne ved hvert trin { x 0 , w 1 , ..., w k , v 1 , ..., v k } antages alle at være indbyrdes uafhængige .

Mange realtids dynamiske systemer er ikke ligefrem i overensstemmelse med denne model. Faktisk kan umodelleret dynamik alvorligt forringe filterydelsen, selv når det skulle fungere med ukendte stokastiske signaler som input. Grunden til dette er, at effekten af ​​umodelleret dynamik afhænger af input, og derfor kan bringe estimeringsalgoritmen til ustabilitet (den afviger). På den anden side vil uafhængige hvide støjsignaler ikke få algoritmen til at afvige. Problemet med at skelne mellem målestøj og umodelleret dynamik er svært og behandles som et problem med kontrolteori ved hjælp af robust kontrol .

detaljer

Kalman -filteret er en rekursiv estimator. Dette betyder, at kun den estimerede tilstand fra det foregående tidstrin og den aktuelle måling er nødvendig for at beregne estimatet for den aktuelle tilstand. I modsætning til batchestimeringsteknikker kræves ingen historik af observationer og/eller estimater. I det følgende repræsenterer notationen estimatet af på tidspunkt n givet observationer til og med tidspunktet mn .

Filterets tilstand repræsenteres af to variabler:

  • , estimatet a posteriori på tidspunktet k givet observationer til og med tidspunktet k ;
  • , a posteriori estimat -kovariansmatrix (et mål for den estimerede nøjagtighed af statens estimat).

Kalmanfilterets algoritmestruktur ligner alfa -betafilteret . Kalman -filteret kan skrives som en enkelt ligning; det er dog oftest konceptualiseret som to forskellige faser: "Forudsig" og "Opdater". Forudsigelsesfasen bruger tilstandsestimatet fra det foregående tidsskridt til at producere et skøn over tilstanden i det aktuelle tidssteg. Dette forudsagte tilstandsestimat er også kendt som a priori state -estimatet, fordi det, selv om det er et estimat af staten på det aktuelle tidssteg, ikke indeholder observationsinformation fra det aktuelle tidssteg. I opdateringsfasen multipliceres innovationen (pre-fit residualen), dvs. forskellen mellem den nuværende a priori forudsigelse og den aktuelle observationsinformation, med den optimale Kalman-forstærkning og kombineres med det tidligere statsestimat for at forfine statsestimatet. Dette forbedrede estimat baseret på den aktuelle observation betegnes estimatet a posteriori .

Typisk skifter de to faser med forudsigelsen, der fremmer staten indtil den næste planlagte observation, og opdateringen inkorporerer observationen. Dette er imidlertid ikke nødvendigt; hvis en observation af en eller anden grund ikke er tilgængelig, kan opdateringen springes over og flere forudsigelsesprocedurer udføres. Ligeledes, hvis flere uafhængige observationer er tilgængelige på samme tid, flere opdateringsprocedurer kan udføres (typisk med forskellige observation matricer H k ).

Forudsige

Forudsagt ( a priori ) statsestimat
Forudsagt ( a priori ) skøn kovarians

Opdatering

Innovation eller måling pre-fit rest
Innovation (eller pre-fit rest) kovarians
Optimal Kalman gevinst
Opdateret ( efterfølgende ) tilstandsestimat
Opdateret ( efterfølgende ) estimat -kovarians
Måling efter pasform resterende

Formlen for den opdaterede ( a posteriori ) estimat -kovarians ovenfor er gyldig for den optimale K k -forstærkning, der minimerer den resterende fejl, i hvilken form den bruges mest i applikationer. Bevis for formlerne findes i afledningsafsnittet , hvor formlen, der er gyldig for enhver K k , også vises.

En mere intuitiv måde at udtrykke det opdaterede tilstandsestimat ( ) er:

Dette udtryk minder os om en lineær interpolation, for mellem [0,1]. I vores tilfælde:

  • er Kalman gain ( ), en matrix, der tager værdier fra (høj fejl i sensoren) til (lav fejl).
  • er den værdi, der anslås ud fra modellen.
  • er værdien fra målingen.

Dette udtryk ligner også alfa -beta -filteropdateringstrinet .

Invarianter

Hvis modellen er nøjagtig, og værdierne for og nøjagtigt afspejler fordelingen af ​​de oprindelige tilstandsværdier, bevares følgende invarianter:

hvor er den forventede værdi af . Det vil sige, at alle estimater har en gennemsnitlig fejl på nul.

Også:

så kovariansmatricer afspejler nøjagtigt estimaternes kovarians.

Estimering af støjkovarianserne Q k og R k

Praktisk implementering af et Kalman -filter er ofte svært på grund af vanskeligheden ved at få et godt skøn over støjkovariansmatricerne Q k og R k . Omfattende forskning er blevet foretaget for at estimere disse kovarianser ud fra data. En praktisk metode til at gøre dette er autocovariance least-squares (ALS) -teknikken, der bruger tidsforsinkede autocovariancer af rutinemæssige driftsdata til at estimere kovarianserne. Den GNU Octave og Matlab kode, der bruges til at beregne støj kovariansmatrixer hjælp af ALS teknik er tilgængelig online ved hjælp af GNU General Public License . Field Kalman Filter (FKF), en bayesisk algoritme, som tillader samtidig estimering af tilstand, parametre og støjkovarians er blevet foreslået i. FKF -algoritme har en rekursiv formulering, god observeret konvergens og relativt lav kompleksitet. Dette giver en mulighed for, at FKF-algoritmen kan være et alternativ til Autocovariance Least-Squares-metoderne.

Optimalitet og ydeevne

Det følger af teorien, at Kalman -filteret er det optimale lineære filter i tilfælde, hvor a) modellen matcher det virkelige system perfekt, b) den indgående støj er "hvid" (ikke -korreleret) og c) støjens kovariationer kendes nøjagtigt. Korrelerede lyde kan også behandles ved hjælp af Kalman -filtre. Flere metoder til støjkovariansestimering er blevet foreslået i løbet af de sidste årtier, herunder ALS, nævnt i afsnittet ovenfor. Efter at kovarianserne er estimeret, er det nyttigt at evaluere filterets ydeevne; dvs. om det er muligt at forbedre statens estimeringskvalitet. Hvis Kalman -filteret fungerer optimalt, er innovationssekvensen (output -forudsigelsesfejlen) en hvid støj, derfor måler innovationernes hvideegenskab filterydelse. Flere forskellige metoder kan bruges til dette formål. Hvis støjbegreberne distribueres på en ikke-gaussisk måde, er metoder til vurdering af filterestimatets ydeevne, der anvender sandsynlighedsuligheder eller storprøve-teori, kendt i litteraturen.

Eksempel applikation, teknisk

  Sandhed;   filtreret proces;   observationer.

Overvej en lastbil på friktionsløse, lige skinner. I første omgang er lastbilen stationær i position 0, men den er bufferet på denne måde og det med tilfældige ukontrollerede kræfter. Vi måler lastbilens position hvert Δ t sekund, men disse målinger er upræcise; vi ønsker at fastholde en model for lastbilens position og hastighed . Vi viser her, hvordan vi udleder modellen, som vi opretter vores Kalman -filter fra.

Da de er konstante, falder deres tidsindeks.

Lastbilens position og hastighed er beskrevet af det lineære tilstandsrum

hvor er hastigheden, det vil sige derivatet af position med hensyn til tid.

Vi antager, at mellem ( k  - 1) og k tidssteg forårsager ukontrollerede kræfter en konstant acceleration af en k, der er normalfordelt , med middelværdi 0 og standardafvigelse σ a . Ud fra Newtons bevægelseslove konkluderer vi det

(der er ingen betegnelse, da der ikke er nogen kendte kontrolindgange. I stedet er a k effekten af ​​et ukendt input og anvender denne effekt på tilstandsvektoren) hvor

så det

hvor

Matrixen er ikke fuld rang (den er af rang én hvis ). Derfor er fordelingen ikke absolut kontinuerlig og har ingen sandsynlighedstæthedsfunktion . En anden måde at udtrykke dette på, undgå eksplicitte degenererede fordelinger, er givet af

I hver tidsfase foretages en støjende måling af lastbilens sande position. Lad os formode, at målestøj v k også er normalfordelt med middelværdi 0 og standardafvigelse σ z .

hvor

og

Vi kender lastbilens starttilstand med perfekt præcision, så vi initialiserer

og for at fortælle filteret, at vi kender den nøjagtige position og hastighed, giver vi det en nul -kovariansmatrix:

Hvis udgangspositionen og hastigheden ikke kendes perfekt, bør kovariansmatricen initialiseres med passende afvigelser på sin diagonal:

Filteret foretrækker derefter oplysningerne fra de første målinger frem for de oplysninger, der allerede findes i modellen.

Asymptotisk form

For nemheds skyld antages, at kontrolindgangen . Så kan Kalman -filteret skrives:

En lignende ligning gælder, hvis vi inkluderer en ikke-nul kontrolindgang. Gain -matricer udvikler sig uafhængigt af målingerne . Ovenfra er de fire ligninger, der er nødvendige for at opdatere Kalman -forstærkningen, som følger:

Da gain -matricerne kun afhænger af modellen og ikke målingerne, kan de beregnes offline. Konvergensen af ​​forstærkningsmatricerne til en asymptotisk matrix gælder for betingelser etableret i Walrand og Dimakis. Simuleringer fastlægger antallet af trin til konvergens. Eksemplet på flyttevognen beskrevet ovenfor med . og simulering viser konvergens i iterationer.

Ved hjælp af den asymptotiske forstærkning, og antager og er uafhængige af , bliver Kalman-filteret et lineært tidsinvariant filter:

Den asymptotiske gevinst , hvis den findes, kan beregnes ved først at løse følgende diskrete Riccati -ligning for asymptotisk tilstandskovarians :

Den asymptotiske gevinst beregnes derefter som før.

Afledninger

Kalman -filteret kan udledes som en generaliseret mindste kvadratemetode, der fungerer på tidligere data.

Afledning af det posteriori skøn kovariansmatrix

Starter med vores invariant på fejlkovariansen P k  | k som ovenfor

erstatte i definitionen af

og erstatte

og

og ved at indsamle de fejlvektorer, vi får

Da målefejlen v k ikke er korreleret med de andre udtryk, bliver dette

ved egenskaberne af vektorkovarians bliver dette

som ved hjælp af vores invariant på P k  | k −1 og definitionen af R k bliver

Denne formel (undertiden kendt som Joseph -formen for kovariansopdateringsligningen) er gyldig for enhver værdi af K k . Det viser sig, at hvis K k er den optimale Kalman -forstærkning, kan dette forenkles yderligere som vist nedenfor.

Kalman gain derivation

Kalman-filteret er en minimumsværdi for kvadratfejl . Fejlen i estimatet a posteriori state er

Vi søger at minimere den forventede værdi af kvadratet på størrelsen af denne vektor, . Dette svarer til at minimere sporet af den a posteriori estimerede kovariansmatrix . Ved at udvide vilkårene i ligningen ovenfor og indsamle får vi:

Sporet minimeres, når dets matrixderivat i forhold til forstærkningsmatricen er nul. Ved hjælp af gradientmatrixreglerne og symmetrien i de involverede matricer finder vi det

At løse dette for K k giver Kalman gevinst:

Denne forstærkning, som er kendt som den optimale Kalman -forstærkning , er den, der giver MMSE -skøn, når den bruges.

Forenkling af den posteriori fejlkovariansformel

Formlen, der bruges til at beregne kovariansen a posteriori fejl, kan forenkles, når Kalman -forstærkningen er lig med den optimale værdi, der er afledt ovenfor. Når vi multiplicerer begge sider af vores Kalman -gevinstformel til højre med S k K k T , følger det

Med henvisning til vores udvidede formel for a posteriori fejlkovarians,

vi finder de to sidste udtryk annullere, giver

Denne formel er beregningsmæssigt billigere og bruges derfor næsten altid i praksis, men er kun korrekt for den optimale gevinst. Hvis den aritmetiske præcision er usædvanligt lav, hvilket forårsager problemer med numerisk stabilitet , eller hvis en ikke-optimal Kalman-forstærkning bevidst bruges, kan denne forenkling ikke anvendes; den a posteriori fejlkovariansformel som afledt ovenfor (Joseph -formular) skal bruges.

Følsomhedsanalyse

Kalman -filtreringsligningerne giver et estimat af tilstanden og dens fejlkovarians rekursivt. Estimatet og dets kvalitet afhænger af systemparametrene og støjstatistikken, der indgives som input til estimatoren. Dette afsnit analyserer effekten af ​​usikkerheder i de statistiske input til filteret. I mangel af pålidelige statistikker eller de sande værdier for støjkovariansmatricer og udtrykket

giver ikke længere den faktiske fejlkovarians. Med andre ord, . I de fleste realtidsapplikationer er kovariansmatricerne, der bruges til at designe Kalman-filteret, forskellige fra de faktiske (ægte) støjkovariancer-matricer. Denne følsomhedsanalyse beskriver adfærden for estimatfejlkovariansen, når støjkovarianserne såvel som systemmatricerne, og som indføres som input til filteret, er forkerte. Følsomhedsanalysen beskriver således estimatorens robusthed (eller følsomhed) over for fejlspecificerede statistiske og parametriske input til estimatoren.

Denne diskussion er begrænset til fejlfølsomhedsanalysen i tilfælde af statistiske usikkerheder. Her den faktiske støj kovarianser er betegnet med og , hvorimod projekteringsværdierne anvendes i estimatoren er og henholdsvis. Den faktiske fejlkovarians betegnes med, og som beregnet af Kalman -filteret betegnes Riccati -variablen. Når og , betyder det det . Mens du beregner den faktiske fejlkovarians ved hjælp af , erstatter og bruger det faktum, at og resulterer i følgende rekursive ligninger for  :

og

Under computing antager filteret ved design implicit at og . De rekursive udtryk for og er identiske bortset fra tilstedeværelsen af og i stedet for designværdierne og hhv. Der er foretaget undersøgelser for at analysere Kalman -filtersystemets robusthed.

Kvadratrodsform

Et problem med Kalman -filteret er dets numeriske stabilitet . Hvis processtøj-kovariansen Q k er lille, bevirker afrundingsfejl ofte, at en lille positiv egenværdi beregnes som et negativt tal. Dette gør den numeriske repræsentation af statens kovariansmatrix P ubestemt , mens dens sande form er positiv-bestemt .

Positive bestemte matricer har den egenskab, at de har en trekantet matrix kvadratrod P  =  S · S T . Dette kan beregnes effektivt ved hjælp af Cholesky -faktoriseringsalgoritmen , men endnu vigtigere, hvis kovariansen bevares i denne form, kan den aldrig have en negativ diagonal eller blive asymmetrisk. En ækvivalent form, der undgår mange af de kvadratrodsoperationer , der kræves af matrixkvadratroden, men alligevel bevarer de ønskelige numeriske egenskaber, er UD -nedbrydningsformen, P  =  U · D · U T , hvor U er en enheds trekantet matrix (med enhed diagonal), og D er en diagonal matrix.

Mellem de to bruger UD -faktoriseringen den samme mængde lagerplads og noget mindre beregning og er den mest almindeligt anvendte kvadratrodsform. (Tidlig litteratur om den relative effektivitet er noget misvisende, da den antog, at kvadratrødder var meget mere tidskrævende end divisioner, mens de på computere fra det 21. århundrede kun er lidt dyrere.)

Effektive algoritmer til Kalman forudsigelse og opdateringstrin i kvadratrodsformen blev udviklet af GJ Bierman og CL Thornton.

Den L · D · L T nedbrydning af innovation kovariansmatrixen S k er grundlaget for en anden type numerisk effektiv og robust kvadratrod filter. Algoritmen starter med LU -nedbrydningen som implementeret i den lineære algebra -pakke ( LAPACK ). Disse resultater indregnes yderligere i L · D · L T -strukturen med metoder givet af Golub og Van Loan (algoritme 4.1.2) til en symmetrisk ikke -singulær matrix. Alle ental kovariansmatrix er drejet således at den første diagonal skillevæg er non-singul og velkonditioneret . Den drejelige algoritme skal beholde enhver del af innovationskovariansmatrixen, der direkte svarer til observerede tilstandsvariabler H k · x k | k-1, der er forbundet med hjælpobservationer i y k . Den l · d · l t kvadratroden filteret kræver ortogonalisering af observationsvektoren. Dette kan gøres med den inverse kvadratrod af kovariansmatrixen for hjælpevariablerne ved hjælp af metode 2 i Higham (2002, s. 263).

Parallel form

Kalman -filteret er effektivt til sekventiel databehandling på centrale processorenheder (CPU'er), men i sin oprindelige form er det ineffektivt på parallelle arkitekturer såsom grafikprocessorenheder (GPU'er). Det er dog muligt at udtrykke filteropdateringsrutinen i form af en associativ operatør ved hjælp af formuleringen i Särkkä (2021). Filterløsningen kan derefter hentes ved brug af en præfiks -algoritme, som effektivt kan implementeres på GPU. Dette reducerer beregningskompleksiteten fra i antallet af tidstrin til .

Forholdet til rekursiv bayesisk estimering

Kalman -filteret kan præsenteres som et af de enkleste dynamiske Bayesianske netværk . Kalman -filteret beregner estimater af staters sande værdier rekursivt over tid ved hjælp af indgående målinger og en matematisk procesmodel. På samme måde beregner rekursiv bayesisk estimering estimater af en ukendt sandsynlighedstæthedsfunktion (PDF) rekursivt over tid ved hjælp af indgående målinger og en matematisk procesmodel.

Ved rekursiv bayesisk vurdering antages den sande tilstand at være en uobserveret Markov -proces , og målingerne er de observerede tilstande for en skjult Markov -model (HMM).

skjult markov -model

på grund af Markov -antagelsen er den sande tilstand betinget uafhængig af alle tidligere tilstande givet den umiddelbart tidligere tilstand.

På samme måde afhænger målingen ved k -t. Tidssteg kun af den aktuelle tilstand og er betinget uafhængig af alle andre tilstande givet den aktuelle tilstand.

Ved hjælp af disse antagelser kan sandsynlighedsfordelingen over alle tilstande i den skjulte Markov -model skrives ganske enkelt som:

Men når et Kalman -filter bruges til at estimere tilstanden x , er sandsynlighedsfordelingen af ​​interesse den, der er forbundet med de nuværende tilstande betinget af målingerne op til det aktuelle tidssteg. Dette opnås ved at marginalisere de tidligere tilstande og dividere med sandsynligheden for målesættet.

Dette resulterer i forudsigelses- og opdateringsfaser af Kalman -filteret skrevet sandsynligt. Sandsynlighedsfordelingen forbundet med den forudsagte tilstand er summen (integral) af produkterne af sandsynlighedsfordelingen, der er forbundet med overgangen fra ( k  -1) -tids -trin til k -th og sandsynlighedsfordelingen forbundet med den tidligere tilstand, over alt muligt .

Målingen indstillet til tidspunktet t er

Sandsynlighedsfordelingen for opdateringen er proportional med produktet af målesandsynligheden og den forudsagte tilstand.

Nævneren

er et normaliseringsbegreb.

De resterende sandsynlighedstæthedsfunktioner er

PDF -filen på det foregående tidspunkt antages induktivt at være den estimerede tilstand og kovarians. Dette er berettiget, fordi Kalman -filteret som en optimal estimator bedst udnytter målingerne, derfor er PDF'en for givne målinger Kalman -filterestimatet.

Marginal sandsynlighed

I forbindelse med den rekursive bayesiske fortolkning beskrevet ovenfor kan Kalman -filteret ses som en generativ model , dvs. en proces til generering af en strøm af tilfældige observationer z = ( z 0 , z 1 , z 2 , ...). Konkret er processen

  1. Prøv en skjult tilstand fra den tidligere gaussiske distribution .
  2. Prøv en observation fra observationsmodellen .
  3. For , gør
    1. Prøv den næste skjulte tilstand fra overgangsmodellen
    2. Prøv en observation fra observationsmodellen

Denne proces har identisk struktur til den skjulte Markov -model , bortset fra at den diskrete tilstand og observationer erstattes med kontinuerlige variabler, der er udtaget fra gaussiske distributioner.

I nogle applikationer er det nyttigt at beregne sandsynligheden for, at et Kalman -filter med et givet sæt parametre (forudgående distribution, overgangs- og observationsmodeller og kontrolindgange) ville generere et bestemt observeret signal. Denne sandsynlighed er kendt som den marginale sandsynlighed, fordi den integrerer over ("marginaliserer ud") værdierne for de skjulte tilstandsvariabler, så den kan beregnes ved hjælp af kun det observerede signal. Den marginale sandsynlighed kan være nyttig til at evaluere forskellige parametervalg eller sammenligne Kalman -filteret med andre modeller ved hjælp af Bayesiansk model sammenligning .

Det er ligetil at beregne den marginale sandsynlighed som en bivirkning af den rekursive filtreringsberegning. Af kæden regel , kan sandsynligheden være indregnet som produktet af sandsynligheden for hver observation givet tidligere bemærkninger,

,

og fordi Kalman -filteret beskriver en Markov -proces, er alle relevante oplysninger fra tidligere observationer indeholdt i det nuværende tilstandsestimat Således er den marginale sandsynlighed givet ved

dvs. et produkt af gaussiske tætheder, der hver svarer til densiteten af ​​en observation z k under den aktuelle filtreringsfordeling . Dette kan let beregnes som en simpel rekursiv opdatering; Men for at undgå numerisk understrøm , i en praktisk implementering er det normalt ønskeligt at beregne log marginal sandsynlighed i stedet. Ved at vedtage konventionen kan dette gøres via reglen om rekursiv opdatering

hvor er målingsvektorens dimension.

En vigtig applikation, hvor en sådan (log) sandsynlighed for observationer (givet filterparametrene) bruges, er multi-target tracking. Overvej f.eks. Et objektsporingsscenarie, hvor en strøm af observationer er input, men det er ukendt, hvor mange objekter der er i scenen (eller antallet af objekter er kendt, men er større end et). For et sådant scenario kan det være ukendt apriori, hvilke observationer/målinger der blev genereret af hvilket objekt. En multiple hypothesis tracker (MHT) vil typisk danne forskellige sporforeningshypoteser, hvor hver hypotese kan betragtes som et Kalman -filter (for det lineære gaussiske tilfælde) med et specifikt sæt parametre forbundet med det hypotetiserede objekt. Det er således vigtigt at beregne sandsynligheden for observationerne for de forskellige hypoteser, der behandles, således at den mest sandsynlige kan findes.

Informationsfilter

I informationsfilteret eller det inverse kovariansfilter erstattes den estimerede kovarians og den estimerede tilstand med henholdsvis informationsmatrixen og informationsvektoren . Disse er defineret som:

Tilsvarende har den forudsagte kovarians og tilstand ækvivalente informationsformer, defineret som:

som har målekovariansen og målevektoren, som er defineret som:

Opdateringsopdateringen bliver nu til en triviel sum.

Den største fordel ved informationsfilteret er, at N -målinger kan filtreres på hvert trin ved blot at opsummere deres informationsmatricer og vektorer.

For at forudsige informationsfilteret kan informationsmatrixen og vektoren konverteres tilbage til deres tilstandsrumækvivalenter, eller alternativt kan informationsrumsprognosen bruges.

Hvis F og Q er tidsinvariante, kan disse værdier cachelagres, og F og Q skal være inverterbare.

Fixed-lag glattere

Den optimale fast-lag-glatter giver det optimale estimat for en given fast-lag ved hjælp af målingerne fra til . Det kan udledes ved hjælp af den tidligere teori via en forstærket tilstand, og filterets hovedligning er følgende:

hvor:

  • estimeres via et standard Kalman -filter;
  • er innovationen produceret i betragtning af estimatet af standard Kalman -filteret;
  • de forskellige med er nye variabler; dvs. de vises ikke i standard Kalman -filteret;
  • gevinsterne beregnes via følgende ordning:
og
hvor og er forudsigelsesfejlkovariansen og gevinsterne ved standard Kalman -filteret (dvs. ).

Hvis estimationsfejlkovariansen er defineret således, at

så har vi, at forbedringen af ​​estimeringen af er givet ved:

Fixed-interval smoothers

Den optimale fast-interval jævnere giver det optimale estimat af ( ) ved hjælp af målingerne fra et fast interval til . Dette kaldes også "Kalman Smoothing". Der er flere udjævningsalgoritmer i almindelig brug.

Rauch – Tung – Striebel

Rauch – Tung – Striebel (RTS) glattere er en effektiv topas-algoritme til udjævning af faste intervaller.

Videresendelsen er den samme som den almindelige Kalman -filteralgoritme. Disse filtrerede a-priori og der efterfølgende statslige estimater , og kovarianser , gemmes til brug i baglæns passere (for retrodiction ).

I baglænspasset beregner vi de udjævne tilstandsestimater og kovarianser . Vi starter ved det sidste tidstrin og går baglæns i tiden ved hjælp af følgende rekursive ligninger:

hvor

er det a-posteriori tilstandsestimat af tidsstempel og er a-priori-statens estimat af tidssteg . Den samme notation gælder for kovariansen.

Modificeret Bryson – Frazier glattere

Et alternativ til RTS -algoritmen er den modificerede Bryson – Frazier (MBF) glattere med fast interval, der er udviklet af Bierman. Dette bruger også et baglæns pass, der behandler data, der er gemt fra Kalman -filteret forward pass. Ligningerne for baglæns passering involverer den rekursive beregning af data, der bruges på hvert observationstidspunkt til at beregne den glatte tilstand og kovarians.

De rekursive ligninger er

hvor er den resterende kovarians og . Den udglattede tilstand og kovarians kan derefter findes ved substitution i ligningerne

eller

En vigtig fordel ved MBF er, at det ikke kræver at finde det inverse af kovariansmatricen.

Mindste varians glattere

Den mindste varians-glattere kan opnå den bedst mulige fejlydelse, forudsat at modellerne er lineære, deres parametre og støjstatistikken kendes præcist. Denne glattere er en tidsvarierende generalisering af tilstand-rum i det optimale ikke-kausale Wiener-filter .

De glattere beregninger udføres i to passager. De fremadrettede beregninger involverer en et-skridt-forudsigelse og er givet af

Ovenstående system er kendt som den inverse Wiener-Hopf-faktor. Den tilbagevendende rekursion er tilstødende til ovenstående fremadgående system. Resultatet af baglæns passering kan beregnes ved at betjene fremadligningerne på den tilbageførte tid og den tid, der vender resultatet. I tilfælde af outputestimering er det udjævne estimat givet af

Tager kausaldelen af ​​denne mindste varians jævnere udbytter

som er identisk med Kalman-filteret med minimal varians. Ovennævnte løsninger minimerer variansen af ​​outputestimeringsfejlen. Bemærk, at Rauch – Tung – Striebel jævnere afledning antager, at de underliggende fordelinger er gaussiske, hvorimod løsningerne med minimal varians ikke gør det. Optimale udjævninger til statsestimering og inputestimering kan konstrueres på samme måde.

En kontinuerlig version af ovenstående glattere er beskrevet i.

Forventningsmaksimeringsalgoritmer kan anvendes til at beregne omtrentlige maksimale sandsynlighedsestimater for ukendte parametre i tilstandsrum inden for minimum-variansfiltre og udjævninger. Ofte forbliver usikkerheder inden for problemantagelser. En glattere, der rummer usikkerheder, kan designes ved at tilføje et positivt bestemt udtryk til Riccati -ligningen.

I de tilfælde, hvor modellerne er ikke-lineære, kan trinvise lineariseringer ligge inden for filteret med minimumsvarians og jævnere recursioner ( udvidet Kalman-filtrering ).

Frekvensvægtede Kalman-filtre

Banebrydende forskning om opfattelsen af ​​lyde ved forskellige frekvenser blev udført af Fletcher og Munson i 1930'erne. Deres arbejde førte til en standardvægtning af målte lydniveauer inden for undersøgelser af industriel støj og høretab. Frekvensvægtninger er siden blevet brugt inden for filter- og controller -designs til at styre ydeevnen inden for interessebånd.

Typisk bruges en frekvensformningsfunktion til at veje den gennemsnitlige effekt af fejlspektraltætheden i et bestemt frekvensbånd. Lad betegne den output -estimeringsfejl, der udvises af et konventionelt Kalman -filter. Lad os også betegne en kausal frekvensvægtningsoverføringsfunktion. Den optimale løsning, der minimerer variationen af opstår ved simpelthen at konstruere .

Designet af er stadig et åbent spørgsmål. En måde at gå videre på er at identificere et system, der genererer estimeringsfejl og indstilling, der er lig med det inverse af dette system. Denne procedure kan gentages for at opnå gennemsnitlig kvadratfejlforbedring på bekostning af øget filterordre. Den samme teknik kan anvendes på smoothers.

Ikke -lineære filtre

Det grundlæggende Kalman -filter er begrænset til en lineær antagelse. Mere komplekse systemer kan imidlertid være ikke -lineære . Nonlineariteten kan enten være forbundet med procesmodellen eller med observationsmodellen eller med begge dele.

De mest almindelige varianter af Kalman-filtre til ikke-lineære systemer er det forlængede Kalman-filter og det uparfumerede Kalman-filter. Egnetheden af ​​hvilket filter, der skal bruges, afhænger af proces- og observationsmodellens ikke-linearitetsindeks.

Forlænget Kalman filter

I det udvidede Kalman -filter (EKF) behøver tilstandsovergangs- og observationsmodellerne ikke at være statens lineære funktioner, men kan i stedet være ikke -lineære funktioner. Disse funktioner er af differentierbar type.

Funktionen f kan bruges til at beregne den forudsagte tilstand ud fra det tidligere estimat og på samme måde kan funktionen h bruges til at beregne den forudsagte måling ud fra den forudsagte tilstand. Men f og h kan ikke anvendes til kovariansen direkte. I stedet beregnes en matrix af partielle derivater ( jakobiansk ).

På hvert tidspunkt skridt Jacobian evalueres med aktuelle forudsagte tilstande. Disse matricer kan bruges i Kalman -filterligningerne. Denne proces lineariserer i det væsentlige den ikke -lineære funktion omkring det nuværende estimat.

Uparfumeret Kalman -filter

Når tilstandsovergangs- og observationsmodellerne - det vil sige forudsigelses- og opdateringsfunktionerne og - er meget ulineære, kan det udvidede Kalman -filter give særlig dårlig ydeevne. Dette skyldes, at kovariansen spredes gennem linearisering af den underliggende ikke -lineære model. Det uparfumerede Kalman -filter (UKF) bruger en deterministisk prøvetagningsteknik kendt som den uparfumerede transformation (UT) til at vælge et minimalt sæt prøvepunkter (kaldet sigmapunkter) omkring middelværdien. Sigma -punkterne formeres derefter gennem de ikke -lineære funktioner, hvorfra der derefter dannes et nyt middel og kovariansestimat. Det resulterende filter afhænger af, hvordan den transformerede statistik for UT beregnes, og hvilket sæt sigma -punkter der bruges. Det skal bemærkes, at det altid er muligt at konstruere nye UKF'er på en konsekvent måde. For visse systemer estimerer den resulterende UKF mere præcist det sande middel og kovarians. Dette kan verificeres med Monte Carlo -prøveudtagning eller Taylor -serieudvidelse af posteriorstatistikken. Derudover fjerner denne teknik kravet om eksplicit at beregne Jacobians, hvilket for komplekse funktioner kan være en vanskelig opgave i sig selv (dvs. at kræve komplicerede derivater, hvis de udføres analytisk eller er beregningsmæssigt dyre, hvis de udføres numerisk), hvis ikke umuligt (hvis disse funktioner er ikke differentieret).

Sigma peger

For en tilfældig vektor er sigmapunkter ethvert sæt vektorer

tilskrives med

  • første ordens vægte, der opfylder
  1. for alle :
  • andenordensvægte, der opfylder
  1. for alle par .

Et simpelt valg af sigmapunkter og vægte i UKF -algoritmen er

hvor er middelværdien af . Vektoren er den j th kolonne af hvor . Matrixen skal beregnes ved hjælp af numerisk effektive og stabile metoder såsom Cholesky -nedbrydning ifølge forfatterne til UKF -originalpapir fra 1997

"2. Sigma -punkterne fanger samme middelværdi og kovarians uanset valget af matrix kvadratrode, der bruges. Numerisk effektive og stabile metoder såsom Cholesky -dekomponering18 kan bruges."

Vægten af ​​middelværdien,, kan vælges vilkårligt.

En anden populær parameterisering (som generaliserer ovenstående) er

og kontrollere spredningen af ​​sigma -punkterne. er relateret til fordelingen af .

Passende værdier afhænger af problemet ved hånden, men en typisk anbefaling er , og . Imidlertid kan en større værdi af (f.eks. ) Være fordelagtig for bedre at fange fordelingen af ​​distributionen og mulige ulineariteter. Hvis den sande fordeling af er Gaussisk, er optimal.

Forudsige

Som med EKF kan UKF -forudsigelsen bruges uafhængigt af UKF -opdateringen i kombination med en lineær (eller faktisk EKF) opdatering eller omvendt.

I betragtning af estimater af middelværdien og kovarians, og man opnår sigma -punkter som beskrevet i afsnittet ovenfor. Sigma -punkterne formeres gennem overgangsfunktionen f .

.

De formerede sigmapunkter vejes for at producere det forudsagte middelværdi og kovarians.

hvor er vægten i første orden af ​​de originale sigmapunkter, og er vægten af ​​anden orden. Matrixen er kovariansen af overgangen støj, .

Opdatering

Givet forudsigelse skøn og et nyt sæt af sigma point med tilsvarende første-ordens vægte og anden ordens vægte beregnes. Disse sigma -punkter transformeres igennem .

.

Derefter beregnes empirisk middelværdi og kovarians for de transformerede punkter.

hvor er kovariansmatrixen af observationsperioden støj, . Derudover er krydskovariansmatrixen også nødvendig

hvor er de utransformerede sigmapunkter skabt af og .

Kalman gevinsten er

De opdaterede gennemsnit og kovariansestimater er

Diskriminerende Kalman -filter

Når observationsmodellen er meget ikke-lineær og/eller ikke-gaussisk, kan det vise sig fordelagtigt at anvende Bayes 'regel og skøn

hvor for ikke -lineære funktioner . Dette erstatter den generative specifikation af standard Kalman -filteret med en diskriminerende model for de latente stater, der er givet observationer.

Under en stationær tilstandsmodel

hvor , hvis

givet en ny observation , følger det

hvor

Bemærk, at denne tilnærmelse skal være positiv-bestemt; i tilfælde af at det ikke er,

bruges i stedet. En sådan fremgangsmåde viser sig særlig nyttig, når observationernes dimensionalitet er meget større end latentstaternes og kan bruges til at bygge filtre, der er særligt robuste over for ikke -stationariteter i observationsmodellen.

Adaptivt Kalman filter

Adaptive Kalman-filtre gør det muligt at tilpasse sig processdynamik, der ikke er modelleret i procesmodellen, hvilket f.eks. Sker i forbindelse med et manøvreringsmål, når et Kalman-filter i reduceret orden bruges til sporing.

Kalman – Bucy filter

Kalman – Bucy filtrering (opkaldt efter Richard Snowden Bucy) er en kontinuerlig tidsversion af Kalman filtrering.

Det er baseret på den statslige rummodel

hvor og repræsenterer intensiteterne (eller mere præcist: Power Spectral Density - PSD - matricer) for de to hvide støjtermer og hhv.

Filtret består af to differentialligninger, en for statens skøn og en for kovariansen:

hvor Kalman gevinst er givet af

Bemærk, at i dette udtryk for kovariansen af ​​observationsstøj repræsenterer samtidig kovariansen af ​​forudsigelsesfejlen (eller innovationen ) ; disse kovarianser er kun ens i tilfælde af kontinuerlig tid.

Skelnen mellem forudsigelses- og opdateringstrin ved diskret Kalman-filtrering eksisterer ikke i kontinuerlig tid.

Den anden differentialligning, for kovariansen, er et eksempel på en Riccati -ligning . Ikke -lineære generaliseringer til Kalman – Bucy -filtre inkluderer forlænget Kalman -filter med forlænget tid.

Hybrid Kalman filter

De fleste fysiske systemer er repræsenteret som modeller med kontinuerlig tid, mens diskrete tidsmålinger foretages hyppigt til statsestimering via en digital processor. Derfor er systemmodellen og målemodellen givet af

hvor

.

Initialiser

Forudsige

Forudsigelsesdataene ligninger er afledt af kontinuerlig-tid Kalman filter uden opdatering fra målinger, dvs. . Den forudsagte tilstand og kovarians beregnes henholdsvis ved at løse et sæt differentialligninger med den oprindelige værdi lig med estimatet på det foregående trin.

For lineære tidsinvariante systemer kan den kontinuerlige tidsdynamik nøjagtigt diskretiseres til et diskret tidssystem ved hjælp af matrixeksponentialer .

Opdatering

Opdateringsligningerne er identiske med dem for det diskrete Kalman-filter.

Varianter til genopretning af sparsomme signaler

Det traditionelle Kalman -filter er også blevet anvendt til genopretning af sparsomme , muligvis dynamiske, signaler fra støjende observationer. Nylige værker anvender begreber fra teorien om komprimeret sansning /prøvetagning, såsom den begrænsede isometri-egenskab og relaterede sandsynlige genoprettelsesargumenter, til sekventielt at estimere den sparsomme tilstand i iboende lavdimensionelle systemer.

Forholdet til gaussiske processer

Kalman -filteret er relateret til gaussiske processer .

Ansøgninger

Se også

Referencer

Yderligere læsning

eksterne links