Hamilton – Jacobi – Bellman ligning - Hamilton–Jacobi–Bellman equation
I optimal kontrol teori , den Hamilton-Jacobi-Bellman ( HJB ) ligning giver en nødvendig og tilstrækkelig betingelse for optimalitet af en kontrol med hensyn til et tab funktion . Det er generelt en ikke -lineær partiel differentialligning i værdifunktionen , hvilket betyder, at dens løsning er selve værdifunktionen. Når denne løsning er kendt, kan den bruges til at opnå den optimale kontrol ved at tage maximizer (eller minimizer) af den Hamiltonian, der er involveret i HJB -ligningen.
Ligningen er et resultat af teorien om dynamisk programmering, som blev banebrydende i 1950'erne af Richard Bellman og kolleger. Forbindelsen til Hamilton – Jacobi -ligningen fra klassisk fysik blev først tegnet af Rudolf Kálmán . I problemer med diskret tid betegnes den tilsvarende forskelsligning normalt som Bellman-ligningen .
Selvom klassiske variationsproblemer , såsom brachistochron -problemet , kan løses ved hjælp af Hamilton – Jacobi – Bellman -ligningen , kan metoden anvendes på et bredere spektrum af problemer. Yderligere kan det generaliseres til stokastiske systemer, i hvilket tilfælde HJB-ligningen er en andenordens elliptisk partiel differentialligning . En stor ulempe er imidlertid, at HJB -ligningen kun tillader klassiske løsninger for en tilstrækkelig jævn værdifunktion, hvilket ikke er garanteret i de fleste situationer. I stedet kræves forestillingen om en viskositetsløsning , hvor konventionelle derivater erstattes af (værdiansatte) underderivater .
Optimale kontrolproblemer
Overvej følgende problem i deterministisk optimal kontrol over tidsperioden :
hvor er skalarfunktionsfrekvensfunktionen og er en funktion, der giver legatværdien ved den endelige tilstand, er systemtilstandsvektoren, antages givet, og for er den kontrolvektor, vi forsøger at finde.
Systemet skal også være underlagt
hvor giver vektoren bestemmende fysisk udvikling af tilstandsvektoren over tid.
Den delvise differentialligning
For dette enkle system (udlejning ) er Hamilton – Jacobi – Bellman delvis differentialligning
underlagt terminalbetingelsen
Det ukendte skalar i ovenstående partielle differentialligning er Bellman værdi funktion , som svarende til de omkostninger starte i tilstand på tidspunktet og styring af systemet optimalt fra da indtil tid .
Afledning af ligningen
Intuitivt kan HJB -ligningen udledes som følger. Hvis er den optimale cost-to-go-funktion (også kaldet 'værdifunktionen'), så har vi ved Richard Bellmans princip om optimalitet , der går fra tid t til t + dt ,
Bemærk, at Taylor-udvidelsen af det første udtryk på højre side er
hvor betegner udtrykkene i Taylorudviklingen af højere orden end én i lidet o notation . Så hvis vi trækker fra begge sider, dividerer med dt og tager grænsen, når dt nærmer sig nul, får vi HJB -ligningen defineret ovenfor.
Løsning af ligningen
HJB -ligningen løses normalt baglæns i tid , startende fra og slutter kl .
Når den løses over hele statsrummet og er kontinuerligt differentierbar, er HJB -ligningen en nødvendig og tilstrækkelig betingelse for et optimalt, når terminaltilstanden er ubegrænset. Hvis vi kan løse for så kan vi finde ud af det en kontrol, der opnår minimumsomkostningerne.
I almindelighed har HJB -ligningen ikke en klassisk (glat) løsning. Flere forestillinger om generaliserede løsninger er blevet udviklet til at dække sådanne situationer, herunder viskositetsløsning ( Pierre-Louis Lions og Michael Crandall ), minimax-løsning ( Andrei Izmailovich Subbotin ) og andre.
Omtrentlig dynamisk programmering er blevet introduceret af DP Bertsekas og JN Tsitsiklis med brug af kunstige neurale netværk ( flerlags perceptroner ) til tilnærmelse af Bellman -funktionen generelt. Dette er en effektiv afbødningsstrategi til at reducere virkningen af dimensionalitet ved at erstatte memoriseringen af den komplette funktionskortlægning for hele rumdomænet med memorisering af de eneste neurale netværksparametre. Især for systemer med kontinuerlig tid blev der indført en omtrentlig dynamisk programmeringsmetode, der kombinerer begge politiske iterationer med neurale netværk. I diskret tid blev der indført en metode til at løse HJB-ligningen, der kombinerer værdi-iterationer og neurale netværk.
Alternativt er det blevet vist, at sum-of-squares-optimering kan give en omtrentlig polynomisk løsning til Hamilton-Jacobi-Bellman-ligningen vilkårligt godt i forhold til normen.
Udvidelse til stokastiske problemer
Ideen om at løse et kontrolproblem ved at anvende Bellmans princip om optimalitet og derefter træne baglæns i takt med en optimeringsstrategi kan generaliseres til stokastiske kontrolproblemer. Overvej lignende som ovenfor
nu med den stokastiske proces til optimering og styringen. Ved først at bruge Bellman og derefter udvide med Itôs regel finder man den stokastiske HJB -ligning
hvor repræsenterer den stokastiske differentieringsoperator og underlagt terminalbetingelsen
Bemærk, at tilfældigheden er forsvundet. I dette tilfælde løser en løsning af sidstnævnte ikke nødvendigvis det primære problem, det er kun en kandidat, og et yderligere verificeringsargument er påkrævet. Denne teknik bruges meget i finansiel matematik til at bestemme optimale investeringsstrategier på markedet (se f.eks. Mertons porteføljeproblem ).
Ansøgning til LQG Control
Som et eksempel kan vi se på et system med lineær stokastisk dynamik og kvadratisk pris. Hvis systemdynamikken er givet af
og omkostningerne akkumuleres i takt , HJB -ligningen er givet ved
med optimal handling givet af
Forudsat en kvadratisk form for værdifunktionen , får vi den sædvanlige Riccati-ligning for Hessian af værdifunktionen, som det er sædvanligt for lineær-kvadratisk-gaussisk kontrol .
Se også
- Bellman-ligning , diskret-tidens modstykke til Hamilton-Jacobi-Bellman-ligningen.
- Pontryagins maksimumsprincip , nødvendig, men ikke tilstrækkelig betingelse for optimalt, ved at maksimere en Hamiltonian , men dette har den fordel i forhold til HJB, at det kun er nødvendigt at være tilfreds med den eneste bane, der overvejes.
Referencer
Yderligere læsning
- Bertsekas, Dimitri P. (2005). Dynamisk programmering og optimal kontrol . Athena Scientific.
- Pham, Huyên (2009). "Den klassiske PDE -tilgang til dynamisk programmering" . Kontinuerlig tidstokastisk kontrol og optimering med finansielle applikationer . Springer. s. 37–60. ISBN 978-3-540-89499-5.
- Stengel, Robert F. (1994). "Betingelser for optimalitet" . Optimal kontrol og estimering . New York: Dover. s. 201–222. ISBN 0-486-68200-5.