Kerneladaptivt filter - Kernel adaptive filter

I signalbehandling er et kernetilpasningsfilter en type ikke-lineært adaptivt filter. Et adaptivt filter er et filter, der tilpasser sin overføringsfunktion til ændringer i signalegenskaber over tid ved at minimere en fejl- eller tabsfunktion, der karakteriserer, hvor langt filteret afviger fra den ideelle opførsel. Tilpasningsprocessen er baseret på læring fra en sekvens af signalprøver og er således en online algoritme . Et ikke-lineært adaptivt filter er et, hvor overførselsfunktionen er ikke-lineær.

Kerneladaptive filtre implementerer en ikke-lineær overførselsfunktion ved hjælp af kernemetoder . I disse metoder kortlægges signalet til et højdimensionalt lineært funktionsrum, og en ikke-lineær funktion tilnærmes som en sum over kerner, hvis domæne er funktionsområdet. Hvis dette gøres i et reproducerende kerne-Hilbert-rum , kan en kernemetode være en universel tilnærmelse til en ikke-lineær funktion. Kernemetoder har fordelen ved at have konvekse tabsfunktioner uden lokale minima og kun at være moderat komplekse at implementere.

Fordi det højdimensionale funktionsrum er lineært, kan kerneadaptive filtre betragtes som en generalisering af lineære adaptive filtre. Som med lineære adaptive filtre er der to generelle tilgange til tilpasning af et filter: det mindst gennemsnitlige kvadraters filter (LMS) og det rekursive mindste kvadraters filter (RLS).

Selvorganiserende kernetilpasningsfiltre, der bruger iteration til at opnå konveks LMS-fejlminimering, adresserer nogle af de statistiske og praktiske problemer med ikke-lineære modeller, der ikke opstår i det lineære tilfælde. Regularisering er især vigtigt for ikke-lineære modeller og bruges ofte i lineære adaptive filtre for at reducere statistiske usikkerheder. Men fordi ikke-lineære filtre typisk har en meget højere potentiel strukturel kompleksitet (eller højere dimensionelt funktionsrum) sammenlignet med det underrum, der faktisk kræves, skal regulering af en eller anden art håndtere den underbestemte model. Selvom nogle specifikke former for parameterregularisering, som foreskrevet af Vapinks SRM & SVM, til en vis grad adresserer dimensionalitetsproblemet statistisk, forbliver der yderligere statistiske og praktiske problemer for virkelig adaptive ikke-lineære filtre. Adaptive filtre bruges ofte til at spore opførslen af ​​et tidsvarierende system eller systemer, der ikke fuldt ud kan modelleres ud fra de tilgængelige data og struktur, hvorfor modellerne muligvis ikke kun skal tilpasse parametre, men også strukturen.

Hvor strukturelle parametre for kerner stammer direkte fra data, der behandles (som i ovenstående "Support Vector" -tilgang), er der praktiske muligheder for analytisk robuste metoder til selvorganisering af de kerner, der er tilgængelige for filteret. Det lineariserede funktionsrum induceret af kerner muliggør lineær projektion af nye prøver på den aktuelle struktur af modellen, hvor nyhed i nye data let kan differentieres fra støjfødte fejl, som ikke skulle resultere i en ændring af modelstrukturen. Analytiske metrics til strukturanalyse kan bruges til parsimoniously at øge modelkompleksiteten, når det kræves, eller beskære den eksisterende struktur optimalt, når processorressourcegrænser nås. Strukturopdateringer er også relevante, når systemvariation opdages, og modelens langsigtede hukommelse skal opdateres som for Kalman Filter- sagen i lineære filtre.

Iterativ gradientnedstigning, der typisk bruges i adaptive filtre, har også fået popularitet i offline batch-mode support vektorbaseret maskinindlæring på grund af dens beregningseffektivitet til behandling af store datasæt. Både tidsserie- og batch-databehandlingsydelse rapporteres at være i stand til nemt at håndtere over 100.000 træningseksempler med så lidt som 10 kB RAM. Datastørrelser denne store er udfordrende for de originale formuleringer af supportvektormaskiner og andre kernemetoder, som for eksempel var afhængige af begrænset optimering ved hjælp af lineære eller kvadratiske programmeringsteknikker.

Referencer