Lærende automaton

Fra testwiki
Hopp til navigering Hopp til søk

Lærende automaton [singular: automaton, plural: automata] er en type algoritme for maskinlæring som er studert siden 1970-tallet. I forhold til andre metoder for læring så er lærende automaton en gren av adaptiv kontrollteori, som ble undersøkt av Narendra og Thathachar (1974), og som opprinnelig ble beskrevet som finite state automaton. Lærende automaton velger nåværende handling basert på tidligere erfaring, gitt observerte treningsdata. Metoden er basert på forsterkende læring, gitt et stokastisk miljø og en Markov beslutningsprosess (MDP).

Historie

Forskning på lærende automata kan spores tilbake til arbeider gjort av Mikahel Tsetlin i Sovjetunionen tidlig på 1960-tallet. Sammen med kolleger utga han en samling av artikler om hvordan matriser kan brukes for å beskrive funksjoner i automata. I tillegg arbeidet Tsetlin med fornuftig atferd og kollektive atferd i automata, og på automata brukt i spill. Lærende automata ble også undersøkt av forskere i USA på 1960-tallet. Begrepet lærende automaton (learning automaton) ble ikke brukt før Narendra og Thathachar introdusert det i en artikkel de publiserte i 1974.

Definisjon

En lærende automat er en enhet for adaptiv beslutningsprosess i et stokastisk miljø som lærer optimal handling gjennom gjentatt interaksjon med sitt miljø. Handlingene som tas er bestemt av sannsynlighetsfordelingen til tidligere respons fra miljøet, gitt automatens tidligere handlinger (a posteriori respons).

Innenfor feltet forsterket læring så er lærende automata karakterisert som policy iterators. I motsetning til andre automata for forsterket læring så manipulerer policy iterators direkte regelen π (policyen π). Et annet eksempel på policy iterators er evolusjonære algoritmer.

Formelt så definerte Narendra og Thathachar en stokastisk prosess som:

  • et sett x av mulige påtrykk (innsignal),
  • et sett Φ={Φ1,,Φs} av mulige interne tilstander,
  • et sett α={α1,,αs} av mulige respons (utsignal), eller handlinger, med rs,
  • en initiell tilstandsvektor p(0)=p1(0),,ps(0),
  • en beregnbar funksjon A som etter hvert tidssteg t beregner p(t+1) fra p(t), det nåværende påtrykket (innsignalet), og den nåværende tilstanden, og
  • en funksjon G:Φα som beregner responsen (utsignal) for hvert tidssteg.

I den publiserte artikkelen så undersøkte de kun stokastiske automata med r=s og hvor G er bijektiv, noe som gjorde at de kunne behandle handlinger og tilstander på samme vis. Tilstandene i en slik automat tilsvarer tilstandene i en Markov-prosess med diskrete tilstander og parametre (discrete-state discrete-parameter Markov process).[1] Ved hvert tidssteg t=0,1,2,3, så vil automaten lese et påtrykk (innsignal) fra miljøet, oppdatere p(t) til p(t+1) med funksjonen A, velge tilfeldig en etterfølgende tilstand i henhold til sannsynligheten gitt av p(t+1), og gi tilhørende handling som respons (utsignal). Automatens miljø leser handlingen og sender det neste påtrykket til automaten. Ofte brukes settet x={0,1} som påtrykk, med 0 og 1 tilsvarende henholdsvis ikke-straff og straff fra miljøet. I dette tilfellet vil automaten minimere antallet straffepåtrykk, og tilbakekoblingen mellom automaten og miljøet er kalt en «P-modell». Mer generelt så vil en «Q-modell» tillate et tilfeldig påtrykk x, og en «S-modell» bruker et reelle nummer i et intervall [0,1] som x.[1]

Lærende automata for endelige handlinger

En klasse av lærende automata for endelige handlinger (Finite action-set learning automata – FALA) er en klasse av lærende automata hvor antall mulige handlinger er begrenset eller, i mer matematiske termer, hvor størrelsen på handlingsrommet er begrenset.

Referanser

Litteratur

Se også

Mal:Autoritetsdata