Kako deluje samopozornost?
Kako deluje samopozornost?

Video: Kako deluje samopozornost?

Video: Kako deluje samopozornost?
Video: Kako deluje narava | Samo Kralj | TEDxUniversityofMaribor 2024, November
Anonim

Laično povedano, sebe - pozornost mehanizem omogoča medsebojno interakcijo vhodov (“ sebe ”) in ugotovite, komu bi morali plačati več pozornost do ( pozornost ”). Izhodi so agregati teh interakcij in pozornost rezultatov.

In kaj je pozornost nase?

sebe - pozornost , včasih imenovan intra- pozornost je pozornost mehanizem, ki povezuje različne položaje posameznega zaporedja, da se izračuna predstavitev zaporedja.

Prav tako, kaj je pozornost pri globokem učenju? Najprej opredelimo, kaj » sebe - Pozor ” je. Cheng et al, v svojem prispevku z naslovom »Mreža dolgotrajnega pomnilnika za Stroj Branje«, opredeljeno sebe - Pozor kot mehanizem povezovanja različnih položajev posameznega zaporedja ali stavka, da bi dobili bolj živo predstavo.

Kaj je v zvezi s tem mehanizem pozornosti?

Mehanizem za pozornost omogoča dekoderju, da upošteva različne dele izvornega stavka na vsakem koraku generiranja izhoda. Namesto da bi kodirali vhodno zaporedje v en sam fiksiran kontekstni vektor, smo modelu pustili, da se nauči generirati kontekstni vektor za vsak izhodni časovni korak.

Kaj je model, ki temelji na pozornosti?

Pozor - zasnovani modeli spadajo v razred modeli običajno imenujemo zaporedje v zaporedje modeli . Cilj teh modeli , kot že ime pove, za izdelavo izhodnega zaporedja glede na vhodno zaporedje, ki je na splošno različnih dolžin.

Priporočena: