Magyar
Toggle navigation
Tudóstér
Magyar
Tudóstér
Keresés
Egyszerű keresés
Összetett keresés
CCL keresés
Egyszerű keresés
Összetett keresés
CCL keresés
Böngészés
Saját polc tartalma
(
0
)
Korábbi keresések
Összesen 1 találat.
#/oldal:
12
36
60
120
Rövid
Hosszú
MARC
Részletezés:
Rendezés:
Szerző növekvő
Szerző csökkenő
Cím növekvő
Cím csökkenő
Dátum növekvő
Dátum csökkenő
1.
001-es BibID:
BIBFORM067698
Első szerző:
Zsuga Judit (neurológus, pszichoterapeuta, egészségügyi szakmanager)
Cím:
'Proactive' use of cue-context congruence for building reinforcement learning's reward function / Zsuga Judit, Biró Klára, Tajti Gábor, Szilasi Magdolna Emma, Papp Csaba, Juhasz Béla, Gesztelyi Rudolf
Dátum:
2016
ISSN:
1471-2202
Megjegyzések:
BACKGROUND: Reinforcement learning is a fundamental form of learning that may be formalized using the Bellman equation. Accordingly an agent determines the state value as the sum of immediate reward and of the discounted value of future states. Thus the value of state is determined by agent related attributes (action set, policy, discount factor) and the agent's knowledge of the environment embodied by the reward function and hidden environmental factors given by the transition probability. The central objective of reinforcement learning is to solve these two functions outside the agent's control either using, or not using a model.RESULTS:In the present paper, using the proactive model of reinforcement learning we offer insight on how the brain creates simplified representations of the environment, and how these representations are organized to support the identification of relevant stimuli and action. Furthermore, we identify neurobiological correlates of our model by suggesting that the reward and policy functions, attributes of the Bellman equitation, are built by the orbitofrontal cortex (OFC) and the anterior cingulate cortex (ACC), respectively.CONCLUSIONS:Based on this we propose that the OFC assesses cue-context congruence to activate the most context frame. Furthermore given the bidirectional neuroanatomical link between the OFC and model-free structures, we suggest that model-based input is incorporated into the reward prediction error (RPE) signal, and conversely RPE signal may be used to update the reward-related information of context frames and the policy underlying action selection in the OFC and ACC, respectively. Furthermore clinical implications for cognitive behavioral interventions are discussed.
Tárgyszavak:
Orvostudományok
Egészségtudományok
idegen nyelvű folyóiratközlemény külföldi lapban
Model-based reinforcement learning
Proactive brain
Bellman equation
Reward function
Policy function
Cue-context congruence
Megjelenés:
Bmc Neuroscience. - 17 : 70 (2016), p. 70. -
További szerzők:
Bíró Klára (1970-) (egészségügyi menedzsment)
Tajti Gábor (1988-) (gyógyszerész, biofizikus, sejtbiológus)
Szilasi Magdolna Emma (1983-) (pulmonológus)
Papp Csaba (1966-) (aneszteziológus és intenzív terápiás szakorvos)
Juhász Béla (1978-) (kísérletes farmakológus)
Gesztelyi Rudolf (1969-) (kísérletes farmakológus)
Internet cím:
Szerző által megadott URL
DOI
Intézményi repozitóriumban (DEA) tárolt változat
Borító:
Saját polcon:
Rekordok letöltése
1
Corvina könyvtári katalógus v8.2.27
© 2023
Monguz kft.
Minden jog fenntartva.