dc.contributor.advisor | Pilát, Martin | |
dc.creator | Uhlík, Jan | |
dc.date.accessioned | 2021-07-13T06:46:28Z | |
dc.date.available | 2021-07-13T06:46:28Z | |
dc.date.issued | 2021 | |
dc.identifier.uri | http://hdl.handle.net/20.500.11956/127431 | |
dc.description.abstract | Zpětnovazební učení zažívá v posledních letech výrazný rozmach díky novým technikám založených na hlubokém učení. Zajímavou oblastí výzkumu, na kterou se v posledních letech zaměřila řada od- borných publikací, je využití zpětnovazebního učení v prostředích s více agenty. V této práci nej- prve formálně zavádíme Multi-Agentní Zpětnovazební Učení (MARL). Následně stručně popisujeme nejdůležitější a nejúspěšnější doposud známé algoritmy pro prostředí jak s jedním, tak s více agenty. Naši pozornost zaměřujeme zejména na skupinu algoritmů známých pod pojmem Actor-Critic s centra- lizovaným tréninkem a decentralizovaným vykonáváním akcí. Dále přinášíme nový algoritmus MATD3- FORK, jenž je kombinací dvou úspěšných algoritmů MATD3 a TD3-FORK. Na závěr provádíme obsáhlé srovnávací testy mezi jednotlivými algoritmy pomocí naší sjednocené implementace. | cs_CZ |
dc.description.abstract | Deep Reinforcement Learning has achieved a plenty of breakthroughs in the past decade. Motivated by these successes, many publications extend the most prosperous algorithms to multi-agent systems. In this work, we firstly build solid theoretical foundations of Multi-Agent Reinforcement Learning (MARL), along with unified notations. Thereafter, we give a brief review of the most influential algorithms for Single-Agent and Multi-Agent RL. Our attention is focused mainly on Actor-Critic architectures with centralized training and decentralized execution. We propose a new model architec- ture called MATD3-FORK, which is a combination of MATD3 and TD3-FORK. Finally, we provide thorough comparative experiments of these algorithms on various tasks with unified implementation. | en_US |
dc.language | English | cs_CZ |
dc.language.iso | en_US | |
dc.publisher | Univerzita Karlova, Matematicko-fyzikální fakulta | cs_CZ |
dc.subject | Zpětnovazební učení|Multiagentní systémy|Hluboké učení | cs_CZ |
dc.subject | Reinforcement Learning|Multi-Agent Systems|Deel Learning | en_US |
dc.title | Cooperative Multi-Agent Reinforcement Learning | en_US |
dc.type | diplomová práce | cs_CZ |
dcterms.created | 2021 | |
dcterms.dateAccepted | 2021-06-22 | |
dc.description.department | Department of Theoretical Computer Science and Mathematical Logic | en_US |
dc.description.department | Katedra teoretické informatiky a matematické logiky | cs_CZ |
dc.description.faculty | Matematicko-fyzikální fakulta | cs_CZ |
dc.description.faculty | Faculty of Mathematics and Physics | en_US |
dc.identifier.repId | 233336 | |
dc.title.translated | Zpětnovazební učení pro kooperaci více agentů | cs_CZ |
dc.contributor.referee | Straka, Milan | |
thesis.degree.name | Mgr. | |
thesis.degree.level | navazující magisterské | cs_CZ |
thesis.degree.discipline | Artificial Intelligence | en_US |
thesis.degree.discipline | Umělá inteligence | cs_CZ |
thesis.degree.program | Informatika | cs_CZ |
thesis.degree.program | Computer Science | en_US |
uk.thesis.type | diplomová práce | cs_CZ |
uk.taxonomy.organization-cs | Matematicko-fyzikální fakulta::Katedra teoretické informatiky a matematické logiky | cs_CZ |
uk.taxonomy.organization-en | Faculty of Mathematics and Physics::Department of Theoretical Computer Science and Mathematical Logic | en_US |
uk.faculty-name.cs | Matematicko-fyzikální fakulta | cs_CZ |
uk.faculty-name.en | Faculty of Mathematics and Physics | en_US |
uk.faculty-abbr.cs | MFF | cs_CZ |
uk.degree-discipline.cs | Umělá inteligence | cs_CZ |
uk.degree-discipline.en | Artificial Intelligence | en_US |
uk.degree-program.cs | Informatika | cs_CZ |
uk.degree-program.en | Computer Science | en_US |
thesis.grade.cs | Výborně | cs_CZ |
thesis.grade.en | Excellent | en_US |
uk.abstract.cs | Zpětnovazební učení zažívá v posledních letech výrazný rozmach díky novým technikám založených na hlubokém učení. Zajímavou oblastí výzkumu, na kterou se v posledních letech zaměřila řada od- borných publikací, je využití zpětnovazebního učení v prostředích s více agenty. V této práci nej- prve formálně zavádíme Multi-Agentní Zpětnovazební Učení (MARL). Následně stručně popisujeme nejdůležitější a nejúspěšnější doposud známé algoritmy pro prostředí jak s jedním, tak s více agenty. Naši pozornost zaměřujeme zejména na skupinu algoritmů známých pod pojmem Actor-Critic s centra- lizovaným tréninkem a decentralizovaným vykonáváním akcí. Dále přinášíme nový algoritmus MATD3- FORK, jenž je kombinací dvou úspěšných algoritmů MATD3 a TD3-FORK. Na závěr provádíme obsáhlé srovnávací testy mezi jednotlivými algoritmy pomocí naší sjednocené implementace. | cs_CZ |
uk.abstract.en | Deep Reinforcement Learning has achieved a plenty of breakthroughs in the past decade. Motivated by these successes, many publications extend the most prosperous algorithms to multi-agent systems. In this work, we firstly build solid theoretical foundations of Multi-Agent Reinforcement Learning (MARL), along with unified notations. Thereafter, we give a brief review of the most influential algorithms for Single-Agent and Multi-Agent RL. Our attention is focused mainly on Actor-Critic architectures with centralized training and decentralized execution. We propose a new model architec- ture called MATD3-FORK, which is a combination of MATD3 and TD3-FORK. Finally, we provide thorough comparative experiments of these algorithms on various tasks with unified implementation. | en_US |
uk.file-availability | V | |
uk.grantor | Univerzita Karlova, Matematicko-fyzikální fakulta, Katedra teoretické informatiky a matematické logiky | cs_CZ |
thesis.grade.code | 1 | |
uk.publication-place | Praha | cs_CZ |
uk.thesis.defenceStatus | O | |