Show simple item record

Informačně-teoretické vlastnosti vybraných stochastických neuronálních modelů
dc.contributor.advisorKošťál, Lubomír
dc.creatorBárta, Tomáš
dc.date.accessioned2018-07-02T10:03:19Z
dc.date.available2018-07-02T10:03:19Z
dc.date.issued2018
dc.identifier.urihttp://hdl.handle.net/20.500.11956/98889
dc.description.abstractAccording to the classical efficient-coding hypothesis, biological neurons are naturally adapted to transmit and process information about the stimulus in an optimal way. Shannon's information theory provides methods to compute the fundamental limits on maximal information transfer by a general system. Understanding how these limits differ between different classes of neurons may help us to better understand how sensory and other information is processed in the brain. In this work we provide a brief review of information theory and its use in computational neuroscience. We use mathematical models of neuronal cells with stochastic input that realistically reproduce different activity patterns observed in real cortical neurons. By employing the neuronal input-output pro- perties we calculate several key information-theoretic characteristics, including the information capacity. In order to determine the information capacity we propose an iterative extension of the Blahut-Arimoto algorithm that generalizes to continuous input channels subjected to constraints. Finally, we compare the information optimality conditions among different models and parameter sets. 1en_US
dc.description.abstractDle klasické hypotézy o efektivním kódování jsou biologické neurony evo- lucí adaptované k tomu, aby byl jimi přenos informace optimální. Shannonova teorie infomace poskytuje metody výpočtu fundamentálních limit na přenos in- formace libovolným systémem. Pochopení rozdílů mezi těmito limitami mezi různými typy neuronů nám může pomoci lépe pochopit, jak mozek zpracovává senzorickou a jinou informaci. V této práci poskytujeme krátký přehled teorie informace a jejího použití v početních neurovědách. Využíváme matematické mo- dely nervových buňek se stochastickým vstupem, které jsou schopny realisticky reprodukovat aktivitu pozorovanou v neuronech v mozkové kůře. Z nasimulo- vané závislosti mezi stimulem neuronu a jeho výstupem jsme spočítali několik klíčových informačně-teoretických charakteristik, včetně informační kapacity. Za tímto účelem jsme navrhli zobecnění iterativního rozšíření Blahutova-Arimotova algoritmu na spojité vstupy. Na závěr porovnáváme výsledky pro různé hodnoty parametrů modelu. 1cs_CZ
dc.languageEnglishcs_CZ
dc.language.isoen_US
dc.publisherUniverzita Karlova, Matematicko-fyzikální fakultacs_CZ
dc.subjectinformační kapacitacs_CZ
dc.subjectmodel neuronucs_CZ
dc.subjectfrekvenční kódovánícs_CZ
dc.subjectinformation capacityen_US
dc.subjectneuronal modelen_US
dc.subjectfrequency codingen_US
dc.titleInformation-theoretic properties of selected stochastic neuronal modelsen_US
dc.typediplomová prácecs_CZ
dcterms.created2018
dcterms.dateAccepted2018-06-11
dc.description.departmentInstitute of Theoretical Physicsen_US
dc.description.departmentÚstav teoretické fyzikycs_CZ
dc.description.facultyFaculty of Mathematics and Physicsen_US
dc.description.facultyMatematicko-fyzikální fakultacs_CZ
dc.identifier.repId191542
dc.title.translatedInformačně-teoretické vlastnosti vybraných stochastických neuronálních modelůcs_CZ
dc.contributor.refereePokora, Ondřej
thesis.degree.nameMgr.
thesis.degree.levelnavazující magisterskécs_CZ
thesis.degree.disciplineMathematical and Computational Modelling in Physicsen_US
thesis.degree.disciplineMatematické a počítačové modelování ve fyzicecs_CZ
thesis.degree.programFyzikacs_CZ
thesis.degree.programPhysicsen_US
uk.thesis.typediplomová prácecs_CZ
uk.taxonomy.organization-csMatematicko-fyzikální fakulta::Ústav teoretické fyzikycs_CZ
uk.taxonomy.organization-enFaculty of Mathematics and Physics::Institute of Theoretical Physicsen_US
uk.faculty-name.csMatematicko-fyzikální fakultacs_CZ
uk.faculty-name.enFaculty of Mathematics and Physicsen_US
uk.faculty-abbr.csMFFcs_CZ
uk.degree-discipline.csMatematické a počítačové modelování ve fyzicecs_CZ
uk.degree-discipline.enMathematical and Computational Modelling in Physicsen_US
uk.degree-program.csFyzikacs_CZ
uk.degree-program.enPhysicsen_US
thesis.grade.csVýborněcs_CZ
thesis.grade.enExcellenten_US
uk.abstract.csDle klasické hypotézy o efektivním kódování jsou biologické neurony evo- lucí adaptované k tomu, aby byl jimi přenos informace optimální. Shannonova teorie infomace poskytuje metody výpočtu fundamentálních limit na přenos in- formace libovolným systémem. Pochopení rozdílů mezi těmito limitami mezi různými typy neuronů nám může pomoci lépe pochopit, jak mozek zpracovává senzorickou a jinou informaci. V této práci poskytujeme krátký přehled teorie informace a jejího použití v početních neurovědách. Využíváme matematické mo- dely nervových buňek se stochastickým vstupem, které jsou schopny realisticky reprodukovat aktivitu pozorovanou v neuronech v mozkové kůře. Z nasimulo- vané závislosti mezi stimulem neuronu a jeho výstupem jsme spočítali několik klíčových informačně-teoretických charakteristik, včetně informační kapacity. Za tímto účelem jsme navrhli zobecnění iterativního rozšíření Blahutova-Arimotova algoritmu na spojité vstupy. Na závěr porovnáváme výsledky pro různé hodnoty parametrů modelu. 1cs_CZ
uk.abstract.enAccording to the classical efficient-coding hypothesis, biological neurons are naturally adapted to transmit and process information about the stimulus in an optimal way. Shannon's information theory provides methods to compute the fundamental limits on maximal information transfer by a general system. Understanding how these limits differ between different classes of neurons may help us to better understand how sensory and other information is processed in the brain. In this work we provide a brief review of information theory and its use in computational neuroscience. We use mathematical models of neuronal cells with stochastic input that realistically reproduce different activity patterns observed in real cortical neurons. By employing the neuronal input-output pro- perties we calculate several key information-theoretic characteristics, including the information capacity. In order to determine the information capacity we propose an iterative extension of the Blahut-Arimoto algorithm that generalizes to continuous input channels subjected to constraints. Finally, we compare the information optimality conditions among different models and parameter sets. 1en_US
uk.file-availabilityV
uk.publication.placePrahacs_CZ
uk.grantorUniverzita Karlova, Matematicko-fyzikální fakulta, Ústav teoretické fyzikycs_CZ


Files in this item

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record


© 2017 Univerzita Karlova, Ústřední knihovna, Ovocný trh 560/5, 116 36 Praha 1; email: admin-repozitar [at] cuni.cz

Za dodržení všech ustanovení autorského zákona jsou zodpovědné jednotlivé složky Univerzity Karlovy. / Each constituent part of Charles University is responsible for adherence to all provisions of the copyright law.

Upozornění / Notice: Získané informace nemohou být použity k výdělečným účelům nebo vydávány za studijní, vědeckou nebo jinou tvůrčí činnost jiné osoby než autora. / Any retrieved information shall not be used for any commercial purposes or claimed as results of studying, scientific or any other creative activities of any person other than the author.

DSpace software copyright © 2002-2015  DuraSpace
Theme by 
@mire NV