A Tool for Dynamic Benchmarking of Multi-Model Data Management Systems
Nástroj pro dynamické testování systémů pro správu multi-modelových dat
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/202979Identifikátory
SIS: 260838
Kolekce
- Kvalifikační práce [11986]
Autor
Vedoucí práce
Oponent práce
Peška, Ladislav
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Informatika - Softwarové a datové inženýrství
Katedra / ústav / klinika
Katedra softwarového inženýrství
Datum obhajoby
9. 9. 2025
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Angličtina
Známka
Výborně
Klíčová slova (česky)
multi-modelová data|benchmarking|generátor dat|experimentální srovnáníKlíčová slova (anglicky)
multi-model data|benchmarking|data generator|experimental comparisonTato práce se zabývá problémem hodnocení výkonnosti systémů pro správu multi- modelových dat, podporujících různé datové modely. Stávající benchmarky mají ome- zený rozsah, jsou často statické a neberou v úvahu vývoj dat ani interoperabilitu modelů. Abychom tento problém překonali, navrhujeme nový nástroj pro tvorbu dynamických benchmarků z různorodých dat, který umožňuje přizpůsobení konkrétním potřebám. Ná- stroj integruje funkce odvozování schémat, úprav, transformace a exportu pomocí jednot- ného grafického rozhraní. Podporuje výstup do více systémů a verzí, což umožňuje srov- návací výkonostní analýzu systémů napříč modely. Experimentální výsledky s použitím reálných datových sad demonstrují flexibilitu a efektivitu nástroje. K reprodukovatelnosti a sdílení benchmarkových dat přispívá spravovaný repozitář DaRe.
This thesis addresses the challenge of benchmarking multi-model data management systems that support diverse data models. Existing benchmarks are limited in scope, often static, and fail to reflect data evolution or model interoperability. To overcome this, we propose a novel tool for generating dynamic, customizable benchmarks from het- erogeneous datasets. The tool integrates schema inference, editing, transformation, and export functionalities using a unified graphical interface. It supports output to multiple systems and versions, enabling comparative performance evaluations across models. Ex- perimental results using real-world datasets demonstrate the flexibility and effectiveness of the tool. To support reproducibility and sharing of benchmark data, a curated dataset repository named DaRe was also created.
