IoT Prism Lab
Research Lab at University of Bologna
Research Lab at University of Bologna
Theses
2019 |
Crudelini, Miriam Demand Forecasting mediante algoritmi di boosting: una valutazione sperimentale Masters Thesis 2019. Abstract | Links | BibTeX | Tags: big data, Boosting, Demand Forecasting, ensemble learning, Machine Learning @mastersthesis{amslaurea19136, title = {Demand Forecasting mediante algoritmi di boosting: una valutazione sperimentale}, author = {Miriam Crudelini}, url = {https://amslaurea.unibo.it/id/eprint/19136}, year = {2019}, date = {2019-01-01}, abstract = {Nell'epoca in cui viviamo, grazie ai dispositivi a nostra disposizione, ognuno di noi è produttore di una grande mole di dati, all'interno dei quali sono racchiuse importanti informazioni. Il processo di analisi ed estrazione della conoscenza permette di ottenere importanti informazioni. Un'utilizzo di tali informazioni si ha nel demand forecasting, ossia il processo di previsione della domanda. In questa tesi verranno analizzate alcune metodologie per effettuare previsioni sulla domanda di un prodotto, concentrandosi su una tipologia di algoritmi spesso utilizzati in questo ambito. Sono stati proposti e valutati tre algoritmi di machine learning basati sul boosting. Per migliorare le prestazioni è stata implementata un fase iniziale di ottimizzazione dei modelli. Infine, i modelli costruiti sono stati testati ed è stata effettuata un'analisi delle relative prestazioni.}, keywords = {big data, Boosting, Demand Forecasting, ensemble learning, Machine Learning}, pubstate = {published}, tppubtype = {mastersthesis} } Nell'epoca in cui viviamo, grazie ai dispositivi a nostra disposizione, ognuno di noi è produttore di una grande mole di dati, all'interno dei quali sono racchiuse importanti informazioni. Il processo di analisi ed estrazione della conoscenza permette di ottenere importanti informazioni. Un'utilizzo di tali informazioni si ha nel demand forecasting, ossia il processo di previsione della domanda. In questa tesi verranno analizzate alcune metodologie per effettuare previsioni sulla domanda di un prodotto, concentrandosi su una tipologia di algoritmi spesso utilizzati in questo ambito. Sono stati proposti e valutati tre algoritmi di machine learning basati sul boosting. Per migliorare le prestazioni è stata implementata un fase iniziale di ottimizzazione dei modelli. Infine, i modelli costruiti sono stati testati ed è stata effettuata un'analisi delle relative prestazioni. |
Grossi, Francesco Progettazione e sviluppo di un applicativo web per il monitoraggio della fauna ittica delle acque interne superficiali Masters Thesis 2019. Abstract | Links | BibTeX | Tags: big data, Monitoraggio faunistico, Web application development @mastersthesis{amslaurea17555, title = {Progettazione e sviluppo di un applicativo web per il monitoraggio della fauna ittica delle acque interne superficiali}, author = {Francesco Grossi}, url = {https://amslaurea.unibo.it/id/eprint/17555}, year = {2019}, date = {2019-01-01}, abstract = {Nel presente lavoro di tesi verrà analizzato il contesto del monitoraggio faunistico, nello specifico della fauna ittica, introducendo concetti moderni quali IoT e Big Data. In seguito sarà descritta la progettazione e l’implementazione di un applicativo web specifico per il monitoraggio della fauna ittica delle acque interne superficiali, sviluppato in collaborazione con i ricercatori del BIGEA di Bologna. Analizzando in partenza il database esistente è stato possibile coglierne le ridondanze e le incongruenze presenti, per poi strutturare un nuovo database adatto a rappresentare i dati quotidianamente manipolati dai ricercatori. E` stata successivamente definita la struttura client-server di un moderno applicativo web a cui è seguita l’implementazione delle funzionalità legate alla gestione delle stazioni di campionamento. Il lavoro così ottenuto si rivela infine pronto per successive implementazioni future, che porteranno ad un completo aggiornamento delle metodologie ora utilizzate per la gestione dei dati faunistici ittici da parte dei ricercatori del BIGEA di Bologna. Il nuovo modello ER proposto infatti pone le basi per implementare la registrazione e il monitoraggio dei dati relativi ai campionamenti effettuati, dallo studio della vegetazione fino al singolo pesce analizzato.}, keywords = {big data, Monitoraggio faunistico, Web application development}, pubstate = {published}, tppubtype = {mastersthesis} } Nel presente lavoro di tesi verrà analizzato il contesto del monitoraggio faunistico, nello specifico della fauna ittica, introducendo concetti moderni quali IoT e Big Data. In seguito sarà descritta la progettazione e l’implementazione di un applicativo web specifico per il monitoraggio della fauna ittica delle acque interne superficiali, sviluppato in collaborazione con i ricercatori del BIGEA di Bologna. Analizzando in partenza il database esistente è stato possibile coglierne le ridondanze e le incongruenze presenti, per poi strutturare un nuovo database adatto a rappresentare i dati quotidianamente manipolati dai ricercatori. E` stata successivamente definita la struttura client-server di un moderno applicativo web a cui è seguita l’implementazione delle funzionalità legate alla gestione delle stazioni di campionamento. Il lavoro così ottenuto si rivela infine pronto per successive implementazioni future, che porteranno ad un completo aggiornamento delle metodologie ora utilizzate per la gestione dei dati faunistici ittici da parte dei ricercatori del BIGEA di Bologna. Il nuovo modello ER proposto infatti pone le basi per implementare la registrazione e il monitoraggio dei dati relativi ai campionamenti effettuati, dallo studio della vegetazione fino al singolo pesce analizzato. |
Faienza, Antonio Progettazione ed Implementazione di una Dashboard di Location Intelligence in Ambito Retail Masters Thesis 2019. Abstract | Links | BibTeX | Tags: big data, Location Intelligence, Machine Learning, Optimal Retail Location, Optimal Site Selection, Spatial Analysis @mastersthesis{amslaurea19607, title = {Progettazione ed Implementazione di una Dashboard di Location Intelligence in Ambito Retail}, author = {Antonio Faienza}, url = {https://amslaurea.unibo.it/id/eprint/19607}, year = {2019}, date = {2019-01-01}, abstract = {La finalità del lavoro svolto è volta alla progettazione e successiva implementazione di una Dashboard di Location Intelligence nell'ambito del fashion retail. La Dashboard oltre a fornire una panoramica generale sull’andamento delle vendite (analisi descrittiva), e ad individuare una possibile correlazione delle vendite con dati interni ed esterni (analisi del potenziale), elabora un modello di Machine Learning che combinato con tecniche di Location Intelligence, consente di riconoscere potenziali punti vendita da immettere sul territorio nazionale (analisi predittiva). Il risultato finale, considera il grado di appetibilità del territorio, escludendo le zone che attualmente già offrono soluzioni e che hanno costituito, insieme all’integrazione di Point of Interest, la base per costruire il modello predittivo.}, keywords = {big data, Location Intelligence, Machine Learning, Optimal Retail Location, Optimal Site Selection, Spatial Analysis}, pubstate = {published}, tppubtype = {mastersthesis} } La finalità del lavoro svolto è volta alla progettazione e successiva implementazione di una Dashboard di Location Intelligence nell'ambito del fashion retail. La Dashboard oltre a fornire una panoramica generale sull’andamento delle vendite (analisi descrittiva), e ad individuare una possibile correlazione delle vendite con dati interni ed esterni (analisi del potenziale), elabora un modello di Machine Learning che combinato con tecniche di Location Intelligence, consente di riconoscere potenziali punti vendita da immettere sul territorio nazionale (analisi predittiva). Il risultato finale, considera il grado di appetibilità del territorio, escludendo le zone che attualmente già offrono soluzioni e che hanno costituito, insieme all’integrazione di Point of Interest, la base per costruire il modello predittivo. |
2016 |
Bartolini, Silvia Venturi Big-data e turismo Estrazione ed analisi dei dati dalla piattaforma Expedia Masters Thesis 2016. Abstract | Links | BibTeX | Tags: big data, Database NOSQL, turismo @mastersthesis{amslaurea11907, title = {Big-data e turismo Estrazione ed analisi dei dati dalla piattaforma Expedia}, author = {Silvia Venturi Bartolini}, url = {https://amslaurea.unibo.it/id/eprint/11907}, year = {2016}, date = {2016-01-01}, abstract = {La mia tesi si occupa di trattare come, attraverso questo nuovo prodotto dell’informatica chiamato big data, si possano ottenere informazioni e fare previsioni sull’andamento del turismo.}, keywords = {big data, Database NOSQL, turismo}, pubstate = {published}, tppubtype = {mastersthesis} } La mia tesi si occupa di trattare come, attraverso questo nuovo prodotto dell’informatica chiamato big data, si possano ottenere informazioni e fare previsioni sull’andamento del turismo. |
Tosto, Valentina Creazione di servizi personalizzati su dispositivi Android nell'ambito dell'Internet of Things collaborativo Masters Thesis 2016. Abstract | Links | BibTeX | Tags: android, big data, dispositivi mobile, domotica, Internet of Things, Mobile Crowdsensing, sensori, servizi, smart cities @mastersthesis{amslaurea12356, title = {Creazione di servizi personalizzati su dispositivi Android nell'ambito dell'Internet of Things collaborativo}, author = {Valentina Tosto}, url = {https://amslaurea.unibo.it/id/eprint/12356}, year = {2016}, date = {2016-01-01}, abstract = {In un mondo dove ormai qualunque oggetto quotidiano è connesso ad Internet ed è comune sentir parlare di “quarta rivoluzione industriale”, diventa critica la gestione dell'eterogeneità di dati prodotti dai dispositivi nell'ambito dell'Internet of Things. Perché non utilizzare tali informazioni in modo vantaggioso, integrandole tra loro a favore della città e dei suoi abitanti? Questa tesi focalizza l'attenzione sulla creazione di servizi personalizzati dalla combinazione di dati ufficiali e non, provenienti da sensori di stazioni di monitoraggio o di smartphone, a disposizione di utenti privati e di stakeholders. Le azioni svolte in merito sono state il reperimento di dati ufficiali dall’Arpae dell’Emilia-Romagna e la progettazione e sviluppo di Habitatest, un'applicazione mobile per il sistema Android. Habitatest offre ai suoi utenti un widget per visualizzare i valori dei dati, estratti da dispositivi di utenti privati, e dei servizi creati, un grafico che mostra l’andamento delle informazioni ed un sistema drag and drop per comporre tali dati, con una formula matematica, finalizzati alla produzione di servizi. L’obiettivo del progetto realizzato è stimolare gli utenti alla condivisione di dati, derivanti dai sensori dei propri dispositivi, ed alla creazione di servizi per scopi comuni, quali migliorare la qualità di vita di se stessi e delle altre persone, applicato a campi come la domotica, contribuire alla nascita delle Smart Cities e risparmiare risorse, salvaguardando l'ambiente in cui viviamo.}, keywords = {android, big data, dispositivi mobile, domotica, Internet of Things, Mobile Crowdsensing, sensori, servizi, smart cities}, pubstate = {published}, tppubtype = {mastersthesis} } In un mondo dove ormai qualunque oggetto quotidiano è connesso ad Internet ed è comune sentir parlare di “quarta rivoluzione industriale”, diventa critica la gestione dell'eterogeneità di dati prodotti dai dispositivi nell'ambito dell'Internet of Things. Perché non utilizzare tali informazioni in modo vantaggioso, integrandole tra loro a favore della città e dei suoi abitanti? Questa tesi focalizza l'attenzione sulla creazione di servizi personalizzati dalla combinazione di dati ufficiali e non, provenienti da sensori di stazioni di monitoraggio o di smartphone, a disposizione di utenti privati e di stakeholders. Le azioni svolte in merito sono state il reperimento di dati ufficiali dall’Arpae dell’Emilia-Romagna e la progettazione e sviluppo di Habitatest, un'applicazione mobile per il sistema Android. Habitatest offre ai suoi utenti un widget per visualizzare i valori dei dati, estratti da dispositivi di utenti privati, e dei servizi creati, un grafico che mostra l’andamento delle informazioni ed un sistema drag and drop per comporre tali dati, con una formula matematica, finalizzati alla produzione di servizi. L’obiettivo del progetto realizzato è stimolare gli utenti alla condivisione di dati, derivanti dai sensori dei propri dispositivi, ed alla creazione di servizi per scopi comuni, quali migliorare la qualità di vita di se stessi e delle altre persone, applicato a campi come la domotica, contribuire alla nascita delle Smart Cities e risparmiare risorse, salvaguardando l'ambiente in cui viviamo. |
2015 |
Ballo, Mattia Big data, nosql e machine learning: un'applicazione di prediction e recommendation basata sulle api di Amazon Masters Thesis 2015. Abstract | Links | BibTeX | Tags: amazon, aws, big data, Machine Learning, MongoDB, node-webkit, nodejs, NoSQL, predictionio @mastersthesis{amslaurea9693, title = {Big data, nosql e machine learning: un'applicazione di prediction e recommendation basata sulle api di Amazon}, author = {Mattia Ballo}, url = {https://amslaurea.unibo.it/id/eprint/9693}, year = {2015}, date = {2015-01-01}, abstract = {In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione.}, keywords = {amazon, aws, big data, Machine Learning, MongoDB, node-webkit, nodejs, NoSQL, predictionio}, pubstate = {published}, tppubtype = {mastersthesis} } In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione. |
Pecorella, Tommaso Progettazione ed implementazione di un data warehouse di supporto alla profilazione dei consumi energetici domestici Masters Thesis 2015. Abstract | Links | BibTeX | Tags: big data, Consumi energetici, Data Mining, Weka Data Cleaning @mastersthesis{amslaurea8355, title = {Progettazione ed implementazione di un data warehouse di supporto alla profilazione dei consumi energetici domestici}, author = {Tommaso Pecorella}, url = {https://amslaurea.unibo.it/id/eprint/8355}, year = {2015}, date = {2015-01-01}, abstract = {Sviluppo e analisi di un dataset campione, composto da circa 3 mln di entry ed estratto da un data warehouse di informazioni riguardanti il consumo energetico di diverse smart home.}, keywords = {big data, Consumi energetici, Data Mining, Weka Data Cleaning}, pubstate = {published}, tppubtype = {mastersthesis} } Sviluppo e analisi di un dataset campione, composto da circa 3 mln di entry ed estratto da un data warehouse di informazioni riguardanti il consumo energetico di diverse smart home. |