IoT Prism Lab
Research Lab at University of Bologna
Research Lab at University of Bologna
Theses
2019 |
Orlandini, Lucrezia Applicazione di reti neurali per l’implementazione di un modello di demand forecasting in ambito fashion Masters Thesis 2019. Abstract | Links | BibTeX | Tags: Demand Forecasting, fashion, Machine Learning, Rete neurale artificiale @mastersthesis{amslaurea19162, title = {Applicazione di reti neurali per l’implementazione di un modello di demand forecasting in ambito fashion}, author = {Lucrezia Orlandini}, url = {https://amslaurea.unibo.it/id/eprint/19162}, year = {2019}, date = {2019-01-01}, abstract = {Ognuno di noi, in modo consapevole o meno, ogni volta che acquista un prodotto, posta un contenuto sui social media, cammina, parla o addirittura dorme, contribuisce alla produzione di 2.5 quintilioni di byte di dati (valore medio giornaliero). Allo stesso tempo però, non siamo solo generatori di dati, ma anche consumatori di essi. La ricerca di pattern e regolarità, attraverso metodi automatizzati di analisi, e il conseguente utilizzo per predire dati futuri non noti, è il campo di applicazione del Machine Learning, ramo dell’intelligenza artificiale. Le tecniche di Machine Learning sono impiegate in numerosi campi, dalla medicina al mondo business. In particolare, in quest’ultimo ambito una strategia efficiente di demand forecasting rappresenta un fattore determinante per il successo di un’azienda, soprattutto in ambito fashion. All’interno dell’elaborato sono stati analizzati i dati relativi alle vendite di un’importante azienda di occhialeria di lusso che opera a livello mondiale. L’obiettivo di questa tesi è l’implementazione, per tale azienda, di un modello di previsione della domanda all’interno del mercato italiano. Il ciclo di vita del progetto è stato articolato in diverse fasi: individuazione del caso d’uso, preparazione e pulizia dei dati, modellazione, valutazione delle performance e sviluppo. La soluzione progettata consiste in un modello di rete neurale artificiale (ANN) che, basandosi sullo storico delle vendite degli anni 2017/2018 e sulle caratteristiche tecniche dei modelli di occhiali, fornisce una previsione della quantità ordinata di un articolo noto o inedito. Sono state testate diverse configurazioni di reti neurali artificiali a profondità, e quindi complessità, crescente e per ogni modello si è poi proceduto all’ottimizzazione degli iperparametri, ovvero alla ricerca dei valori per cui vengono fornite previsioni più accurate.}, keywords = {Demand Forecasting, fashion, Machine Learning, Rete neurale artificiale}, pubstate = {published}, tppubtype = {mastersthesis} } Ognuno di noi, in modo consapevole o meno, ogni volta che acquista un prodotto, posta un contenuto sui social media, cammina, parla o addirittura dorme, contribuisce alla produzione di 2.5 quintilioni di byte di dati (valore medio giornaliero). Allo stesso tempo però, non siamo solo generatori di dati, ma anche consumatori di essi. La ricerca di pattern e regolarità, attraverso metodi automatizzati di analisi, e il conseguente utilizzo per predire dati futuri non noti, è il campo di applicazione del Machine Learning, ramo dell’intelligenza artificiale. Le tecniche di Machine Learning sono impiegate in numerosi campi, dalla medicina al mondo business. In particolare, in quest’ultimo ambito una strategia efficiente di demand forecasting rappresenta un fattore determinante per il successo di un’azienda, soprattutto in ambito fashion. All’interno dell’elaborato sono stati analizzati i dati relativi alle vendite di un’importante azienda di occhialeria di lusso che opera a livello mondiale. L’obiettivo di questa tesi è l’implementazione, per tale azienda, di un modello di previsione della domanda all’interno del mercato italiano. Il ciclo di vita del progetto è stato articolato in diverse fasi: individuazione del caso d’uso, preparazione e pulizia dei dati, modellazione, valutazione delle performance e sviluppo. La soluzione progettata consiste in un modello di rete neurale artificiale (ANN) che, basandosi sullo storico delle vendite degli anni 2017/2018 e sulle caratteristiche tecniche dei modelli di occhiali, fornisce una previsione della quantità ordinata di un articolo noto o inedito. Sono state testate diverse configurazioni di reti neurali artificiali a profondità, e quindi complessità, crescente e per ogni modello si è poi proceduto all’ottimizzazione degli iperparametri, ovvero alla ricerca dei valori per cui vengono fornite previsioni più accurate. |
Crudelini, Miriam Demand Forecasting mediante algoritmi di boosting: una valutazione sperimentale Masters Thesis 2019. Abstract | Links | BibTeX | Tags: big data, Boosting, Demand Forecasting, ensemble learning, Machine Learning @mastersthesis{amslaurea19136, title = {Demand Forecasting mediante algoritmi di boosting: una valutazione sperimentale}, author = {Miriam Crudelini}, url = {https://amslaurea.unibo.it/id/eprint/19136}, year = {2019}, date = {2019-01-01}, abstract = {Nell'epoca in cui viviamo, grazie ai dispositivi a nostra disposizione, ognuno di noi è produttore di una grande mole di dati, all'interno dei quali sono racchiuse importanti informazioni. Il processo di analisi ed estrazione della conoscenza permette di ottenere importanti informazioni. Un'utilizzo di tali informazioni si ha nel demand forecasting, ossia il processo di previsione della domanda. In questa tesi verranno analizzate alcune metodologie per effettuare previsioni sulla domanda di un prodotto, concentrandosi su una tipologia di algoritmi spesso utilizzati in questo ambito. Sono stati proposti e valutati tre algoritmi di machine learning basati sul boosting. Per migliorare le prestazioni è stata implementata un fase iniziale di ottimizzazione dei modelli. Infine, i modelli costruiti sono stati testati ed è stata effettuata un'analisi delle relative prestazioni.}, keywords = {big data, Boosting, Demand Forecasting, ensemble learning, Machine Learning}, pubstate = {published}, tppubtype = {mastersthesis} } Nell'epoca in cui viviamo, grazie ai dispositivi a nostra disposizione, ognuno di noi è produttore di una grande mole di dati, all'interno dei quali sono racchiuse importanti informazioni. Il processo di analisi ed estrazione della conoscenza permette di ottenere importanti informazioni. Un'utilizzo di tali informazioni si ha nel demand forecasting, ossia il processo di previsione della domanda. In questa tesi verranno analizzate alcune metodologie per effettuare previsioni sulla domanda di un prodotto, concentrandosi su una tipologia di algoritmi spesso utilizzati in questo ambito. Sono stati proposti e valutati tre algoritmi di machine learning basati sul boosting. Per migliorare le prestazioni è stata implementata un fase iniziale di ottimizzazione dei modelli. Infine, i modelli costruiti sono stati testati ed è stata effettuata un'analisi delle relative prestazioni. |
Becaccia, Morris Machine Learning per il riconoscimento automatico delle attività umane da smartphone: una valutazione sperimentale Masters Thesis 2019. Abstract | Links | BibTeX | Tags: android, App, Data Mining, Human Activity Recognition, Machine Learning @mastersthesis{amslaurea19576, title = {Machine Learning per il riconoscimento automatico delle attività umane da smartphone: una valutazione sperimentale}, author = {Morris Becaccia}, url = {https://amslaurea.unibo.it/id/eprint/19576}, year = {2019}, date = {2019-01-01}, abstract = {La tesi si occupa di creare un modello di classificazione analizzando dataset riguardanti le Human Activity Recognition. Il lavoro di tesi è stato diviso in due parti. La prima parte tratta lo stato dell'arte, in cui sono stati analizzati e approfonditi i temi di Machine Learning e sistemi HAR. Nella seconda parte è stato descritto il progetto. Il progetto si basa sul processo di Data Mining. Durante tutto il processo di Data Mining sono state fatte valutazioni e sperimentazioni sia durante la fase di pulizia dei dati e di preprocessing, sia durante la fase di classificazione valutando vari algoritmi. Alla fine del processo di Data Mining è stato ottenuto un modello di classificazione soddisfacente. Infine, è stata sviluppata un' applicazione moblie in Android, che accedendo ai valori di due sensori (accelerometro e giroscopio) e servendosi del modello di classificazione già creato, è in grado di riconoscere l'attività svolta dall'utente.}, keywords = {android, App, Data Mining, Human Activity Recognition, Machine Learning}, pubstate = {published}, tppubtype = {mastersthesis} } La tesi si occupa di creare un modello di classificazione analizzando dataset riguardanti le Human Activity Recognition. Il lavoro di tesi è stato diviso in due parti. La prima parte tratta lo stato dell'arte, in cui sono stati analizzati e approfonditi i temi di Machine Learning e sistemi HAR. Nella seconda parte è stato descritto il progetto. Il progetto si basa sul processo di Data Mining. Durante tutto il processo di Data Mining sono state fatte valutazioni e sperimentazioni sia durante la fase di pulizia dei dati e di preprocessing, sia durante la fase di classificazione valutando vari algoritmi. Alla fine del processo di Data Mining è stato ottenuto un modello di classificazione soddisfacente. Infine, è stata sviluppata un' applicazione moblie in Android, che accedendo ai valori di due sensori (accelerometro e giroscopio) e servendosi del modello di classificazione già creato, è in grado di riconoscere l'attività svolta dall'utente. |
Giosa, Matteo De Progettazione e validazione di un framework di algoritmi ensemble per la classificazione di Open Data IoT Masters Thesis 2019. Abstract | Links | BibTeX | Tags: classification, ensemble, ensemble learning, Internet of Things, IoT, Machine Learning, Open Data, open data iot, supervised learning, thingspeak, timeseries classification @mastersthesis{amslaurea19600, title = {Progettazione e validazione di un framework di algoritmi ensemble per la classificazione di Open Data IoT}, author = {Matteo De Giosa}, url = {https://amslaurea.unibo.it/id/eprint/19600}, year = {2019}, date = {2019-01-01}, abstract = {La quantità di dati IoT liberamente accessibili in rete - comunemente chiamati Open Data - è potenzialmente di grande utilità per innumerevoli applicazioni pratiche. Tuttavia, tali dati sono spesso inutilizzabili o incomprensibili, al punto in cui talvolta non si riesce nemmeno a discernere la tipologia di osservazione effettuata. Per etichettare tali misurazioni è dunque necessaria l’applicazione di modelli di classificazione. Questo tuttavia non è un lavoro semplice, in quanto i dati open sono in generale molto eterogenei, per cui molti degli algoritmi comunemente usati in letteratura hanno difficoltà a classificarli correttamente. Il contributo maggiore di questa tesi è perciò la presentazione di MACE, un framework ensemble per la classificazione di Open Data IoT: dopo averne trattato progettazione ed implementazione, ne valuteremo le performance, dimostrando la sua efficacia nel risolvere quello che è, ad oggi, un problema decisamente trascurato dalla letteratura.}, keywords = {classification, ensemble, ensemble learning, Internet of Things, IoT, Machine Learning, Open Data, open data iot, supervised learning, thingspeak, timeseries classification}, pubstate = {published}, tppubtype = {mastersthesis} } La quantità di dati IoT liberamente accessibili in rete - comunemente chiamati Open Data - è potenzialmente di grande utilità per innumerevoli applicazioni pratiche. Tuttavia, tali dati sono spesso inutilizzabili o incomprensibili, al punto in cui talvolta non si riesce nemmeno a discernere la tipologia di osservazione effettuata. Per etichettare tali misurazioni è dunque necessaria l’applicazione di modelli di classificazione. Questo tuttavia non è un lavoro semplice, in quanto i dati open sono in generale molto eterogenei, per cui molti degli algoritmi comunemente usati in letteratura hanno difficoltà a classificarli correttamente. Il contributo maggiore di questa tesi è perciò la presentazione di MACE, un framework ensemble per la classificazione di Open Data IoT: dopo averne trattato progettazione ed implementazione, ne valuteremo le performance, dimostrando la sua efficacia nel risolvere quello che è, ad oggi, un problema decisamente trascurato dalla letteratura. |
Faienza, Antonio Progettazione ed Implementazione di una Dashboard di Location Intelligence in Ambito Retail Masters Thesis 2019. Abstract | Links | BibTeX | Tags: big data, Location Intelligence, Machine Learning, Optimal Retail Location, Optimal Site Selection, Spatial Analysis @mastersthesis{amslaurea19607, title = {Progettazione ed Implementazione di una Dashboard di Location Intelligence in Ambito Retail}, author = {Antonio Faienza}, url = {https://amslaurea.unibo.it/id/eprint/19607}, year = {2019}, date = {2019-01-01}, abstract = {La finalità del lavoro svolto è volta alla progettazione e successiva implementazione di una Dashboard di Location Intelligence nell'ambito del fashion retail. La Dashboard oltre a fornire una panoramica generale sull’andamento delle vendite (analisi descrittiva), e ad individuare una possibile correlazione delle vendite con dati interni ed esterni (analisi del potenziale), elabora un modello di Machine Learning che combinato con tecniche di Location Intelligence, consente di riconoscere potenziali punti vendita da immettere sul territorio nazionale (analisi predittiva). Il risultato finale, considera il grado di appetibilità del territorio, escludendo le zone che attualmente già offrono soluzioni e che hanno costituito, insieme all’integrazione di Point of Interest, la base per costruire il modello predittivo.}, keywords = {big data, Location Intelligence, Machine Learning, Optimal Retail Location, Optimal Site Selection, Spatial Analysis}, pubstate = {published}, tppubtype = {mastersthesis} } La finalità del lavoro svolto è volta alla progettazione e successiva implementazione di una Dashboard di Location Intelligence nell'ambito del fashion retail. La Dashboard oltre a fornire una panoramica generale sull’andamento delle vendite (analisi descrittiva), e ad individuare una possibile correlazione delle vendite con dati interni ed esterni (analisi del potenziale), elabora un modello di Machine Learning che combinato con tecniche di Location Intelligence, consente di riconoscere potenziali punti vendita da immettere sul territorio nazionale (analisi predittiva). Il risultato finale, considera il grado di appetibilità del territorio, escludendo le zone che attualmente già offrono soluzioni e che hanno costituito, insieme all’integrazione di Point of Interest, la base per costruire il modello predittivo. |
Maniezzo, Mattia Realizzazione e validazione sperimentale di un dataset open per l'Internet of Things Masters Thesis 2019. Abstract | Links | BibTeX | Tags: classificazione, dataset, Internet of Things, Machine Learning, Open Data @mastersthesis{amslaurea18505, title = {Realizzazione e validazione sperimentale di un dataset open per l'Internet of Things}, author = {Mattia Maniezzo}, url = {https://amslaurea.unibo.it/id/eprint/18505}, year = {2019}, date = {2019-01-01}, abstract = {L'incremento e il continuo sviluppo dei dispositivi inerenti all'Internet of Things (IoT) ha causato un aumento esponenziale dei dati prodotti da ognuno di noi. Oltre all'incremento dei dati generati, è stata resa più semplice la condivisione libera di essi attraverso la rete internet. Una parte dei dati IoT generati dai dispositivi eterogenei possono essere liberamente accessibili e vengono chiamati Open Data, i quali possono essere reperibili in repository pubbliche fornite da enti, organizzazioni e studi/esperimenti, o realizzate da utenti grazie al crowdsourcing. Gli Open Data sono in costante aumento, ma presentano dei problemi come la scarsità di informazioni fornite, come metadati assenti o incompleti, che, a volte, li rendono poco comprensibili. Questo comporta un problema dal punto di vista dell'utilizzo dei dati vista la possibile scarsa riconoscibilità e comprensibilità. Per risolvere questo problema bisogna effettuare operazioni di annotazione e classificazione automatica. Le operazioni necessitano di essere automatiche visto che gli Open Data sono caratterizzati da grandi quantità di dati, quindi farle manualmente è impossibile. par Nello studio sperimentale si è realizzato un dataset contente dati provenienti dalla piattaforma online Thingspeak, che è un repository pubblico che sfrutta il crowdsourcing. Il dataset realizzato è sottoposto ad un'attività di validazione e di sperimentazione. La validazione sperimentale serve per verificare se il dataset realizzato in questo studio si comporta in maniera simile a dataset ottenuti da repository pubbliche fornite da enti e studi/esperimenti esterni. La sperimentazione serve a verificare quale algoritmo di classificazione è più efficiente per i dataset realizzato e quelli considerati, e a confermare che la classificazione basata sulla successione dei dati non funzioni per il tipo di dataset considerato.}, keywords = {classificazione, dataset, Internet of Things, Machine Learning, Open Data}, pubstate = {published}, tppubtype = {mastersthesis} } L'incremento e il continuo sviluppo dei dispositivi inerenti all'Internet of Things (IoT) ha causato un aumento esponenziale dei dati prodotti da ognuno di noi. Oltre all'incremento dei dati generati, è stata resa più semplice la condivisione libera di essi attraverso la rete internet. Una parte dei dati IoT generati dai dispositivi eterogenei possono essere liberamente accessibili e vengono chiamati Open Data, i quali possono essere reperibili in repository pubbliche fornite da enti, organizzazioni e studi/esperimenti, o realizzate da utenti grazie al crowdsourcing. Gli Open Data sono in costante aumento, ma presentano dei problemi come la scarsità di informazioni fornite, come metadati assenti o incompleti, che, a volte, li rendono poco comprensibili. Questo comporta un problema dal punto di vista dell'utilizzo dei dati vista la possibile scarsa riconoscibilità e comprensibilità. Per risolvere questo problema bisogna effettuare operazioni di annotazione e classificazione automatica. Le operazioni necessitano di essere automatiche visto che gli Open Data sono caratterizzati da grandi quantità di dati, quindi farle manualmente è impossibile. par Nello studio sperimentale si è realizzato un dataset contente dati provenienti dalla piattaforma online Thingspeak, che è un repository pubblico che sfrutta il crowdsourcing. Il dataset realizzato è sottoposto ad un'attività di validazione e di sperimentazione. La validazione sperimentale serve per verificare se il dataset realizzato in questo studio si comporta in maniera simile a dataset ottenuti da repository pubbliche fornite da enti e studi/esperimenti esterni. La sperimentazione serve a verificare quale algoritmo di classificazione è più efficiente per i dataset realizzato e quelli considerati, e a confermare che la classificazione basata sulla successione dei dati non funzioni per il tipo di dataset considerato. |
2018 |
D'Ambrosio, Luca AffectiveDrive: sistema di Driver Assistance basato sull’analisi di sensori inerziali e tecniche di computer vision Masters Thesis 2018. Abstract | Links | BibTeX | Tags: ADAS, Computer vision, Drive behavior recognition, Facial expression recognition, Feature extraction, Machine Learning, Sensor @mastersthesis{amslaurea16209, title = {AffectiveDrive: sistema di Driver Assistance basato sull’analisi di sensori inerziali e tecniche di computer vision}, author = {Luca D'Ambrosio}, url = {https://amslaurea.unibo.it/id/eprint/16209}, year = {2018}, date = {2018-01-01}, abstract = {In questa tesi viene presentata AffectiveDrive, un’applicazione di guida sicura per iPhone che rileva manovre di guida pericolose e avvisa il guidatore in caso di comportamenti non sicuri. L’applicazione utilizza algoritmi di computer vision e machine learning per monitorare il comportamento e rilevare se il conducente è in uno stato di sonnolenza o distratto, attraverso l’analisi di dati sensoriali e la fotocamera. In particolare, nell’applicazione sviluppata vengono estratti i dati sensoriali prodotti dallo smartphone. Vengono applicate tecniche di feature extraction per sintetizzare i dati prima estratti. Successivamente, viene costruito un modello di predizione partendo da un set di dati composto da misurazioni di guida e infine viene applicato l’algoritmo Random Forest alle feature estratte per riconoscere il comportamento del guidatore, classificandolo come “sicuro” / “non sicuro”. Il rilevamento di sonnolenza e distrazione viene effettuato con il Software Development Kit AffDex, il quale, una volta rilevato un volto produce valori numerici compresi tra 0 (assente) e 100 (presente) che indicano le presenza/assenza delle situazioni prima esposte. Se AffDex produce valori che superano delle soglie preimpostate il conducente verrà avvisato attraverso un allarme sonoro.}, keywords = {ADAS, Computer vision, Drive behavior recognition, Facial expression recognition, Feature extraction, Machine Learning, Sensor}, pubstate = {published}, tppubtype = {mastersthesis} } In questa tesi viene presentata AffectiveDrive, un’applicazione di guida sicura per iPhone che rileva manovre di guida pericolose e avvisa il guidatore in caso di comportamenti non sicuri. L’applicazione utilizza algoritmi di computer vision e machine learning per monitorare il comportamento e rilevare se il conducente è in uno stato di sonnolenza o distratto, attraverso l’analisi di dati sensoriali e la fotocamera. In particolare, nell’applicazione sviluppata vengono estratti i dati sensoriali prodotti dallo smartphone. Vengono applicate tecniche di feature extraction per sintetizzare i dati prima estratti. Successivamente, viene costruito un modello di predizione partendo da un set di dati composto da misurazioni di guida e infine viene applicato l’algoritmo Random Forest alle feature estratte per riconoscere il comportamento del guidatore, classificandolo come “sicuro” / “non sicuro”. Il rilevamento di sonnolenza e distrazione viene effettuato con il Software Development Kit AffDex, il quale, una volta rilevato un volto produce valori numerici compresi tra 0 (assente) e 100 (presente) che indicano le presenza/assenza delle situazioni prima esposte. Se AffDex produce valori che superano delle soglie preimpostate il conducente verrà avvisato attraverso un allarme sonoro. |
Valentini, Alice Evaluation of deep learning techniques for object detection on embedded systems Masters Thesis 2018. Abstract | Links | BibTeX | Tags: area surveying, deep learning, drones, DRONI, Machine Learning, object detection, UAV, yolo @mastersthesis{amslaurea15478, title = {Evaluation of deep learning techniques for object detection on embedded systems}, author = {Alice Valentini}, url = {https://amslaurea.unibo.it/id/eprint/15478}, year = {2018}, date = {2018-01-01}, abstract = {Area surveying is an important tool used to inspect and study in detail a given area, it is especially useful to monitor the movements and the settlement of populations located in a developing country. Unmanned Aerial Vehicles (UAV), given the recent developments, could represent a suitable technology in order to carry out this task in an easier and cheaper way. The use of UAV based surveys techniques poses many challenges in terms of accuracy, speed and efficiency. The target is to build an autonomous flight system which is able to define optimal flight paths using the gathered information from the environment. In this thesis we will focus on the development of the perception system which has to capture the desired information with accurate and fast detections. More in detail, we will explore and evaluate the use of object detection models based on Deep Learning techniques who will sense and collect data which will later use for on-board elaboration. The object detection model has to be accurate in order to detect all the objects encountered on the ground and fast in order to not introduce too much latency into the on-board decision system. Fast and accurate decisions could permit an efficient coverage of the area. Different embedded platforms will be considered and examined in order to meet the model's computational requirements and to provide an efficient use in terms of battery consumption. Different training configurations will be tested in order to maximize our detection accuracy metric, minimum average precision (mAP). The detection speed will be then evaluated on our board using Frame Per Second (FPS) metric. In addition to YOLO we also tested TinyYOLO, a smaller and faster network. Results will be then compared in order to find the best configuration in terms of accuracy/speed. We will show that our system is able to meet all the requirements even if we do not achieve our ideal detection speed.}, keywords = {area surveying, deep learning, drones, DRONI, Machine Learning, object detection, UAV, yolo}, pubstate = {published}, tppubtype = {mastersthesis} } Area surveying is an important tool used to inspect and study in detail a given area, it is especially useful to monitor the movements and the settlement of populations located in a developing country. Unmanned Aerial Vehicles (UAV), given the recent developments, could represent a suitable technology in order to carry out this task in an easier and cheaper way. The use of UAV based surveys techniques poses many challenges in terms of accuracy, speed and efficiency. The target is to build an autonomous flight system which is able to define optimal flight paths using the gathered information from the environment. In this thesis we will focus on the development of the perception system which has to capture the desired information with accurate and fast detections. More in detail, we will explore and evaluate the use of object detection models based on Deep Learning techniques who will sense and collect data which will later use for on-board elaboration. The object detection model has to be accurate in order to detect all the objects encountered on the ground and fast in order to not introduce too much latency into the on-board decision system. Fast and accurate decisions could permit an efficient coverage of the area. Different embedded platforms will be considered and examined in order to meet the model's computational requirements and to provide an efficient use in terms of battery consumption. Different training configurations will be tested in order to maximize our detection accuracy metric, minimum average precision (mAP). The detection speed will be then evaluated on our board using Frame Per Second (FPS) metric. In addition to YOLO we also tested TinyYOLO, a smaller and faster network. Results will be then compared in order to find the best configuration in terms of accuracy/speed. We will show that our system is able to meet all the requirements even if we do not achieve our ideal detection speed. |
Zuhouri, Ramy Al Human Activity Recognition in Sports Using the Apple Watch Masters Thesis 2018. Abstract | Links | BibTeX | Tags: Accelerometers, Apple Watch, Fitness Tracking, Human Activity Recognition, Machine Learning, Smartwatch @mastersthesis{amslaurea16106, title = {Human Activity Recognition in Sports Using the Apple Watch}, author = {Ramy Al Zuhouri}, url = {https://amslaurea.unibo.it/id/eprint/16106}, year = {2018}, date = {2018-01-01}, abstract = {With the recent spreading of Internet of Things, the availability of a wide variety of cheap devices brought human activity recognition (HAR) to the broad audience, thus eliminating the need of using costly and obstructive hardware, and to constraint the users to remain in controlled environments. Human activity recognition finds application in the field of health monitoring, safety, context-aware behavior and fitness tracking. This thesis is focused on fitness tracking, with the aim of finding a way to perform activity recognition with a smartwatch in order to automatize activity tracking, exempting the user from manually interacting with the device in order to manage the workout sessions. For this purpose, the intertial sensors of an Apple Watch, along with the GPS and the heart rate monitor were used to train and test an activity recognition model. 4 subjects collected data for 8 different types of aerobic activities, populating a dataset of 4,083 instances, corresponding to about 20 minutes of physical activity for each subject. 9 different machine learning algorithms were evaluated using the holdout validation, trying different combinations of sensor data and features in order to find the optimal configuration. Due to its simplicity, it was chosen to use a decision tree for further validation on unseen data. As expected, the accuracy of the decision tree was higher when validated on the test set, but dropped from 95.42% to 90.73% when tested on unseen data. The use of a history set increased the recognition accuracy up to 92.68%. More conclusions derived from validation: the models were able to recognize activities independently on the wirst location of the watch; moreover, the accelerometer and the gyroscope were enough to obtain a good recognition model, while the GPS and the heart rate monitor did not significantly increase the accuracy.}, keywords = {Accelerometers, Apple Watch, Fitness Tracking, Human Activity Recognition, Machine Learning, Smartwatch}, pubstate = {published}, tppubtype = {mastersthesis} } With the recent spreading of Internet of Things, the availability of a wide variety of cheap devices brought human activity recognition (HAR) to the broad audience, thus eliminating the need of using costly and obstructive hardware, and to constraint the users to remain in controlled environments. Human activity recognition finds application in the field of health monitoring, safety, context-aware behavior and fitness tracking. This thesis is focused on fitness tracking, with the aim of finding a way to perform activity recognition with a smartwatch in order to automatize activity tracking, exempting the user from manually interacting with the device in order to manage the workout sessions. For this purpose, the intertial sensors of an Apple Watch, along with the GPS and the heart rate monitor were used to train and test an activity recognition model. 4 subjects collected data for 8 different types of aerobic activities, populating a dataset of 4,083 instances, corresponding to about 20 minutes of physical activity for each subject. 9 different machine learning algorithms were evaluated using the holdout validation, trying different combinations of sensor data and features in order to find the optimal configuration. Due to its simplicity, it was chosen to use a decision tree for further validation on unseen data. As expected, the accuracy of the decision tree was higher when validated on the test set, but dropped from 95.42% to 90.73% when tested on unseen data. The use of a history set increased the recognition accuracy up to 92.68%. More conclusions derived from validation: the models were able to recognize activities independently on the wirst location of the watch; moreover, the accelerometer and the gyroscope were enough to obtain a good recognition model, while the GPS and the heart rate monitor did not significantly increase the accuracy. |
Salvatori, Giada riconoscimento del guidatore attraverso la fotocamera frontale di uno smartphone Masters Thesis 2018. Abstract | Links | BibTeX | Tags: Driver detection, Image Recognition, Machine Learning, road safety, Smartphone, Tensor Flow @mastersthesis{amslaurea16143, title = {riconoscimento del guidatore attraverso la fotocamera frontale di uno smartphone}, author = {Giada Salvatori}, url = {https://amslaurea.unibo.it/id/eprint/16143}, year = {2018}, date = {2018-01-01}, abstract = {Nowadays car manufactures and others are investing more and more in the use of technologies in order to improve road safety. The purpose of this study is to succeed in creating a model, exploiting Machine Learning, in order to verify whether users, while they are operating their own smartphones, are driving or not, carrying out the identification through images obtainable by means of the front-facing camera of the device. We intend to illustrate different types of checks on drivers and the reason why we have chosen to develop this theory; the techniques adopted and the problems encountered during its development, detailing, step by step, the project implementation and explaining the implementation decisions, providing also varations in the development and a demo for observing the results in an active way.}, keywords = {Driver detection, Image Recognition, Machine Learning, road safety, Smartphone, Tensor Flow}, pubstate = {published}, tppubtype = {mastersthesis} } Nowadays car manufactures and others are investing more and more in the use of technologies in order to improve road safety. The purpose of this study is to succeed in creating a model, exploiting Machine Learning, in order to verify whether users, while they are operating their own smartphones, are driving or not, carrying out the identification through images obtainable by means of the front-facing camera of the device. We intend to illustrate different types of checks on drivers and the reason why we have chosen to develop this theory; the techniques adopted and the problems encountered during its development, detailing, step by step, the project implementation and explaining the implementation decisions, providing also varations in the development and a demo for observing the results in an active way. |
2017 |
Testoni, Alberto 2017. Abstract | Links | BibTeX | Tags: android, Feature Selection, Human Activity Recognition, Machine Learning, Pattern recognition, Ubiquitous Computing, Wearable Sensors @mastersthesis{amslaurea13267, title = {Progettazione ed implementazione di un sistema generale di Human Activity Recognition attraverso l'utilizzo di sensori embedded ed algoritmi di feature selection}, author = {Alberto Testoni}, url = {https://amslaurea.unibo.it/id/eprint/13267}, year = {2017}, date = {2017-01-01}, abstract = {L'eccezionale sviluppo della microelettronica e dei sistemi informatici verificatosi nell'ultimo decennio ha consentito la nascita di sensori e dispositivi mobili con caratteristiche senza precedenti; l'elevata potenza di calcolo, il basso costo e le ridotte dimensioni hanno fatto diventare questi strumenti parte della nostra vita quotidiana. Gli smartphone dei nostri giorni integrano funzionalità di comunicazione ed elevate capacità computazionali e di sensing, attraverso un largo numero di sensori embedded. I dati provenienti dai sensori presenti sullo smartphone possono fornire informazioni utili circa l'ambiente nel quale si trova l'utente che sta utilizzando il dispositivo; come raccogliere e analizzare queste grandi quantità di dati rispettando la privacy dell'utente costituisce un'importantissima sfida per il futuro, nonché un'area di ricerca molto attiva. Sofisticate tecniche di riconoscimento si occupano di identificare automaticamente l'attività che l'utente sta svolgendo o il veicolo con il quale egli si sta spostando utilizzando i dati provenienti dai sensori dello smartphone; questo processo di inferenza statistica è possibile grazie ai modelli prodotti dagli algoritmi di classificazione. Partendo dallo stato dell'arte nel campo della cosiddetta Human Activity Recognition, si evidenziano alcune importanti domande ancora senza risposta: è possibile costruire un sistema di classificazione affidabile tracciando il maggior numero possibile di sensori? Il processo di classificazione e di creazione del modello può essere spostato su un server remoto in grado di effettuare velocemente operazioni costose? In questa tesi di laurea si cerca di rispondere alle domande appena poste, implementando un sistema di identificazione automatica dell'attività svolta dall'utente costituito da un'applicazione Android e da un server remoto dedicato al processo di classificazione.}, keywords = {android, Feature Selection, Human Activity Recognition, Machine Learning, Pattern recognition, Ubiquitous Computing, Wearable Sensors}, pubstate = {published}, tppubtype = {mastersthesis} } L'eccezionale sviluppo della microelettronica e dei sistemi informatici verificatosi nell'ultimo decennio ha consentito la nascita di sensori e dispositivi mobili con caratteristiche senza precedenti; l'elevata potenza di calcolo, il basso costo e le ridotte dimensioni hanno fatto diventare questi strumenti parte della nostra vita quotidiana. Gli smartphone dei nostri giorni integrano funzionalità di comunicazione ed elevate capacità computazionali e di sensing, attraverso un largo numero di sensori embedded. I dati provenienti dai sensori presenti sullo smartphone possono fornire informazioni utili circa l'ambiente nel quale si trova l'utente che sta utilizzando il dispositivo; come raccogliere e analizzare queste grandi quantità di dati rispettando la privacy dell'utente costituisce un'importantissima sfida per il futuro, nonché un'area di ricerca molto attiva. Sofisticate tecniche di riconoscimento si occupano di identificare automaticamente l'attività che l'utente sta svolgendo o il veicolo con il quale egli si sta spostando utilizzando i dati provenienti dai sensori dello smartphone; questo processo di inferenza statistica è possibile grazie ai modelli prodotti dagli algoritmi di classificazione. Partendo dallo stato dell'arte nel campo della cosiddetta Human Activity Recognition, si evidenziano alcune importanti domande ancora senza risposta: è possibile costruire un sistema di classificazione affidabile tracciando il maggior numero possibile di sensori? Il processo di classificazione e di creazione del modello può essere spostato su un server remoto in grado di effettuare velocemente operazioni costose? In questa tesi di laurea si cerca di rispondere alle domande appena poste, implementando un sistema di identificazione automatica dell'attività svolta dall'utente costituito da un'applicazione Android e da un server remoto dedicato al processo di classificazione. |
Carpineti, Claudia Sensors relevance analysis for transportation mode recognition Masters Thesis 2017. Abstract | Links | BibTeX | Tags: classification, Machine Learning, sensors, transportation mode recognition @mastersthesis{amslaurea13298, title = {Sensors relevance analysis for transportation mode recognition}, author = {Claudia Carpineti}, url = {https://amslaurea.unibo.it/id/eprint/13298}, year = {2017}, date = {2017-01-01}, abstract = {Identificare la mobilità di un utente attraverso la sua osservazione, o l’osservazione dell’ambiente, è un tema di ricerca di crescente interesse, con numerose applicazioni. La maggior parte dei lavori accademici trae vantaggio dalla diffusione dei cellulari, utilizzando i dati derivati dai sensori e le tecniche di apprendimento automatico, per inferire la mobilità dell’utente. Una limitazione di questi lavori è l’utilizzo di dataset creati ad hoc. Essi, infatti, raccolgono i dati dei soli sensori di loro interesse, hanno una base utente ridotta e prevedono processi di collezione in condizioni non reali. Come conseguenza, i risultati dei lavori non sono fra loro confrontabili. Il primo obiettivo di questa tesi è stato la costruzione di un dataset che superasse le suddette limitazioni. Il dataset ottenuto distingue cinque attività: stare in macchina, in autobus, in treno, fermi e camminare. Il dataset è stato utilizzato per la costruzione di modelli di classificazione della mobilità, raggiungendo un livello massimo di accuratezza del 96%. Si è indagato sull’importanza dei sensori nel riconoscimento delle singole attività. A tal fine, sono stati definiti tre insiemi di dati: il primo composto dai dati derivati da tre soli sensori (accelerometro, giroscopio e microfono), il secondo da tutti i dati dei sensori ad esclusione di quelli derivati dal GPS e l’ultimo dai dati di tutti i sensori disponibili. I risultati ottenuti mostrano come all’aumentare dei sensori, aumenti l’accuratezza. Non tutte le classi di attività, però, traggono lo stesso beneficio dall’aumento di informazione. L’analisi di queste differenze permette di individuare quali sensori sono più utili all’individuazione di ogni singola attività. Questi ultimi risultati suggeriscono la possibilità di scegliere il set di sensori da utilizzare sulla base delle attività da riconoscere.}, keywords = {classification, Machine Learning, sensors, transportation mode recognition}, pubstate = {published}, tppubtype = {mastersthesis} } Identificare la mobilità di un utente attraverso la sua osservazione, o l’osservazione dell’ambiente, è un tema di ricerca di crescente interesse, con numerose applicazioni. La maggior parte dei lavori accademici trae vantaggio dalla diffusione dei cellulari, utilizzando i dati derivati dai sensori e le tecniche di apprendimento automatico, per inferire la mobilità dell’utente. Una limitazione di questi lavori è l’utilizzo di dataset creati ad hoc. Essi, infatti, raccolgono i dati dei soli sensori di loro interesse, hanno una base utente ridotta e prevedono processi di collezione in condizioni non reali. Come conseguenza, i risultati dei lavori non sono fra loro confrontabili. Il primo obiettivo di questa tesi è stato la costruzione di un dataset che superasse le suddette limitazioni. Il dataset ottenuto distingue cinque attività: stare in macchina, in autobus, in treno, fermi e camminare. Il dataset è stato utilizzato per la costruzione di modelli di classificazione della mobilità, raggiungendo un livello massimo di accuratezza del 96%. Si è indagato sull’importanza dei sensori nel riconoscimento delle singole attività. A tal fine, sono stati definiti tre insiemi di dati: il primo composto dai dati derivati da tre soli sensori (accelerometro, giroscopio e microfono), il secondo da tutti i dati dei sensori ad esclusione di quelli derivati dal GPS e l’ultimo dai dati di tutti i sensori disponibili. I risultati ottenuti mostrano come all’aumentare dei sensori, aumenti l’accuratezza. Non tutte le classi di attività, però, traggono lo stesso beneficio dall’aumento di informazione. L’analisi di queste differenze permette di individuare quali sensori sono più utili all’individuazione di ogni singola attività. Questi ultimi risultati suggeriscono la possibilità di scegliere il set di sensori da utilizzare sulla base delle attività da riconoscere. |
Cappella, Matteo Studio e valutazione di tecniche di training per il riconoscimento automatico di attività attraverso dispositivi mobili Masters Thesis 2017. Abstract | Links | BibTeX | Tags: Apprendimento incrementale, Context-aware, Human Activity Recognition, Incremental learning, Machine Learning, Self-training, Transportation Mode Detection @mastersthesis{amslaurea14840, title = {Studio e valutazione di tecniche di training per il riconoscimento automatico di attività attraverso dispositivi mobili}, author = {Matteo Cappella}, url = {https://amslaurea.unibo.it/id/eprint/14840}, year = {2017}, date = {2017-01-01}, abstract = {L'utilizzo degli smartphone è cresciuto rapidamente nel corso dell'ultimo decennio. Questi dispositivi oltre ad avere ottime capacità comunicative, di memoria e di calcolo, sono equipaggiati con numerosi sensori. Quest'ultimi permettono ai ricercatori di raccogliere numerose informazioni riguardanti le persone e il contesto che le circonda. Un aspetto molto importante che è possibile analizzare tramite la raccolta delle informazioni provenienti dai sensori è sicuramente quello del riconoscimento delle modalità di trasporto (Transportation Mode Detection), che consiste, appunto, nell'individuare la classe di mobilità intrapresa da un utente in un determinato momento tramite degli algoritmi di machine learning. In questo elaborato, vengono utilizzate varie tecniche di apprendimento su un dataset contenente cinque differenti classi di trasporto quali stare fermi, camminare, andare in auto, autobus e treno. L'obiettivo che si è cercato di raggiungere è stato quello di verificare la possibilità di riconoscere le modalità di trasporto di un utente di cui non si possiedono informazioni, ovvero un soggetto che non è presente all'interno dell'insieme di dati usati per allenare il modello di predizione. In modo particolare, lo studio si è focalizzato sulla tecnica di apprendimento incrementale attraverso la quale è stato possibile aggiornare il modello con l'aggiunta di nuove informazioni senza perdere la conoscenza acquisita in addestramenti precedenti. Infine, si è indagato sul problema relativo all'etichettatura dei dati. Dato che questa operazione risulta essere molto costosa, nell'elaborato è stata proposta una soluzione basata su tecniche di apprendimento semi-supervisionato che consentono di sfruttare una combinazione di dati etichettati e non.}, keywords = {Apprendimento incrementale, Context-aware, Human Activity Recognition, Incremental learning, Machine Learning, Self-training, Transportation Mode Detection}, pubstate = {published}, tppubtype = {mastersthesis} } L'utilizzo degli smartphone è cresciuto rapidamente nel corso dell'ultimo decennio. Questi dispositivi oltre ad avere ottime capacità comunicative, di memoria e di calcolo, sono equipaggiati con numerosi sensori. Quest'ultimi permettono ai ricercatori di raccogliere numerose informazioni riguardanti le persone e il contesto che le circonda. Un aspetto molto importante che è possibile analizzare tramite la raccolta delle informazioni provenienti dai sensori è sicuramente quello del riconoscimento delle modalità di trasporto (Transportation Mode Detection), che consiste, appunto, nell'individuare la classe di mobilità intrapresa da un utente in un determinato momento tramite degli algoritmi di machine learning. In questo elaborato, vengono utilizzate varie tecniche di apprendimento su un dataset contenente cinque differenti classi di trasporto quali stare fermi, camminare, andare in auto, autobus e treno. L'obiettivo che si è cercato di raggiungere è stato quello di verificare la possibilità di riconoscere le modalità di trasporto di un utente di cui non si possiedono informazioni, ovvero un soggetto che non è presente all'interno dell'insieme di dati usati per allenare il modello di predizione. In modo particolare, lo studio si è focalizzato sulla tecnica di apprendimento incrementale attraverso la quale è stato possibile aggiornare il modello con l'aggiunta di nuove informazioni senza perdere la conoscenza acquisita in addestramenti precedenti. Infine, si è indagato sul problema relativo all'etichettatura dei dati. Dato che questa operazione risulta essere molto costosa, nell'elaborato è stata proposta una soluzione basata su tecniche di apprendimento semi-supervisionato che consentono di sfruttare una combinazione di dati etichettati e non. |
Avena, Anna Tecniche di data mining applicate alla decodifica di dati neurali Masters Thesis 2017. Abstract | Links | BibTeX | Tags: algoritmi di classificazione, attività neuronale, Data Mining, dati neurali, Machine Learning, python, scikit-learn @mastersthesis{amslaurea14800, title = {Tecniche di data mining applicate alla decodifica di dati neurali}, author = {Anna Avena}, url = {https://amslaurea.unibo.it/id/eprint/14800}, year = {2017}, date = {2017-01-01}, abstract = {Gli studi sulla decodifica dell'attività neuronale permettono di mappare gli impulsi elettrici della corteccia cerebrale in segnali da inviare a determinati dispositivi per poterli monitorare. È su questo tema che la ricerca scientifica si sta concentrando, al fine di aiutare le persone affette da gravi lesioni fisiche ad ottenere un maggiore grado di autonomia nelle piccole azioni di tutti i giorni. In questo elaborato, sono stati analizzati dati derivanti da attività neuronali raccolti da esperimenti effettuati su primati non umani, eseguiti dal gruppo di ricerca della professoressa Patrizia Fattori nel Dipartimento di Farmacia e Biotecnologie dell'Università di Bologna. Per lo svolgimento di questo esperimento, la cavia, è stata addestrata a svolgere un compito che consiste nell'afferrare gli oggetti proposti, uno alla volta, in ordine casuale. Durante l'esercizio, l'attività neuronale della cavia è stata registrata in vettori contenenti l'attività di spiking. Ciò che si cerca di fare in questa tesi è ricostruire l'informazione relativa all'attività di una popolazione di neuroni, dato il suo spike vector. Sono stati testati diversi algoritmi di classificazione e feature al fine di stabilire quale configurazione sia più affidabile per il riconoscimento dell'attività motoria svolta dalla cavia durante l'esperimento. A tal proposito, è stato implementato un processo di data mining attraverso l'utilizzo del linguaggio python e del framework Scikit-learn che permette di effettuare più classificazioni e stabilire quale fornisce una migliore performance. I risultati dell'analisi dimostrano che alcune feature forniscono alti tassi di riconoscimento e che, a seconda del dominio del problema, è più indicato un determinato tipo di preprocessing rispetto ad un altro.}, keywords = {algoritmi di classificazione, attività neuronale, Data Mining, dati neurali, Machine Learning, python, scikit-learn}, pubstate = {published}, tppubtype = {mastersthesis} } Gli studi sulla decodifica dell'attività neuronale permettono di mappare gli impulsi elettrici della corteccia cerebrale in segnali da inviare a determinati dispositivi per poterli monitorare. È su questo tema che la ricerca scientifica si sta concentrando, al fine di aiutare le persone affette da gravi lesioni fisiche ad ottenere un maggiore grado di autonomia nelle piccole azioni di tutti i giorni. In questo elaborato, sono stati analizzati dati derivanti da attività neuronali raccolti da esperimenti effettuati su primati non umani, eseguiti dal gruppo di ricerca della professoressa Patrizia Fattori nel Dipartimento di Farmacia e Biotecnologie dell'Università di Bologna. Per lo svolgimento di questo esperimento, la cavia, è stata addestrata a svolgere un compito che consiste nell'afferrare gli oggetti proposti, uno alla volta, in ordine casuale. Durante l'esercizio, l'attività neuronale della cavia è stata registrata in vettori contenenti l'attività di spiking. Ciò che si cerca di fare in questa tesi è ricostruire l'informazione relativa all'attività di una popolazione di neuroni, dato il suo spike vector. Sono stati testati diversi algoritmi di classificazione e feature al fine di stabilire quale configurazione sia più affidabile per il riconoscimento dell'attività motoria svolta dalla cavia durante l'esperimento. A tal proposito, è stato implementato un processo di data mining attraverso l'utilizzo del linguaggio python e del framework Scikit-learn che permette di effettuare più classificazioni e stabilire quale fornisce una migliore performance. I risultati dell'analisi dimostrano che alcune feature forniscono alti tassi di riconoscimento e che, a seconda del dominio del problema, è più indicato un determinato tipo di preprocessing rispetto ad un altro. |
Vecchio, Matteo Del Un'applicazione iOS per il riconoscimento di medicinali mediante reti neurali Masters Thesis 2017. Abstract | Links | BibTeX | Tags: applicazione iOS, classificazione, deep learning, fine tuning, gpu, iOS, Machine Learning, medicinali, metal performance shaders, mobile, python, reti neurali convoluzionali, riconoscimento, Smartphone, Swift, training, transfer learning @mastersthesis{amslaurea14890, title = {Un'applicazione iOS per il riconoscimento di medicinali mediante reti neurali}, author = {Matteo Del Vecchio}, url = {https://amslaurea.unibo.it/id/eprint/14890}, year = {2017}, date = {2017-01-01}, abstract = {Negli ultimi anni il Machine Learning e svariate sue applicazioni si sono prepotentemente affermati in molte aree, sia dell'informatica che della vita quotidiana, a partire dalle semplici operazioni svolte con uno smartphone. Un campo in cui si sono avuti notevoli risultati è quello della Visione Artificiale, ovvero dare la possibilità ad una macchina di "vedere" ed apprendere informazioni da immagini e fotografie. In questa tesi si affronta il problema di riconoscere un medicinale partendo dalla foto di una pillola, attraverso la creazione di una rete neurale convoluzionale (o ConvNet) e soprattutto, della sua implementazione all'interno di un'applicazione iOS che possa permettere la classificazione in mobilità. Si partirà dal considerare gli aspetti teorici alla base delle reti neurali, per poi illustrare lo stato dell'arte e le caratteristiche specifiche del modello convoluzionale. In seguito, si illustrerà PillRecogNet, la ConvNet realizzata e specializzata nel riconoscimento di 12 medicinali, insieme ad alcune delle tecniche utilizzare per l'allenamento, quali il transfer learning ed il fine tuning, e le relative statistiche sull'accuratezza. Sebbene una rete neurale convoluzionale sia un modello computazionalmente oneroso, si mostrerà com'è stato possibile implementare PillRecogNet in un'applicazione per smartphone, descrivendo prima alcune delle possibile tecnologie utilizzabili e, in seguito, le scelte implementative effettuate al fine di poter sfruttare la capacità di calcolo delle GPU dei dispositivi mobili. Infine, si mostreranno i risultati promettenti ottenuti, sia riguardo l'esecuzione di un modello da circa 28 milioni di parametri in uno smartphone, sia riguardo possibili sviluppi futuri quali l'utilizzo dell'applicazione in campo medico per la supervisione di una terapia farmacologica da parte del personale sanitario.}, keywords = {applicazione iOS, classificazione, deep learning, fine tuning, gpu, iOS, Machine Learning, medicinali, metal performance shaders, mobile, python, reti neurali convoluzionali, riconoscimento, Smartphone, Swift, training, transfer learning}, pubstate = {published}, tppubtype = {mastersthesis} } Negli ultimi anni il Machine Learning e svariate sue applicazioni si sono prepotentemente affermati in molte aree, sia dell'informatica che della vita quotidiana, a partire dalle semplici operazioni svolte con uno smartphone. Un campo in cui si sono avuti notevoli risultati è quello della Visione Artificiale, ovvero dare la possibilità ad una macchina di "vedere" ed apprendere informazioni da immagini e fotografie. In questa tesi si affronta il problema di riconoscere un medicinale partendo dalla foto di una pillola, attraverso la creazione di una rete neurale convoluzionale (o ConvNet) e soprattutto, della sua implementazione all'interno di un'applicazione iOS che possa permettere la classificazione in mobilità. Si partirà dal considerare gli aspetti teorici alla base delle reti neurali, per poi illustrare lo stato dell'arte e le caratteristiche specifiche del modello convoluzionale. In seguito, si illustrerà PillRecogNet, la ConvNet realizzata e specializzata nel riconoscimento di 12 medicinali, insieme ad alcune delle tecniche utilizzare per l'allenamento, quali il transfer learning ed il fine tuning, e le relative statistiche sull'accuratezza. Sebbene una rete neurale convoluzionale sia un modello computazionalmente oneroso, si mostrerà com'è stato possibile implementare PillRecogNet in un'applicazione per smartphone, descrivendo prima alcune delle possibile tecnologie utilizzabili e, in seguito, le scelte implementative effettuate al fine di poter sfruttare la capacità di calcolo delle GPU dei dispositivi mobili. Infine, si mostreranno i risultati promettenti ottenuti, sia riguardo l'esecuzione di un modello da circa 28 milioni di parametri in uno smartphone, sia riguardo possibili sviluppi futuri quali l'utilizzo dell'applicazione in campo medico per la supervisione di una terapia farmacologica da parte del personale sanitario. |
2015 |
Ballo, Mattia Big data, nosql e machine learning: un'applicazione di prediction e recommendation basata sulle api di Amazon Masters Thesis 2015. Abstract | Links | BibTeX | Tags: amazon, aws, big data, Machine Learning, MongoDB, node-webkit, nodejs, NoSQL, predictionio @mastersthesis{amslaurea9693, title = {Big data, nosql e machine learning: un'applicazione di prediction e recommendation basata sulle api di Amazon}, author = {Mattia Ballo}, url = {https://amslaurea.unibo.it/id/eprint/9693}, year = {2015}, date = {2015-01-01}, abstract = {In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione.}, keywords = {amazon, aws, big data, Machine Learning, MongoDB, node-webkit, nodejs, NoSQL, predictionio}, pubstate = {published}, tppubtype = {mastersthesis} } In questa tesi sono stati introdotti e studiati i Big Data, dando particolare importanza al mondo NoSQL, approfondendo MongoDB, e al mondo del Machine Learning, approfondendo PredictionIO. Successivamente è stata sviluppata un'applicazione attraverso l'utilizzo di tecnologie web, nodejs, node-webkit e le tecnologie approfondite prima. L'applicazione utilizza l'interpolazione polinomiale per predirre il prezzo di un bene salvato nello storico presente su MongoDB. Attraverso PredictionIO, essa analizza il comportamento degli altri utenti consigliando dei prodotti per l'acquisto. Infine è stata effetuata un'analisi dei risultati dell'errore prodotto dall'interpolazione. |