Consulta ofertes d'altres estudis i especialitats
L'objectiu del projecte consisteix en classificar un conjunt d'espècies a partir d'imatges reals d'ocells. S'estudiaran diferents solucions basades en característiques locals i/o deep learning.
Els detalls es donaran a l'alumne personalment
L'objectiu d'aquest treball és dissenyar i implementar un mecanisme de coherència de les dades en memòria cache-L1 i memòria RAM compartida en un entorn de MCU multicore mitjançant un component de software (CacheManager). Com a part del treball es realitzarà una prova de concepte sobre alguna placa d'avaluació.
En algunes aplicacions de sistemes encastats de temps real l'ús de memòria cache redueix la latència d'accés a dades d'ús freqüent per part de la CPU, això incrementa el rendiment de la CPU, permet realitzar més tasques en paral·lel en sistemes multicore i redueix el consum d'energia.
Normalment els microcontroladors (MCUs) multicore disposen d'una cache de nivell L1 exclusiva per cada nucli. Quan s'executen tasques en paral·lel en diferents nuclis que fan servir les mateixes dades compartides (per exemple en RAM), les dades en cache han de tenir una còpia el més actualitzada possible de les dades en memòria compartida. Això requereix implementar mecanismes de coherència per garantir la consistència de les dades entre la cache de cada nucli i la memòria compartida, de manera que tots els nuclis treballin amb les mateixes dades.
Existeixen solucions de hardware que implementen aquest tipus de mecanismes en l'entorn dels microprocessadors (MPUs), amb caches compartides de nivell L2 o L3, però habitualment els MCUs no en disposen. Així que, en aquest cas, es vol desenvolupar una solució per software.
L'entorn de validació es decidirà segons els següents criteris: kit de desenvolupament amb hardware adequat al problema, disponibilitat, cost, disponibilitat d'eines software de desenvolupament (SDK, IDE, compiladors).
In the proposed project, we are interested in the mobile setting, and propose the use of depth information, on top of the usual RGB (Red, Green, Blue) pixel data acquired by mobile device cameras, to track and quantify visual attention.
Automatic gaze tracking methods have been used in the recent years for various purposes, including measuring ad attention or enabling for gesture-less user-device interactions. Most of these methods have been tested in the desktop setting, while the few reported attempts that addressed the mobile setting report low accuracy and require continuous calibration. Additionally, the aforementioned methods rely on expensive sensors, such as infrared eye trackers, that limit their scaling capacity. Other methods employ touch-based interactions (e.g., tracking zoom/pinch gestures and scroll activity) to produce an estimation of the user gaze which, at best, are weakly correlated with visual attention. However, 42% of the time spent on websites is by mobile users, while similar trends are reported for the percentage of page views per visit, which creates an opportunity for a novel attention measurement technology to take root; one which can offer accurate, reliable, and scalable measurements.
In the proposed project, we are interested in the mobile setting, and propose the use of depth information, on top of the usual RGB (Red, Green, Blue) pixel data acquired by mobile device cameras, to track and quantify visual attention. Depth information can either be estimated with post computer visual processing or acquired directly with high precision, using advanced LiDAR sensors that newer smartphone models are currently equipped with. Furthermore, we propose the use of "lightweight" Deep Learning (DL) techniques to achieve an accurate and robust gaze point estimation without the need of extensive calibration. Unlike prior art, we will consider the use of historical information to inform future predictions and will examine how such models can be tailored to each user by injecting personalized data. In addition, we propose a more lightweight Neural Network (NN) architecture, suitable for the processing power of mobile devices, that also leverages the use of video or photo frames with depth sensory data.
The candidate will:
© Facultat d'Informàtica de Barcelona - Universitat Politècnica de Catalunya - Avís legal sobre aquest web - Configuració de privadesa