Localitzar una càmera des d'una única imatge en una àrea visitada prèviament te aplicació en en molts camps, com ara la robòtica, la conducció autònoma i la realitat augmentada/virtual. En aquesta tesi, proposem solucions per utilitzar l'aprenentatge profund per millorar la re-localització de la càmera des d'una sola imatge. Després del capítol introductori, definim i afrontem les limitacions dels enfocaments actuals i proporcionem solucions impulsades per Dades en els següents capítols. En el segon capítol proposem un mètode que aprèn un prior geomètric per a detectar regions fiables en una escena determinada. Aquest mètode selecciona característiques de píxels fiables de la imatge única d' entrada i estima les seves coordenades 3D corresponents directament per a l'estimació de la posició i orientació de la càmera. Evita seleccionar punts clau (per tant, els punts 3D corresponents) de regions d'imatge no discriminats com el cel i els arbres, objectes dinàmics com cotxes i vianants, i les oclusions. En evitar aquestes fonts atípiques, el mètode proposat selecciona un nombre controlable de correspondències, millorant l'eficiència de la localització i la seva precisió.
En el tercer capítol proposem aprofitar una nova xarxa de restriccions geomètriques espacials i temporals en forma de poses de càmera relativa que s'obtenen de càmeres adjacents i distants per tal de guiar la formació d'una xarxa profunda per a la localització. En aquest context, la xarxa profunda actua com el mapa de l'escena. Utilitzant les nostres restriccions, guiem la xarxa per codificar aquestes restriccions geomètriques en els seus pesos.
En el quart capítol proposem una nova estratègia per a utilitzar les etiquetes mínimes disponibles (és a dir, la pose) per a un mètode d'estimació de posició impulsada per dades per obtenir la geometria de l'escena. El marc de treball proposat utilitza un mòdul d'alineació rígid diferenciable per passar gradients a la xarxa profunda per tal d'ajustar la geometria apresa. Aprèn dues representacions geomètriques en 3D (coordenades X, Y, Z) de l'escena, una en el marc de coordenades de la càmera i l'altra en el marc de coordenades global. Com a resultat, el mètode proposat aprèn i incorpora restriccions geomètriques per a una estimació de posició més precisa.
En el cinquè capítol proposem explorar la potència dels models generatius per a la generació de dades per a la localització basada en dades. Contribuïm així amb un nou mètode de centrat en dades per a generar correspondències en diferents condicions de visualització i il·luminació per potenciar la robustesa de la localització cap a canvis a llarg termini (dia-nit, meteorològic, estacional). El mètode proposat representa l'escena amb un nombre de representacions implícites (basades en NeRFs), cadascuna correspon a una condició d'il·luminació diferent. En conseqüència, utilitza la geometria subjacent basada en aquestes representacions per generar correspondències precises entre les diferents variacions d'il·luminació. En utilitzar aquestes correspondències millora la localització davant dels canvis a llarg termini.
En el sisè capítol proposem un model generatiu basat en punts per sintetitzar punts de vista novells. El treball proposat apunta i resol un problema desajustament entre la geometria (núvol de punt) i l'aparença (imatges), que genera representacions degradades. El mètode proposat utilitza un gràfic de connectivitat entre aparença i geometria. En contrast amb l'ús de tot el núvol de punts d'una escena, recupera punts d'un gran núvol de punts que s'observen des de la perspectiva de la càmera actual i els utilitza per a la representació. Això fa que el mètode de representació sigui més ràpida i escalable. La nostra proposta utilitza la reconstrucció d'imatges amb un entrenament adversari generatiu per millorar la qualitat de representació.
| Data del Ajut | 11 d’oct. 2024 |
|---|
| Idioma original | Anglès |
|---|
| Supervisor | Shile Li (Director/a) |
|---|
Improving Mapping and Localization using Deep Learning
Altillawi, M. (Autor). 11 d’oct. 2024
Tesi d’estudis: Tesi doctoral
Altillawi, M. (Autor), Li, S. (Director/a),
11 d’oct. 2024Tesi d’estudis: Tesi doctoral
Tesi d’estudis: Tesi doctoral