Generative Adversarial Networks (GAN) hanno avuto enormi applicazioni in Computer Vision. Eppure, nel contesto della scienza spaziale e dell'esplorazione planetaria, la porta è aperta a grandi progressi. Introduciamo strumenti per gestire i dati planetari dalla missione Chang'E-4 e presentiamo un framework per il trasferimento di stile neurale utilizzando la coerenza del ciclo dalle immagini renderizzate. Introduciamo anche una nuova pipeline in tempo reale per la localizzazione e la mappatura simultanea (SLAM) e l'odometria inerziale visiva (VIO) nel contesto dei rover planetari. Sfruttiamo le informazioni preliminari sulla posizione del lander per proporre un approccio SLAM a livello di oggetto che ottimizzi la posa e la forma del lander insieme alle traiettorie della telecamera del rover. Come ulteriore passaggio di raffinamento, proponiamo di utilizzare tecniche di interpolazione tra campioni temporali adiacenti; videlicet sintetizzando immagini inesistenti per migliorare la precisione complessiva del sistema. Gli esperimenti sono condotti nel contesto dell'Iris Lunar Rover, un nano-rover che sarà schierato su terreno lunare nel 2021 come ammiraglia della Carnegie Mellon, essendo il primo rover senza pilota d'America ad essere sulla Luna.