Generative Adversarial Networks (GANs) têm tido aplicações tremendas em Visão Computacional. No entanto, no contexto da ciência espacial e da exploração planetária, a porta está aberta para grandes avanços. Apresentamos ferramentas para lidar com dados planetários da missão Chang'E-4 e apresentamos uma estrutura para transferência de estilo neural usando consistência de ciclo de imagens renderizadas. Também apresentamos um novo pipeline em tempo real para Localização e Mapeamento Simultâneos (SLAM) e Odometria Inercial Visual (VIO) no contexto de rovers planetários. Aproveitamos as informações prévias da localização do módulo de pouso para propor uma abordagem SLAM em nível de objeto que otimiza a pose e a forma do módulo de pouso junto com as trajetórias da câmera do rover. Como passo de refinamento, propomos o uso de técnicas de interpolação entre amostras temporais adjacentes; videlicet sintetizando imagens não existentes para melhorar a precisão geral do sistema. Os experimentos são conduzidos no contexto do Iris Lunar Rover, um nano-rover que será implantado em terreno lunar em 2021 como o carro-chefe da Carnegie Mellon, sendo o primeiro rover não tripulado da América a estar na Lua.