top of page

Lições sobre AI aplicada em imagens de satélite

  • Foto do escritor: João Ataide
    João Ataide
  • há 1 hora
  • 7 min de leitura
imagem de ia, cidade com localização

Modelo de Inteligência Artificial para sensoriamento remoto têm demonstrado cada vez mais resultados impressionantes em benchmarks acadêmicos, que no geral são conjuntos padronizado de dados e métricas usados para experimentar modelos em condições controladas. No entanto, ao migrar esses modelos para o ambiente operacional, onde decisões reais são tomadas, surgem diversos outros desafios técnicos, contextuais e operacionais no dia a dia.


Neste artigo, compartilho algumas das lições aprendidas mais importantes que tive na aplicação de IA em pipelines de dados geográficos. Vale ressaltar que foram aprendizados que tive ao desenvolver soluções deste tipo, onde os modelos precisam não apenas entregar acurácia dentro do esperado, mas sobreviver ao uso contínuo, lidar com variações e imperfeições dos dados e operar sobre restrições operacionais de cronograma e recurso.


O objetivo geral aqui é apresentar, que projetar uma solução robusta desde o início vai muito além de escolher bons modelos. Trata-se de enfrentar decisões difíceis a todo momento e em todas as etapas do processo. Palavras-chave como sensibilidade a trade-off, acurácia, escalabilidade, custo e confiabilidade tornam-se constantes no vocabulário de quem trabalha com esse tipo de projeto.


Lição 1: Resolução espacial é a escolha entre detalhamento e viabilidade

A escolha da resolução é uma das primeiras decisões que tomamos, pois, essa escolha impacta diretamente tanto no desempenho quanto no custo operacional dos modelos. Uma resolução mais alta, frequentemente aumenta o custo do projeto, diretamente pela necessidade de aquisição de imagens pagas, ou indiretamente pelo aumento da demanda computacional e tempo de processamento.

 

Por outro lado, essas imagens de alta resolução possuem o potencial de capturar padrões mais sutis no ambiente o que pode favorecer significativamente a identificação de maiores detalhes. Essa maior riqueza de detalhes, claramente não vem sem trade-off. Modelos treinados com imagens de alta resolução tendem a ser mais sensíveis a ruídos, exigem mais dados rotulados para chegar em uma generalização, além de impor maior custo de armazenamento, treinamento e processamento dos dados, podendo reduzir a escalabilidade do sistema, quando inferência a grandes áreas.

 

Já as resoluções mais baixas, embora menos precisas em termos espaciais, possibilitam análises em larga escala com menor custo computacional e financeiro. Em muitos casos, a redução da resolução pode ser compensada com estratégias robustas de modelagem, como agregações temporais, enriquecimento com variáveis auxiliares ou abordagens de multiescala e multissensorial.

 

Devido a isso, que a viabilidade técnica e econômica quando falamos de resolução espacial escolhida deve ser sempre ponderada com base no objetivo final do projeto, nos padrões que se deseja identificar, escala de mapeamento e a estrutura operacional disponível para treinar, validar e realizar inferência dos modelos. Decidir cedo por uma resolução inadequada pode comprometer todo o fluxo, tanto em termos de acurácia quanto de sustentabilidade operacional.


Lição 2: Alinhamento Temporal é um trade-off entre precisão e disponibilidade


Muitos projetos de sensoriamento remoto exigem o uso de séries temporais para capturar eventos recorrentes, mudanças graduais ou impactos súbitos sobre o território. Sensores como Sentinel-2, Landsat ou até mesmo imagens pagas como Worldview e Planet, oferecem diferentes resoluções espaciais e temporais, mas raramente todas estas capturam imagens nas mesmas datas. Isso impõe uma escolha crítica entre:


  • Aderência temporal estrita: prioriza precisão nas datas, mas resulta em escassez de dados.

  • Janela temporal ampliada: fornece mais observações, ao custo de maior ruído temporal.


Exemplos monitoramento contínuo, como detecção de supressão vegetal e até mesmo operações de cava em mineração, têm em comum é a relação direta com esses dilemas temporais, fazendo com que essas analises não estejam relacionadas somente acurácia dos modelos, mas uma ligação direta a essas escolhas, onde, na prática tendem a ter objetivo principal a tomada de decisão no tempo certo.


Geralmente, do ponto de vista do negócio, existem algumas métricas que costumamos acompanhar. Uma delas é a latência, no final das contas, latência é custo, atrasos na detecção de eventos podem gerar perdas catastróficas, financeiras, legais ou até piores, comprometendo a tomada de decisão no tempo ideal. Por isso, renunciar a parte da precisão temporal para garantir a disponibilidade pode não apenas ser aceitável, mas necessário em muitos casos.


Outra diretriz importante e necessária de ser considerada é a frequência, pois muitas vezes a frequência vence a precisão isolada. Detectar uma anomalia com cinco dias de atraso pode ser muito mais valioso do que identificá-la com apenas um dia de defasagem, mas apenas uma vez por mês. Em contextos práticos, alguns sistemas conseguem gerar alertas frequentes, mesmo com menor precisão pontual, que podem ser validados por um usuário e, assim, melhorar significativamente a capacidade de resposta e mitigação de problemas.


Por fim, e não menos importante, sempre existe o risco do over design, que, acredito que não preciso falar, mas ... essa eleva os custos e pode inviabilizar a operação. Soluções que exigem sincronicidade perfeita entre sensores ou que operam com janelas de coleta excessivamente estreitas tendem a se tornar tão sofisticadas e complexas que a operação se torna inviável ao entrarem em conflito com o ciclo real de tomada de decisão e com as limitações físicas do ambiente, muitas dessas soluções acabam se tornando disfuncionais.


Lição 3: Mascaramento de Nuvens é uma "Decisão Invisível"


Nuvens, para a gente é um dos únicos ruídos que não temos como controlar, que não sabemos quando vai ocorrer e nem se, em uma determinada passagem do satélite, haverá alguma coleta de imagem que nos permita visualizar a paisagem. Esse é um dos principais desafios do nosso dia a dia, por serem grandes fontes de ruído e erros nos produtos gerados a partir de imagens de satélite.


As nuvens alteram significativamente as assinaturas espectrais, obstruem os alvos de interesse e comprometem a confiabilidade dos modelos, especialmente em ambientes tropicais como o nosso, onde sua ocorrência é persistente e sazonalmente elevada.


Porém, existem soluções para isso, o mascaramento de nuvens, que embora seja essencial em diversas aplicações, é muitas vezes negligenciado ou tratado como uma etapa meramente técnica. Na prática, trata-se de uma decisão invisível, que impacta diretamente a disponibilidade, a representatividade e a robustez das análises.


Existem algumas aplicações de mascaramentos de nuvens, entretanto, dois tipos de modelagens são os mais abordados:


  • Máscaras conservadoras: Aquela máscara que removem qualquer pixel com suspeita mínima de nuvem ou sombra, retirando todos os pixels mais claros e mais escuros, tendem a reduzir significativamente a contaminação espectral, mas por outro lado podem eliminar umas grandes porções de pixels válidos, em especial em regiões com alta cobertura de nuvens, o que pode inviabilizar análises consistentes ou criar lacunas.

  • Máscaras permissivas: Já os modelos permissivos, por outro lado, preservam maior cobertura espacial e temporal, mas aumentam o risco de incorporar contaminações, pois essas informações nãos er tratadas como pixels válidos, o que pode causar a degradação do desempenho do modelo, introduzem ruído nos padrões de séries temporais e causar confusões entre as classes.


Entretanto, a decisão de qual das duas escolher não deve ser fechada em uma só, aplicando uma das duas para todo tipo de problema, essa decisão deve ser contextual, orientada por dados e alinhada com o objetivo final da aplicação. Uma máscara mal calibrada pode ser tão prejudicial quanto a ausência dela. Portanto, o mascaramento precisa ser tratado como parte integrante do design da solução, e ser validada sistematicamente seus impactos no treinamento, inferência, métricas.


Lição 4: Um modelo não escala sozinho


Quem me dera treinar um modelo com algumas amostras sobre uma região de interesse e, pronto, a solução estar pronta. Mas, infelizmente, as coisas não funcionam assim.


Para que uma solução entre em produção, ela não pode avaliar apenas por métricas de desempenho. Um modelo de classificação ou predição não deve ser julgado unicamente por indicadores tradicionais como acurácia ou F1-score.


Mesmo modelos tecnicamente robustos e bem treinados tornam-se inviáveis se demorarem horas ou dias para processar uma área de interesse. O maior gargalo, na maioria das vezes, não está no modelo em si, mas nos tempos de leitura, pré-processamento, escrita dos dados e nas etapas de pós-processamento. Por isso, torna-se imprescindível usar estratégias:

  • Leitura em blocos (windowed reading) com rasterio.windows ou GDAL;

  • Divisão em tiles espacialmente otimizados;

  • Execução paralela distribuída via multiprocessing ou Dask.

  • Uso de containers como Docker para garantir reprodutibilidade, isolamento de ambientes e fácil implantação em diferentes infraestruturas.


A lição mais importante é que para um modelo ser bom, precisamos projetar seus pipelines de forma robusta, considerando diversos pontos importantes no desenvolvimento, como:

  • Balanceamento de carga por tile, garantido distribuição igualitária do processamento.

  • Processamento em batches de tiles, otimizando o uso de recursos e facilitando a paralelização.

  • O controle de uso de memória durante leitura e escrita, especialmente quando lidamos com regiões de interesse muito grandes e grande volumes de dados.

  • A paralelização eficiente, priorizando estratégias que maximizem o desempenho sem introduzir overhead desnecessários;

  • A compatibilidade com sistemas de orquestração como Airflow, ou pipelines serverless em cloud, viabilizando automação, escala e monitoramento do fluxo e custos.


Além disso, devemos realizar a escolha dos frameworks considerando não apenas o volume de dados, mas o ecossistema de tecnologias adotadas das equipes, custo operacional, facilidade de manutenção ou até o uso de containers como parte de uma estratégia de DevOPs e MLOps.


Conclusão

 

Aplicar Inteligência Artificial em projetos de sensoriamento remoto vai muito além de alcançar métricas de acurácia em ambientes controlados. É, antes de tudo, um exercício contínuo de engenharia, tomada de decisão contextual e de gestão entre o que é tecnicamente ideal e o que é operacionalmente viável.

 

No mundo real, os modelos enfrentam variações imprevisíveis nos dados, restrições logísticas e exigências de escala que raramente aparecem nos modelos mais acadêmicos. Modelos robustos não nascem apenas de boas arquiteturas, mas de pipelines cuidadosamente desenhados, que saibam lidar com incertezas, ruídos, e exigências de performance sob pressão.

 

Quando for projetar uma solução desse tipo, lembre-se que não se trata de uma tarefa puramente algorítmica. É uma prática de engenharia, onde avaliações entre custo, desempenho, acurácia e confiabilidade. E, principalmente, onde soluções simples, mas bem calibradas, quase sempre superam abordagens sofisticadas, porém frágeis, frente à realidade do uso contínuo.

Comments


bottom of page