Logomarca Indústria 4.0

Governança de dados: qualidade e disponibilidade são desafios para organizações Data Driven

Por: Neylson Crepalde      04/07/2023

Em meados dos anos 2000, a principal preocupação das organizações Data Driven, ou seja, aquelas que tomam decisões baseadas em análise e interpretação de dados, era de estabelecer o próprio ambiente de dados para construir uma estratégia de Business Intelligence (Inteligência de Negócios, em tradução livre).

Anos se passaram e as empresas que priorizaram ter os dados como o centro da sua tomada de decisão começaram a ter alguns questionamentos. Dentre eles, estão: como integrar dados de sistemas diferentes fazendo com que eles "conversem" e respondam perguntas complexas da operação? Como assegurar que os indicadores do negócio sejam confiáveis? Como garantir que vamos tirar proveito de uma quantidade enorme de dados que temos à disposição?

Além disso, não muito diferente de hoje, a segurança do ambiente e dos dados é uma premissa para qualquer empresa. Dessa forma, investiu-se bastante em soluções e tecnologia para garantir autenticação e autorização eficientes, controle de acesso por perfis de atuação, criptografia, entre outras que propiciem a segurança necessária destas informações.

De lá para cá, o mercado tem avançado exponencialmente neste quesito e a arquitetura de dados chegou ao ponto de estabilidade tanto desejada no passado. Hoje, termos como Data Lake ou Data Warehouse, utilizados para armazenagem de dados, não são mais novidade e já fazem parte do cotidiano dos profissionais que trabalham na área. No entanto, passado esse primeiro momento, novos desafios relacionados à governança de dados se impõem às organizações Data Driven. E dois destes obstáculos chamam mais atenção pela frequência na escuta de clientes e parceiros.


Continua depois da publicidade


O primeiro ponto destacado relaciona-se à qualidade de dados. E não estamos falando de uma simples checagem ou verificação periódica manual, assegurando que os dados de consumo correspondam fielmente às fontes. Antes disso acontecer (se acontecer), é necessário que um sistema faça a verificação automática das informações, analisando todos os pontos de falha do processo. Além disso, a solução precisa ser capaz de gerar alertas automatizados e informativos para que o time técnico atue o mais rápido possível, garantindo informações completas e de alta qualidade.

Para além deste sistema robusto, ancorar as decisões da operação do negócio em dados exige que as informações estejam sempre disponíveis e atualizadas. Nesse sentido, o segundo aspecto que mais tem gerado comentários está na alta disponibilidade, que é outro grande desafio, pois, no caso destas informações não estarem à disposição dos usuários, toda logística de operação da empresa pode travar e prejuízos podem aparecer.

A garantia de alta disponibilidade dos dados é um dos assuntos mais comentados entre os executivos e está longe de sair da lista das principais pautas discutidas. Sua solução é complexa e exige atuação em diversas esferas, desde o desenho de uma arquitetura robusta, que passa pela escolha de tecnologias para a construção dos fluxos de dados, até a elaboração do ambiente de armazenamento.

Com isso, esse desafio torna-se particularmente interessante à medida que temos organizações complexas com diversos times atuando como produtores e consumidores destas informações. Os pontos de falha do processo, nesse caso, aumentam exponencialmente e a necessidade de garantir que os dados se movam de maneira consistente entre as equipes até a operação do negócio é imperativa.

A área de governança de dados, sem dúvida, é grande e compreende várias esferas. Contudo, a qualidade e a garantia de alta disponibilidade dos dados saltam aos olhos e têm um impacto direto no valor para o negócio.

*O conteúdo e a opinião expressa neste artigo não representam a opinião do Grupo CIMM e são de responsabilidade do autor.

Gostou? Então compartilhe:

Neylson Crepalde

Neylson Crepade é CDO (Chief Data Officer) da A3Data, consultoria especializada em dados e inteligência artificial. PhD em Sociologia Econômica e das Organizações e professor de Engenharia de Dados e Cloud Computing na PUC Minas.