Explosão dos dados: a chave está no modelo

Israel Serrano, country manager da Infinidat para Portugal e Espanha, defende que existe uma clara necessidade de mudar as arquitecturas de armazenamento e a forma como é feita a gestão de dados, para impulsionar o negócio,

Israel Serrano, country manager da Infinidat para Portugal e Espanha

A explosão no volume dos dados com que as empresas lidam diariamente é assunto corriqueiro em todo o mundo. Já todos sabemos que os dados crescem vertiginosamente e chega a dar vertigens ver os números que circulam por aí.

Mas o assustador é que muitos destes números podem ser uma estimativa conservadora daquela que será a realidade nas empresas. Mas, ao contrário do que muitos defendem, a razão não está na própria tecnologia de armazenamento, ou das aplicações. A razão reside no mundo da segurança.

De acordo com os dados do último Relatório sobre Fugas de Dados da Verizon, em 2017 foram registadas quase 2.000 falhas de segurança, 84% causadas por factor humano. Ataques impressionantes ataques começaram a ser mediatizados, uns atrás dos outros, incluindo ataques de ransomware que custaram milhões de dólares a muitas empresas.

Para poder lutar contra estes ataques cada vez mais sofisticados, está mais do que provado que as organizações vão ter que adoptar novas ferramentas de segurança, baseadas em modelos big data, já que os ataques passarão a ser tão sofisticados que serão necessários mais dados para os identificar e mitigar.

Mas, isto vai ter um impacto decisivo no âmbito do armazenamento e da gestão da informação. Se pensarmos no número de incidentes de segurança que será necessário recolher, analisar, correlacionar, para lutar apenas contra um destes ciberataques, estamos a falar de passar de terabytes a petabytes como ordem de medida standard. E, neste sentido, o desenho e a definição da infra-estrutura tecnológica irão tornar-se críticos.

Porque as arquitecturas tradicionais já não chegam

Estas e outras soluções de big data vão passar a ser mais uma parte da infra-estrutura, que começará a consumir recursos. Assim sendo, se não se construir uma infra-estrutura de uma forma eficiente, o orçamento de TI aumentará e a inovação ficará para trás. Sabemos que reduzir os custos será essencial para o êxito das organizações, mas as antigas arquitecturas convergentes, de tipo “Servers-Only-No-Storage”, estão a causar uma séria inflação dos custos.

Devido ao exponencial crescimento dos grandes volumes de dados, o custo de manter múltiplas cópias por ponto está a começar a ter um forte impacto financeiro. Ao mesmo tempo, as soluções de armazenamento externo para ambientes de big data vieram melhorar a situação nos últimos anos, eliminando a limitação original que levou a Google, por exemplo, a escolher uma estrutura de dados distribuída.

Desagregação: uma tendência em crescimento

Para resolver este problema, alguns sistemas propõem um novo modelo de arquitectura baptizado como “desagregação” (disaggregation). É uma tendência que surgiu no mercado há cerca de ano e meio, mas que está hoje realmente a atingir o seu auge.

Esta tecnologia permite desagregar os dados da computação, colocando-os numa cabina dedicada, de forma que cada nó de computação pode aceder a centenas de discos ao mesmo tempo. Basicamente, o que estamos a fazer é resource pooling, ou seja, selecciona-se um conjunto de recursos (neste caso, unidades de armazenamento), colocam-se numa pool, e acede-se a eles a partir de todos os nós à medida do que for sendo necessário. Imagine-se o impacto de uma solução que passe, por exemplo, de 10 cabinas para cinco ouseis, graças à redução no número de cópias e a uma melhor protecção de dados. Com isto, pode-se poupar muito dinheiro e, quanto maior for o projecto de big data, maior é esse impacto.

Em conclusão: a chave está no modelo

É evidente que existe uma clara necessidade de mudar as arquitecturas de armazenamento e a forma como é feita a gestão de dados, para impulsionar os negócios. E o sucesso desta missão dependerá em grande medida da abordagem que se adopte. Pegando de novo no exemplo da virtualização, a sua empresa atrever-se-ia a executar hoje aplicações num servidor físico? A resposta é clara: não, porque isso seria um desperdício de recursos.

Passar de soluções convergentes de big data para arquitecturas desagregadas é hoje basicamente o mesmo, se forem usadas tecnologias ineficientes de big data, que obrigam a armazenar os dados várias vezes em cada sítio, abrandando o negócio. Vai ser necessário adoptar novas abordagens e modelos, como a desagregação, para construir uma arquitectura inteligente, logo desde o momento zero, ou seja, do desenho.

Israel Serrano, country manager da Infinidat para Portugal e Espanha




Deixe um comentário

O seu email não será publicado