Além Fronteiras

Technology Live!: dados, resiliência e IA num ecossistema sob pressão

Do backup ao armazenamento para IA, passando pela soberania dos dados em ambientes SaaS, o Technology Live! de Londres reuniu Veeam, Hammerspace, Keepit e Solidigm para uma leitura prática sobre os desafios actuais da infraestrutura empresarial.

Rawpixel.com/Freepik

Três vezes por ano, em Paris, Londres e Munique, o Technology Live! reúne analistas e fornecedores tecnológicos num formato que contrasta com a lógica dominante dos grandes eventos do sector. Em vez de apresentações rápidas e mensagens cuidadosamente coreografadas, o encontro aposta em sessões mais longas, demonstrações técnicas detalhadas e espaço real para debate. A edição de Londres, que encerrou o calendário de 2025, confirmou essa identidade e colocou no centro da agenda um tema transversal a toda a indústria: o papel dos dados num contexto de fragmentação tecnológica, pressão geopolítica e aceleração da inteligência artificial. Veeam, Hammerspace, Keepit e Solidigm abordaram o problema a partir de ângulos diferentes, mas convergiram numa conclusão: a complexidade dos dados cresceu mais depressa do que a capacidade das organizações para os governar.

Da cópia de segurança à resiliência como estratégia empresarial
A Veeam abriu o programa com uma sessão que funcionou como fio condutor para grande parte das conversas que se seguiram. Rick Vanover e Michael Cade, ambos responsáveis de product strategy da empresa, procuraram desmontar a percepção histórica da Veeam como simples fornecedor de backup para ambientes VMware, defendendo um posicionamento centrado no conceito de data resilience. «A Veeam é, hoje, muito mais do que isso», afirmou Rick Vanover logo no início da apresentação, resumindo uma transformação que, segundo explicou, levou a empresa a cobrir hoje todo o ciclo de vida dos dados. Essa abordagem inclui não apenas backup e recuperação, mas também portabilidade, segurança, observabilidade e inteligência aplicada à gestão da informação.

Os números apresentados ajudaram a sustentar essa ambição. A Veeam conta actualmente com mais de 550 mil clientes, está presente em mais de 180 países e trabalha com 77% das empresas do Global 2000 e 82% das organizações da Fortune 500. Para 2025, a empresa aponta a um ARR de dois mil milhões de dólares, mantendo, segundo os responsáveis, posições de liderança em áreas como backup e recovery empresarial, protecção de dados Microsoft 365 e protecção de Kubernetes.

O lançamento da Veeam Data Platform v13, anunciado na véspera do evento, foi um dos pilares da sessão. Esta nova versão reforça as capacidades de recuperação instantânea, expande o suporte a diferentes hipervisores e integra de forma mais profunda mecanismos de segurança e análise forense. Michael Cade sublinhou que a inteligência artificial surge aqui como ferramenta operacional, não como promessa vaga. «As pessoas chegam até nós por causa do backup, mas apaixonam-se quando precisam de recuperar dados», afirmou, defendendo que a recuperação continua a ser o verdadeiro teste à maturidade tecnológica das organizações.

A aquisição anunciada da Securiti AI foi outro dos momentos-chave da apresentação. Embora o negócio ainda não esteja fechado, a Veeam deixou clara a intenção de reforçar a capacidade de compreender, classificar e governar dados, incluindo em ambientes de produção. Para Michael Cade, este passo é essencial num momento em que a inteligência artificial começa a ser integrada nos processos de negócio. «Não se pode falar de IA sem saber exactamente que dados existem, onde estão e quem tem autoridade sobre eles», afirmou.

Num mercado marcado pelas mudanças recentes no ecossistema da virtualização, a Veeam apresentou ainda uma estratégia de portabilidade assente num formato de dados único e num licenciamento universal. «Queremos encontrar os clientes onde estão e levá-los para onde querem ir», resumiu Rick Vanover, apontando para a futura Universal Hypervisor API, prevista para 2026, como elemento central dessa visão.

Dados em movimento numa IA que já não vive num único sítio
A Hammerspace trouxe para o palco um problema estrutural que atravessou várias conversas ao longo do dia: a fragmentação dos dados num mundo em que a inteligência artificial deixou de viver num único data center. Molly Presley, senior vice president of global Marketing, defendeu que muitas arquitecturas continuam presas a uma lógica ultrapassada. «A IA vai correr em todo o lado. O problema é que os dados não vivem num único sítio», afirmou, explicando que a proposta da Hammerspace passa por um plano de dados unificado, assente num namespace global que permite aceder à informação onde quer que esteja, sem cópias ou migrações forçadas.

Este modelo ganha especial relevância em cenários de IA distribuída, do edge à cloud, onde mover grandes volumes de dados se torna dispendioso ou tecnicamente inviável. Em vez disso, os responsáveis explicaram que a plataforma permite mover apenas a informação necessária, no momento certo, para onde existe capacidade de computação disponível. O conceito de Tier 0, que integra armazenamento NVMe local dos nós de computação como camada partilhada de alto desempenho, foi apresentado como exemplo de como aproveitar recursos já existentes e frequentemente subutilizados.

A sessão destacou ainda os resultados recentes no benchmark IO500, onde a Hammerspace demonstrou que arquitecturas baseadas em standards como Linux e NFS conseguem atingir desempenho de classe HPC, tradicionalmente associado a file systems proprietários. A mensagem foi que a camada de dados deixou de ser um elemento passivo e passou a ser determinante para o sucesso da inteligência artificial.

Quando a nuvem falha, a soberania deixa de ser um detalhe técnico
A Keepit abordou o tema a partir de um ângulo diferente, mas igualmente crítico: a dependência crescente de aplicações SaaS e a falsa sensação de segurança associada à cloud. Dan Middleton, vice president UK and Ireland, East Europe and MESA, foi directo ao ponto. «Vivemos num mundo ‘SaaS-first’, mas muitas empresas não têm controlo real sobre como os seus dados são protegidos», afirmou.

A proposta da Keepit distingue-se por operar uma infra-estrutura própria, fora dos grandes hyperscalers, garantindo controlo directo sobre os backups e respondendo a exigências crescentes de soberania e governação dos dados. Kim Larsen, chief information security officer, reforçou essa leitura com uma perspectiva marcada pela geopolítica e pela segurança. «Hoje a questão já não é apenas onde os dados estão, mas quem tem autoridade sobre eles», afirmou.

Do ponto de vista técnico, a empresa apresentou uma arquitectura de backup incremental permanente e uma abordagem transversal à protecção de múltiplas aplicações SaaS, da produtividade à gestão empresarial. Os responsáveis salientaram em Londres que a integração de inteligência artificial surge aqui de forma contida e pragmática, focada na descoberta, análise e governação da informação. «A nossa prioridade é resolver problemas reais dos clientes, não fazer marketing com IA», afirmou Mark Groves, product director da Keepit.

O armazenamento como pilar invisível da era da IA
A encerrar o programa, a Solidigm trouxe uma perspectiva mais física, mas não menos estratégica. Paul Palonsky e Scott Shadley defenderam que a indústria subestimou o impacto da inteligência artificial no armazenamento, sobretudo na fase de inferência. «Durante anos, o foco esteve no treino dos modelos. Agora percebemos que a inferência exige uma abordagem completamente diferente ao armazenamento», afirmou Paul Palonsky.

A aposta em SSD de altíssima capacidade, como o modelo de 122 terabytes apresentado pela empresa, responde a um cenário em que os dados deixam de ser frios e passam a estar constantemente em circulação entre camadas. Scott Shadley descreveu este fenómeno como o «aquecimento» dos dados, impulsionado por arquitecturas como RAG e modelos multi-agente. «Os dados já não estão parados. Estão sempre a mover-se», afirmou.

Além da densidade, a Solidigm destacou ganhos em eficiência energética, redução de espaço físico e inovação ao nível da refrigeração, incluindo soluções de arrefecimento líquido directo ao chip. Casos práticos de inferência no edge, com volumes de dados na ordem dos petabytes, ajudaram a ilustrar uma mensagem central: sem uma nova abordagem ao armazenamento, a promessa da inteligência artificial fica comprometida.

Apesar das diferenças de discurso e posicionamento, as quatro apresentações convergiram na constatação de que a maturidade tecnológica deixou de se medir apenas pela adopção de novas ferramentas e passou a depender da capacidade de controlar, proteger e activar os dados ao longo de todo o seu ciclo de vida.

Deixe um comentário