Tecnologia

Os requisitos de Shor para fatorar RSA-2048 caíram uma ordem de grandeza em menos de um ano

A aceleração do fim da criptografia assimétrica torna a migração pós-quântica uma questão urgente para a infraestrutura digital brasileira
Susan Hill

A criptografia que protege a infraestrutura digital moderna não falha no momento em que um computador quântico é construído. Falha no momento em que adversários adquirem capacidade quântica suficiente para decifrar os dados já coletados. Essa inversão temporal — a ameaça chega antes da máquina — define a estrutura real do problema do Q-Day e explica por que o déficit de preparação medido hoje se traduz diretamente em uma violação de segurança medida em anos.

O mecanismo em risco não é obscuro. A criptografia RSA, o padrão dominante de chave pública, depende de uma única assimetria matemática: multiplicar dois grandes números primos é computacionalmente trivial, mas recuperar esses fatores a partir do produto escala em dificuldade de forma tão acentuada que nenhum computador clássico consegue inverter a operação para chaves de 2048 bits ou mais dentro de qualquer prazo prático. Os handshakes TLS que protegem o tráfego web, as autoridades certificadoras que autenticam identidades, as assinaturas digitais que validam transações financeiras: toda a arquitetura da comunicação digital confiável repousa sobre essa assimetria.

O algoritmo de Shor, formalizado em 1994, demonstrou que a computação quântica dissolve essa assimetria completamente. Aproveitando a superposição quântica e as transformadas de Fourier quânticas para encontrar o período de uma função aritmética modular que codifica o problema da fatoração, um computador quântico suficientemente grande poderia recuperar chaves privadas RSA em horas, não nos bilhões de anos que uma máquina clássica exigiria. O algoritmo é conhecido há três décadas. O que mudou no último ano é a estimativa dos recursos necessários para executá-lo.

Os requisitos de hardware de um computador quântico criptograficamente relevante eram, até recentemente, tão enormes que funcionavam como uma barreira prática. As estimativas iniciais situavam o número de qubits físicos necessários para fatorar RSA-2048 em torno de um bilhão. Em 2021, Gidney e Ekerå tinham reduzido essa estimativa para aproximadamente vinte milhões de qubits operando por oito horas. Depois, em menos de doze meses entre 2024 e 2025, três avanços algorítmicos fizeram a estimativa colapsar mais uma ordem de grandeza.

O primeiro foi uma reestruturação de como se executa a exponenciação modular, a operação computacional central no algoritmo de Shor. A abordagem clássica exigia registradores quânticos grandes o suficiente para conter inteiros de 2048 bits simultaneamente. A aritmética modular aproximada, desenvolvida por Chevignard, Fouque e Schrottenloher, substituiu isso por uma abordagem segmentada que calcula a exponenciação em partes usando registradores muito menores, tolerando erros controlados que podem ser corrigidos posteriormente. O computador quântico não precisa mais manter o problema completo na memória de uma só vez. O segundo avanço abordou o principal gargalo de custo na computação quântica tolerante a falhas: gerar os estados quânticos de recursos especiais necessários para as operações de porta não corrigíveis por erro. A magic state cultivation, desenvolvida no Google Quantum AI, faz crescer estados de alta fidelidade a partir de estados de menor qualidade com uma sobrecarga drasticamente reduzida em relação à destilação tradicional. O terceiro avanço, sintetizado em um artigo de Craig Gidney em 2025, combinou ambas as técnicas e reduziu o número total de operações de porta Toffoli exigidas de cerca de dois trilhões para cerca de 6,5 bilhões, uma melhoria de mais de cem vezes na eficiência computacional.

O resultado combinado: fatorar RSA-2048 agora parece tecnicamente viável com aproximadamente um milhão de qubits físicos operando por cerca de uma semana. A lacuna de hardware entre esse requisito e os sistemas existentes permanece real, mas a trajetória de compressão mudou qualitativamente. Reduzir de um bilhão para vinte milhões de qubits levou doze anos; reduzir de vinte milhões para menos de um milhão levou menos de um. Essa aceleração é o sinal analiticamente importante.

Os avanços paralelos no hardware reforçam essa trajetória. O chip Willow do Google, demonstrado no final de 2024, forneceu a primeira confirmação experimental de que a correção de erros quânticos pode suprimir o ruído abaixo do limiar do código de superfície. O roteiro publicado pela IBM projeta o primeiro computador quântico tolerante a falhas em grande escala, com aproximadamente 200 qubits lógicos, para 2029. Múltiplas plataformas independentes demonstraram fidelidades de porta de dois qubits de 99,9% ou superior. A lacuna entre os requisitos teóricos de recursos e a capacidade de hardware demonstrada se comprimiu de múltiplas ordens de grandeza para algo próximo de uma única.

Essa compressão confere urgência material a uma ameaça tratada até agora como confortavelmente distante: coletar agora, decifrar depois. Os atores estatais e não estatais sofisticados que coletam tráfego de rede cifrado há anos possuem texto cifrado que se torna legível no momento em que existe um computador quântico criptograficamente relevante. O quadro temporal adequado para avaliar o risco do Q-Day não é quando os computadores quânticos serão construídos, mas por quanto tempo os dados cifrados hoje precisam permanecer confidenciais.

A resposta criptográfica a essa ameaça tem nome, um conjunto de padrões e um calendário de conformidade. A criptografia pós-quântica substitui os problemas de fatoração de inteiros e logaritmos discretos subjacentes ao RSA e à criptografia de curva elíptica por estruturas matemáticas consideradas resistentes a ataques clássicos e quânticos. A família principal adotada pelos organismos de normalização globais é a criptografia baseada em reticulados, que fundamenta sua segurança na dificuldade do problema do vetor mais curto e desafios geométricos relacionados em espaços de alta dimensão. Em agosto de 2024, o NIST finalizou três padrões criptográficos pós-quânticos. Em março de 2025, um quinto algoritmo, HQC, foi selecionado como alternativa baseada em códigos ao ML-KEM.

A existência de padrões não resolve o problema da migração. Inicia-o. As transições criptográficas dessa dimensão precisaram historicamente de quinze a vinte anos para penetração completa na infraestrutura, e essa migração é estruturalmente mais complexa do que qualquer precedente. A infraestrutura de chave pública precisa ser rearquitetada em cada camada. Os módulos de segurança de hardware que armazenam e gerenciam chaves precisam ser substituídos ou atualizados; as autoridades certificadoras precisam emitir novas hierarquias de credenciais; as implementações TLS em bilhões de pontos de extremidade precisam ser atualizadas; os protocolos incorporados em sistemas embarcados, infraestrutura de controle industrial e sistemas financeiros de longa vida precisam ser auditados e substituídos.

Para o Brasil, cuja infraestrutura digital inclui o Pix — um dos sistemas de pagamento instantâneo mais utilizados do mundo — e uma base crescente de serviços governamentais digitais, a urgência dessa migração tem dimensão estratégica. O Banco Central e as instituições financeiras que processam milhões de transações diárias por endpoints criptográficos precisam priorizar a agilidade criptográfica como requisito de resiliência sistêmica. O quadro regulatório respondeu com um calendário comprimido. A CNSA 2.0 da NSA exige que todos os novos sistemas de segurança nacional sejam quantum-safe até janeiro de 2027. O calendário de depreciação do NIST prevê remover algoritmos vulneráveis das normas aprovadas após 2035. A avaliação de preparação quântica do IBM Institute for Business Value de 2025 encontrou uma pontuação média global de apenas 25 em 100.

O conselho prático que emerge dessa paisagem técnica não é pânico, mas ação faseada e priorizada. O inventário criptográfico é o pré-requisito. Os sistemas que gerenciam dados com longos horizontes de confidencialidade devem ser priorizados para migração antecipada. As implementações criptográficas híbridas, combinando ML-KEM com algoritmos clássicos de troca de chaves em paralelo, oferecem uma ponte prática: os dados protegidos por um esquema híbrido exigem que um adversário quebre simultaneamente os componentes clássico e pós-quântico, elevando substancialmente o custo de qualquer ataque de coleta e decifragem diferida.

O que os desenvolvimentos algorítmicos de 2024 e 2025 alteraram fundamentalmente é a distribuição de incerteza em torno do Q-Day. O consenso anterior situava confortavelmente a computação quântica criptograficamente relevante nos anos 2030, com barras de erro significativas que se estendiam para os anos 2040. A compressão das estimativas de recursos para menos de um milhão de qubits, combinada com o roteiro da IBM para 2029 e a confirmação experimental do Google da correção de erros abaixo do limiar, deslocou as estimativas credíveis significativamente para a frente e estreitou o intervalo de incerteza.

A transição para a criptografia pós-quântica não termina com a implementação de algoritmos baseados em reticulados. Ela cria uma nova superfície criptográfica cuja segurança a longo prazo depende de suposições sobre a dificuldade de problemas geométricos em espaços de alta dimensão — suposições que resistiram a décadas de criptoanálise clássica, mas que ainda não foram submetidas ao teste dos computadores quânticos que eventualmente existirão em escala. O que o momento presente exige não é certeza sobre quando a computação quântica irá amadurecer, mas uma avaliação lúcida do que significa construir uma instituição cuja postura de segurança ainda se baseia na suposição de que fatorar grandes números primos é difícil. Essa suposição tem uma data de validade.

Discussão

Há 0 comentários.

```
?>