A Nova Física da Inteligência: Computação Termodinâmica e o Fim do Paradigma Digital Determinista

O Horizonte de Eventos Energético: A Crise da Computação Contemporânea

A Nova Física da Inteligência: Computação Termodinâmica e o Fim do Paradigma Digital Determinista
Susan Hill
Susan Hill
Editor da seção de tecnologia. Ciência, programação e, como todos nesta revista, apaixonado por cinema, entretenimento e arte.

A civilização tecnológica encontra-se diante de um paradoxo existencial. Enquanto a demanda por inteligência artificial (IA) cresce exponencialmente, impulsionada pela proliferação de Grandes Modelos de Linguagem (LLMs) e sistemas generativos, a infraestrutura física que sustenta esses avanços aproxima-se rapidamente de limites termodinâmicos insuperáveis. A narrativa predominante da Lei de Moore — a duplicação constante de transistores e eficiência — começou a fraturar-se, não por incapacidade de miniaturização, mas devido às restrições fundamentais de dissipação de calor e consumo energético. Neste contexto crítico emerge a computação termodinâmica, uma mudança de paradigma que promete não apenas mitigar a crise energética, mas redefinir a própria natureza do processamento da informação.

A Tirania do Watt na Era da IA Generativa

A arquitetura de computação atual, baseada no modelo de von Neumann e na lógica booleana determinista, enfrenta o que os especialistas chamam de “Muro Energético”. O treinamento e a inferência de modelos de IA avançados dependem quase exclusivamente de Unidades de Processamento Gráfico (GPUs), como a onipresente NVIDIA H100. Uma única dessas unidades possui um consumo de projeto térmico (TDP) de 700 watts e, quando agrupadas em sistemas HGX H100, o consumo ultrapassa os 2.000 watts por rack. Essa densidade de potência transforma os data centers modernos em fornalhas digitais que exigem infraestruturas de refrigeração massivas, consumindo água e eletricidade em escalas industriais.

Os dados macroeconômicos corroboram a iminência desta crise. O Goldman Sachs projeta que a demanda global de energia por parte dos data centers aumentará 165% até o final da década. Por sua vez, a Agência Internacional de Energia (AIE) estima que o consumo elétrico dos data centers poderá duplicar até 2026, atingindo 1.000 TWh, um número comparável ao consumo total de eletricidade do Japão. Esse crescimento não é linear, mas segue a curva exponencial da complexidade dos modelos de IA, criando uma situação insustentável onde 92% dos executivos de data centers já identificam as restrições da rede elétrica como o principal obstáculo para a escalabilidade.

A Ineficiência Intrínseca do Determinismo

O problema fundamental não reside apenas na quantidade de computação, mas na sua qualidade física. A computação digital contemporânea opera sob um regime de supressão de ruído. Para garantir que um bit seja inequivocamente um 0 ou um 1, os transistores devem operar em voltagens que superam em muito o “ruído térmico” natural dos elétrons. Essa luta constante contra a entropia — o esforço para manter uma ordem perfeita em um meio físico caótico — acarreta um custo energético exorbitante.

Cada operação lógica em um processador digital implica carregar e descarregar capacitores e mover elétrons através de resistências, gerando calor residual que não contribui para o cálculo, mas representa energia desperdiçada na “fricção” de impor o determinismo. Como apontam os pesquisadores, os sistemas convencionais “pagam energia” para suprimir a estocasticidade. Além disso, a separação física entre a memória e a unidade de processamento (o gargalo de von Neumann) significa que uma grande parte da energia é gasta simplesmente movendo dados de um lugar para outro, e não processando-os.

A Alternativa Termodinâmica

Diante deste cenário, a computação termodinâmica propõe uma inversão radical dos princípios operacionais. Em vez de gastar energia para combater o ruído térmico, esta disciplina busca aproveitá-lo como recurso computacional. Baseia-se na premissa de que a natureza calcula de maneira eficiente através de processos de relaxamento em direção ao equilíbrio térmico. Ao alinhar a arquitetura computacional com a física subjacente da informação, torna-se possível realizar tarefas complexas — especificamente a amostragem probabilística exigida pela IA generativa — com uma eficiência ordens de magnitude superior à dos transistores digitais.

Essa abordagem não é meramente teórica. Empresas como a Extropic e a Normal Computing começaram a fabricar hardware que materializa esses princípios, prometendo eficiências até 10.000 vezes superiores às tecnologias atuais. Este relatório analisa exaustivamente o estado desta tecnologia, seus fundamentos físicos, os principais atores e as implicações geopolíticas e econômicas de uma transição para a computação baseada na física.

Fundamentos Físicos: Do Bit Determinístico ao P-Bit Estocástico

Para compreender a magnitude da inovação que a computação termodinâmica representa, é imperativo descer ao nível físico da operação dos circuitos. A diferença entre um chip convencional e uma Unidade de Amostragem Termodinâmica (TSU) não é de grau, mas de classe ontológica.

Termodinâmica do Não-Equilíbrio e Computação

A teoria geral que sustenta esses avanços é a física estatística do não-equilíbrio, frequentemente denominada termodinâmica estocástica. Este campo fornece as ferramentas para analisar sistemas que estão longe do equilíbrio térmico, como os computadores. Na computação clássica, segue-se o princípio de Landauer, que estabelece um limite inferior teórico para a energia necessária para apagar um bit de informação, dissipando calor para o ambiente. No entanto, a computação termodinâmica opera sob dinâmicas diferentes.

Os dispositivos termodinâmicos são projetados para evoluir sob dinâmicas de Langevin (amortecidas ou subamortecidas). Isso significa que o sistema físico “busca” naturalmente seu estado de energia mínima. Se um problema matemático for codificado na paisagem energética do dispositivo, o sistema resolverá o problema simplesmente relaxando em direção ao seu estado de equilíbrio térmico. Neste paradigma, o cálculo não é uma série de passos lógicos forçados, mas um processo físico natural, análogo a como uma gota d’água encontra o caminho mais rápido montanha abaixo ou como uma proteína se dobra em sua configuração ideal.

O Bit Probabilístico (p-bit)

A unidade fundamental desta nova arquitetura é o p-bit (bit probabilístico). Diferente de um bit digital, que é estático até que se ordene sua mudança, um p-bit flutua continuamente entre 0 e 1 em escalas de tempo de nanossegundos, impulsionado pelo ruído térmico ambiental. No entanto, essa flutuação não é completamente aleatória; pode ser enviesada (biased) através de voltagens de controle para que o p-bit passe, por exemplo, 80% do tempo no estado 1 e 20% no estado 0.

Esse comportamento imita as distribuições de probabilidade. Ao conectar múltiplos p-bits entre si, cria-se um circuito que representa uma distribuição de probabilidade conjunta complexa. Quando se “lê” o estado do circuito em um dado momento, obtém-se uma amostra válida dessa distribuição. Isso é crucial porque a IA generativa moderna trata fundamentalmente de probabilidades: prever a próxima palavra mais provável ou gerar o pixel mais plausível em uma imagem.

Amostragem Nativa vs. Simulação Digital

A vantagem de eficiência de “10.000x” proclamada pela Extropic surge dessa diferença estrutural. Em uma GPU digital (determinística), gerar uma amostra aleatória de uma distribuição complexa requer a execução de algoritmos pseudoaleatórios (PRNG) que consomem milhares de ciclos de clock e milhões de transições de transistores. A GPU deve simular o acaso através de aritmética determinística complexa.

Em contraste, o chip termodinâmico gera a amostra de forma nativa. Ele não simula o ruído; o ruído é o motor do cálculo. A física faz o trabalho pesado de gerar a aleatoriedade, eliminando a necessidade de Unidades Lógicas e Aritméticas (ALU) complexas para essa tarefa específica. É, em essência, computação analógica assistida por ruído, onde o meio físico realiza a operação matemática instantaneamente.

Característica OperacionalComputação Digital (GPU/CPU)Computação Termodinâmica (TSU)
Unidade BásicaTransistor CMOS (Switch Determinístico)p-bit (Oscilador Estocástico)
Relação com o RuídoSupressão (Ruído = Erro)Utilização (Ruído = Recurso/Combustível)
Mecanismo de CálculoAritmética Booleana SequencialRelaxamento Físico para Estado de Energia Mínima
Consumo EnergéticoAlto (Luta contra a termodinâmica)Mínimo (Flui com a termodinâmica)
Aplicação IdealCálculos precisos, lógica exataInferência probabilística, Otimização, IA Generativa

Extropic: Arquitetura e Estratégia da Incerteza

A Extropic, sediada nos Estados Unidos, posicionou-se como a ponta de lança comercial desta tecnologia. Fundada por Guillaume Verdon (ex-físico do Google e conhecido na esfera digital como “Beff Jezos”, líder do movimento de aceleracionismo efetivo ou e/acc) e Trevor McCourt, a empresa passou da teoria para a fabricação de silício tangível.

O Chip X0: Validação do Silício Probabilístico

O primeiro marco tangível da Extropic é o chip X0. Este dispositivo é um protótipo de teste projetado para validar que os circuitos probabilísticos podem ser fabricados utilizando processos de semicondutores padrão e operar à temperatura ambiente. Diferente dos computadores quânticos que requerem temperaturas próximas do zero absoluto, o X0 utiliza o calor ambiental como fonte de entropia.

O X0 abriga uma família de circuitos projetados para gerar amostras de distribuições de probabilidade primitivas. Sua função principal foi confirmar a precisão dos modelos de ruído da Extropic: demonstrar que se pode projetar um transistor para ser “ruidoso” de uma maneira previsível e controlável. Essa conquista é significativa porque a indústria de semicondutores passou 60 anos otimizando processos para eliminar o ruído; reintroduzi-lo de maneira controlada requer um domínio profundo da física dos materiais.

Plataforma de Desenvolvimento XTR-0

Para permitir que pesquisadores e desenvolvedores interajam com esta nova física, a Extropic lançou a plataforma XTR-0. Este sistema não é um computador independente, mas uma arquitetura híbrida. Fisicamente, consiste em uma placa-mãe trapezoidal que abriga uma CPU convencional e um FPGA, conectada a duas placas secundárias (daughterboards) que contêm os chips termodinâmicos X0.

A função da XTR-0 é servir de ponte. A CPU gerencia o fluxo de trabalho geral e a lógica determinística, enquanto o FPGA atua como um tradutor de alta velocidade, enviando instruções e parâmetros aos chips X0 e recebendo as amostras probabilísticas geradas. Esta arquitetura reconhece uma realidade pragmática: os computadores termodinâmicos não substituirão os digitais para tarefas como executar um sistema operacional ou processar uma planilha. Seu papel é o de aceleradores especializados, análogos a como as GPUs aceleram gráficos, mas dedicados exclusivamente à carga de trabalho probabilística da IA.

O Chip Z1 e a Visão de Escala

O objetivo final da Extropic não é o X0, mas o futuro chip Z1. Projeta-se que este dispositivo abrigará centenas de milhares ou milhões de p-bits interconectados, permitindo executar modelos de IA generativa profundos inteiramente no substrato termodinâmico. As simulações realizadas pela empresa sugerem que este chip poderia executar tarefas de geração de imagens ou texto consumindo 10.000 vezes menos energia do que uma GPU equivalente.

A arquitetura do Z1 baseia-se em uma conectividade local massiva. Diferente das GPUs, onde os dados viajam longas distâncias através do chip (consumindo energia), no design da Extropic, a memória e a computação estão entrelaçadas. Os p-bits interagem apenas com seus vizinhos imediatos, criando uma rede de interações locais que, em conjunto, resolvem problemas globais. Isso elimina grande parte do custo energético do movimento de dados.

Algoritmos Nativos: O Modelo Termodinâmico de Redução de Ruído (DTM)

Hardware revolucionário requer software revolucionário. Tentar executar algoritmos de aprendizado profundo padrão (baseados em multiplicação de matrizes determinística) em um chip termodinâmico seria ineficiente. Por isso, a Extropic desenvolveu uma nova classe de algoritmos nativos.

Modelos Baseados em Energia (EBMs)

A base teórica do software da Extropic são os Modelos Baseados em Energia (Energy-Based Models ou EBMs). No aprendizado de máquina, um EBM aprende a associar uma “energia” baixa aos dados que parecem realistas (como a imagem de um gato) e uma energia alta ao ruído ou dados incorretos. Gerar dados com um EBM envolve encontrar configurações de baixa energia.

Os EBMs existem teoricamente há décadas, mas caíram em desuso frente às redes neurais profundas porque treiná-los e usá-los em computadores digitais é extremamente lento. Requerem um processo chamado Amostragem de Gibbs, que é computacionalmente proibitivo em uma CPU ou GPU. No entanto, o chip da Extropic realiza a Amostragem de Gibbs de forma nativa e quase instantânea. O que é uma fraqueza para o silício digital é a força fundamental do silício termodinâmico.

Denoising Thermodynamic Model (DTM)

O algoritmo principal da Extropic é o Modelo Termodinâmico de Redução de Ruído (DTM). Este modelo funciona de maneira similar aos modelos de difusão modernos (como os que impulsionam o Midjourney ou o Stable Diffusion), que começam com ruído puro e o refinam progressivamente até obter uma imagem clara.

No entanto, enquanto um modelo de difusão em uma GPU deve calcular matematicamente como remover o ruído passo a passo, o DTM utiliza a física do chip para realizar a transformação. O hardware termodinâmico permite que o estado “ruidoso” evolua fisicamente para o estado “ordenado” (a imagem final) seguindo as leis da termodinâmica. As simulações indicam que essa abordagem não só é mais rápida, mas requer ordens de magnitude menos energia porque o processo de “redução de ruído” é realizado pela tendência natural do sistema ao equilíbrio, não por trilhões de multiplicações de ponto flutuante.

O Ecossistema Competitivo: Abordagens Divergentes na Computação Física

Embora a Extropic tenha capturado a atenção da mídia com suas afirmações audaciosas e estética cyberpunk, não é o único ator neste espaço. A corrida pela computação termodinâmica e probabilística inclui outros concorrentes sofisticados como a Normal Computing, cada um com filosofias técnicas e de mercado distintas.

Normal Computing: A Confiabilidade através da Estocasticidade

A Normal Computing, sediada em Nova York e fundada por ex-engenheiros do Google Brain e da Alphabet X, aborda o problema de um ângulo ligeiramente diferente. Enquanto a Extropic foca na velocidade e eficiência bruta para a geração (aceleracionismo), a Normal coloca uma ênfase significativa na confiabilidade, segurança e quantificação da incerteza em sistemas críticos.

Sua tecnologia baseia-se na Unidade de Processamento Estocástico (SPU). Assim como a Extropic, utilizam o ruído térmico, mas sua estrutura matemática foca em processos estocásticos específicos como o processo Ornstein-Uhlenbeck (OU). O processo OU é um processo estocástico de reversão à média, útil para modelar sistemas que flutuam, mas tendem a voltar a um centro estável.

A Normal Computing atingiu marcos significativos, como o “tape-out” (finalização do design para fabricação) de seu chip CN101. Este chip é projetado para demonstrar a viabilidade da arquitetura termodinâmica em silício real. Seu roteiro inclui os futuros chips CN201 e CN301, destinados a escalar modelos de difusão de alta resolução e vídeo até 2027-2028.

Diferença Chave: A Extropic parece otimizar para a máxima entropia e criatividade generativa a baixo custo energético (ideal para arte, texto, ideação). A Normal Computing parece otimizar para a “IA explicável” e confiável, utilizando o hardware probabilístico para que a IA “saiba o que não sabe” e gerencie riscos em aplicações empresariais ou industriais.

Computação Neuromórfica vs. Termodinâmica

É crucial distinguir a computação termodinâmica da neuromórfica (representada por chips como o TrueNorth da IBM ou o Loihi da Intel). A computação neuromórfica tenta imitar a arquitetura biológica do cérebro (neurônios, sinapses, picos de voltagem) utilizando frequentemente circuitos digitais ou analógicos determinísticos.

A computação termodinâmica, por outro lado, imita a física do cérebro. O cérebro biológico opera em um ambiente úmido e ruidoso a 37°C, utilizando o ruído térmico para facilitar as reações químicas e a transmissão de sinais. Ele não luta contra o ruído; ele o usa. A Extropic e a Normal Computing argumentam que imitar a física (termodinâmica) é um caminho mais direto para a eficiência do que imitar apenas a estrutura (neuromórfica).

Análise Profunda da Eficiência: Desconstruindo o “10.000x”

A afirmação de uma melhoria de eficiência de 10.000 vezes é extraordinária e requer um escrutínio técnico rigoroso. De onde surge exatamente esse número e ele é realista em ambientes de produção?

A Física da Economia

A economia energética provém de três fontes principais:

  1. Eliminação do Movimento de Dados: Em uma GPU, ler os pesos de um modelo da memória VRAM consome mais energia do que realizar o cálculo em si. Na TSU da Extropic, os pesos do modelo estão codificados fisicamente nas conexões entre p-bits. O cálculo ocorre onde os dados estão.
  2. Cálculo Passivo: Em um circuito digital, o clock força transições de estado milhões de vezes por segundo, consumindo energia ativa em cada ciclo. Em um circuito termodinâmico, o sistema evolui passivamente para a solução. A energia é fornecida em grande parte pelo calor ambiental (ruído térmico), que é “grátis”.
  3. Eficiência de Amostragem: Como discutido, gerar uma amostra estatística no digital requer milhares de operações. Na termodinâmica, é uma operação única. Se uma tarefa requer coletar milhões de amostras (como na geração de vídeo), a vantagem acumula-se linearmente até atingir ordens de magnitude.

Comparativo de Consumo Real

Para colocar isso em perspectiva, consideremos o treinamento e a inferência de modelos tipo LLaMA. A Meta treinou o LLaMA 3 utilizando 16.000 GPUs H100. Se assumirmos um consumo médio conservador, o custo energético é de centenas de gigawatts-hora. Na fase de inferência (uso diário), se milhões de usuários consultam o modelo, o consumo acumulado supera o do treinamento.

Se um chip termodinâmico pode realizar a mesma inferência consumindo miliwatts em vez de centenas de watts, a viabilidade econômica da IA muda radicalmente. Permitiria executar modelos de nível GPT-4 em um smartphone sem esgotar a bateria em minutos, ou implantar sensores inteligentes na agricultura que funcionem durante anos com uma bateria pequena.

Limitações e Ressalvas

No entanto, o número de 10.000x deriva de simulações de benchmarks específicos otimizados para este hardware. Em cargas de trabalho mistas, onde se requer lógica determinística, pré-processamento de dados e comunicação com a CPU, a eficiência global do sistema (Lei de Amdahl) será menor. Além disso, a precisão analógica é inerentemente limitada. Para cálculos financeiros que exigem precisão exata de 64 bits, a computação termodinâmica não é adequada. Seu nicho é a inferência probabilística, não a contabilidade exata.

Métrica de EficiênciaGPU Digital (H100)TSU Termodinâmica (Projetada)Fator de Melhoria Teórica
Operações por JouleLimitado pela barreira de Landauer e arquitetura CMOSLimitado apenas pelo ruído térmico de fundo~10^3 – 10^5
Latência de AmostragemAlta (requer iterações PRNG sequenciais)Muito Baixa (fisicamente instantânea)~100x – 1000x
Complexidade do CircuitoAlta (milhões de transistores para lógica de controle)Baixa (p-bits simples e acoplamentos)Alta densidade de área

Desafios de Fabricação e Escalabilidade: O Vale da Morte do Hardware

A história da computação está cheia de tecnologias promissoras (memristores, computação óptica, spintrônica) que falharam ao tentar escalar. A computação termodinâmica enfrenta barreiras significativas para sair do laboratório.

Variabilidade de Processos e Calibração

O maior desafio para a Extropic e a Normal Computing é a homogeneidade. Na fabricação de chips modernos (nós de 5nm ou 3nm), existem variações microscópicas entre transistores. No digital, isso é gerido com margens de segurança. No analógico/termodinâmico, onde o “ruído” é o sinal, uma variação no tamanho de um transistor altera seu perfil de probabilidade.

Se cada p-bit tiver um viés (bias) ligeiramente diferente devido a defeitos de fabricação, o chip não representará a distribuição de probabilidade correta. Calibrar milhões de p-bits individuais para compensar essas variações poderia exigir circuitos de controle digital massivos, o que consumiria parte da economia de energia e espaço. A Extropic afirma ter resolvido isso com designs de circuitos robustos, mas o teste real virá com a produção em massa do chip Z1.

Integração no Ecossistema de Software

Hardware é inútil sem um ecossistema. A NVIDIA domina a IA não apenas por seus chips, mas pelo CUDA, sua camada de software. Para que os desenvolvedores adotem as TSUs, a complexidade física deve ser abstraída. A Extropic lançou a Thrml, uma biblioteca Python que permite aos desenvolvedores definir modelos de energia e executá-los no backend (seja simulado em GPU ou real na XTR-0). O sucesso dependerá de quão transparente será essa integração com PyTorch e TensorFlow. Se os engenheiros de ML tiverem que aprender física estatística para programar o chip, a adoção será nula.

A Concorrência da Lei de Moore

A tecnologia digital não está estagnada. NVIDIA, AMD e Intel continuam otimizando suas arquiteturas para IA (ex: precisão FP8, arquiteturas Blackwell). A computação termodinâmica persegue um alvo móvel. Quando o chip Z1 chegar ao mercado comercial, as GPUs convencionais terão melhorado sua eficiência. A vantagem de “10.000x” é uma margem grande, mas a execução deve ser rápida para não perder a janela de oportunidade.

Implicações Geopolíticas e Econômicas

A emergência desta tecnologia tem ramificações que vão além da sala de servidores, afetando a estratégia nacional e a economia global da IA.

Soberania da IA e Descentralização

Atualmente, a IA avançada é um oligopólio controlado por entidades capazes de financiar data centers de bilhões de dólares e acessar suprimentos restritos de GPUs. A computação termodinâmica, ao reduzir drasticamente o custo energético e de hardware (utilizando processos de fabricação de silício mais antigos e baratos, já que não requerem a última litografia de 3nm para funcionar), poderia democratizar o acesso à “superinteligência”.

Isso permitiria a nações menores ou empresas médias operarem seus próprios modelos fundamentais sem depender das nuvens dos hyperscalers americanos (Microsoft, Google, Amazon). É um vetor potencial para uma maior soberania tecnológica.

Impacto na Rede Elétrica e Sustentabilidade

A AIE e os governos estão alarmados com o consumo dos data centers. Em lugares como a Irlanda ou o norte da Virgínia, os data centers consomem percentagens de dois dígitos da rede total. A computação termodinâmica oferece uma “válvula de escape” para essa pressão. Se a indústria migrar parte de suas cargas de inferência para hardware termodinâmico, seria possível desacoplar o crescimento da IA do crescimento da pegada de carbono, permitindo cumprir metas climáticas sem frear o progresso tecnológico.

A Filosofia do Aceleracionismo (e/acc)

Não se pode ignorar o componente ideológico. Guillaume Verdon, CEO da Extropic, é uma figura central do movimento e/acc, que defende o progresso tecnológico irrestrito e rápido como imperativo moral e termodinâmico do universo. A Extropic não é apenas uma empresa; é a manifestação física desta ideologia. Eles buscam maximizar a produção de entropia e inteligência do universo. Isso contrasta com as visões de “Desaceleração” ou “Segurança da IA” (Safetyism). O sucesso da Extropic seria uma vitória cultural e técnica para o campo aceleracionista no Vale do Silício.

O Amanhecer da Inteligência Natural

A computação termodinâmica representa a tentativa mais séria até o momento de fechar a lacuna entre a computação artificial e a natural. Durante setenta anos, construímos computadores que funcionam como burocracias rígidas: seguindo regras exatas, arquivando dados em lugares precisos e gastando imensa energia para garantir que nada saia da norma. Enquanto isso, o cérebro humano — e a própria natureza — operou como um artista de jazz: improvisando, utilizando o ruído e o caos como parte da melodia, e alcançando resultados brilhantes com uma eficiência energética assombrosa.

As tecnologias apresentadas pela Extropic e Normal Computing, através de dispositivos como o X0 e o CN101, sugerem que estamos prontos para adotar essa segunda abordagem. A promessa de uma eficiência energética de 10.000x não é apenas uma melhoria incremental; é uma mudança de fase que permitiria a onipresença da inteligência artificial.

No entanto, o caminho está repleto de riscos técnicos. A transição do determinismo digital para o probabilismo termodinâmico exigirá não apenas novos chips, mas uma reeducação completa de como pensamos sobre os algoritmos, a precisão e a natureza da computação. Se a Extropic conseguir escalar seus p-bits e a Normal Computing conseguir certificar a segurança de seus processos estocásticos, é possível que em uma década olhemos para as GPUs atuais — esses fornos de silício de 700 watts — com a mesma nostalgia e perplexidade com que hoje olhamos para as válvulas de vácuo da década de 1940. A era de lutar contra a termodinâmica acabou; a era de computar com ela começou.

O Panorama da Computação Pós-Digital

DimensãoAbordagem Digital ClássicaAbordagem Termodinâmica (Extropic/Normal)
FilosofiaControle total, supressão de errosAceitação do caos, uso do ruído
Limite FísicoDissipação de calor, Lei de MooreLimites entrópicos fundamentais
Modelo de IARedes Neurais Profundas (DNN)Modelos Baseados em Energia (EBM), Difusão
HardwareGPUs, TPUs (Alta Potência)TSUs, SPUs (Baixa Potência, Passivos)
Visão de FuturoData centers do tamanho de cidadesInteligência onipresente, descentralizada e ambiental
Compartilhe este artigo
Nenhum comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *