Pesquisa de Jéferson Nobre, da UFRGS e membro do ICoNIoT, une computação confidencial e comunicação anônima

O objetivo é a busca de soluções para a cibersegurança da computação na nuvem

O pesquisador Jéferson Nobre (UFRGS) tem trabalhado numa abordagem de pesquisa bastante recente que se relaciona com a cibersegurança aplicada à computação em nuvem: a computação confidencial. Conforme o pesquisador explica, mesmo que se saiba muito acerca da área de cibersegurança, há diversos desafios que são pertinentes especificamente à computação na nuvem. Esses desafios exigem um olhar para além daquilo que normalmente se considera.

O que há de novo?

A computação em nuvem se tornou a infraestrutura invisível do nosso cotidiano digital. Mensagens no celular, sistemas de inteligência artificial, aplicativos, praticamente tudo depende dessa infraestrutura. Nesse cenário, quais são as principais lacunas de cibersegurança e onde há mais vulnerabilidade?

Hoje, nossos dispositivos — especialmente smartphones — não têm capacidade para processar tudo localmente. Por isso, enviamos dados constantemente para a nuvem, onde eles são processados e devolvidos. E isso gera vulnerabilidade, pois não é raro que provedores de nuvem vazem informações mesmo sem intenção. Esse é um ataque à confidencialidade e à privacidade, que tem sido observado em muitos acontecimentos nos últimos anos, responsáveis por aumentar a preocupação com essa brecha.

Em cibersegurança, dois conceitos fundamentais são justamente a confidencialidade e a privacidade. A confidencialidade é uma responsabilidade das organizações ou empresas, que devem resguardar a privacidade dos usuários. Isto é, as organizações provedoras de serviços precisam garantir que somente elas e as pessoas a quem elas derem esse direito acessarão as informações dos usuários. Já os usuários têm o direito de manter privadas as suas informações.

A contribuição da computação confidencial

A vulnerabilidade maior se encontra no processamento. Embora existam soluções maduras para dados em repouso e em trânsito, a fase de processamento ainda é uma lacuna que a computação confidencial busca preencher para estender as garantias de segurança para o momento do processamento.

O que a computação confidencial busca, nesse contexto, é a oferta de um conjunto de técnicas e arquiteturas que permitem a execução de cargas de trabalho em ambientes isolados, com garantias formais de confidencialidade e integridade.

A computação confidencial parte da ideia de que é possível criar, dentro da nuvem, um ambiente seguro no qual os dados possam ser processados sem comprometer a confidencialidade. Isso é viabilizado por meio dos chamados Ambientes de Execução Confiáveis (Trusted Execution Environments – TEEs). Essa tecnologia é baseada em hardware e funciona criando, dentro do próprio processador, uma área isolada e protegida. Nesse espaço, tanto os dados quanto o código permanecem criptografados, impedindo o acesso externo — inclusive por parte do provedor de nuvem.

Além disso, esse ambiente permite um mecanismo chamado atestação remota, que possibilita verificar, à distância, se o código em execução é exatamente aquele que foi originalmente enviado e se está rodando dentro de um ambiente seguro. Dessa forma, aumenta-se a confiança no processamento de dados sensíveis na nuvem.

Comunicação anônima

O problema é que, mesmo com essas abordagens, ainda é possível identificar quem gerou uma determinada carga de trabalho por meio da análise do tráfego. Esse tipo de vulnerabilidade está associado aos chamados ataques a metadados, isto é, as informações sobre os dados, como quem enviou, o volume transmitido, o horário e a frequência das interações. Para mitigar esse risco, surge a comunicação anônima, cuja proposta é desvincular os dados da identidade de quem os gerou, desacoplando essas informações.

Atualmente, já existem alguns padrões nessa área. Um dos principais é o OHTTP (Oblivious HTTP), uma variação do protocolo HTTP que introduz anonimato na transmissão de dados. Esse modelo exige a presença de um elemento intermediário independente da organização (relay resource) e um gateway, atuando entre o usuário e o ambiente de execução confiável. Com isso, adiciona-se uma camada extra de proteção, dificultando a correlação entre os dados transmitidos e sua origem.

O caso dos sistemas de mensageria

Como estudo de caso central, Jéferson Nobre traz o sistema Meta Private Processing, que utiliza Ambientes de Execução Confiáveis (TEEs), atestação remota e o protocolo Oblivious HTTP para processar mensagens do WhatsApp via nuvem (única opção possível, já que não é possível fazer o processamento com IA das informações vcom os recursos do smartphone de cada usuário) sem que a empresa acesse o conteúdo ou os metadados.

A ideia é que se possa gerar resumos de conversas por IA sem acesso ao conteúdo pelo provedor, o que garantiria a privacidade aos usuários (hoje resultante da criptografia fim a fim).

A solução seria um pipeline de computação confidencial + computação anônima, permitindo o processamento por IA de modo a preservar as promessas de privacidade que o WhatsApp faz. Nessa solução, nenhum componente tem acesso simultâneo à identidade do usuário, ao conteúdo e ao ambiente de execução.

Hoje a Meta tem o Meta AI, adicionado manualmente a uma conversa, com acesso ao que o usuário envia explicitamente mas não à caixa completa do usuário. É um controle na superfície. No caso do Private Processing, processa-se toda a caixa do usuário, que precisa ativar voluntariamente essa funcionalidade. A garantia de confidencialidade se daria por um conjunto de tecnologias que incluem TEE e OHTTP.  Uma empresa intermediária é a responsável por desacoplar a origem e o destino, e outra empresa precisa fazer a auditoria – o que traz uma dificuldade, pois essa empresa precisa ser independente e idônea. Além disso, uma outra organização tem um papel na configuração de chaves criptográficas. Para a adoção das tecnologias, portanto, a fragmentação do ecossistema é um dos grandes obstáculos.

Desafio adicional

O ambiente criptografado dentro da nuvem tem um custo alto. O uso de TEEs exige que o Grande Modelo de Linguagem (LLM) seja executado integralmente dentro desse ambiente seguro. Nesse contexto, não é apropriado utilizar modelos gerais pertencentes aos provedores de serviços, como os da Meta, uma vez que isso poderia implicar o uso dos dados processados para fins de treinamento. Assim, o processamento deve ocorrer de forma isolada no ambiente confiável, garantindo que os dados sejam utilizados exclusivamente para a execução da tarefa e, posteriormente, eliminados, sem qualquer retenção.

Como abordar a computação confidencial e a comunicação anônima?

A computação confidencial é capaz de preencher a lacuna entre proteção de dados em repouso/trânsito e em uso, o que traz um avanço real mas não representa uma solução completa para a segurança dos sistemas em nuvem. As garantias dependem da integridade do hardware, firmware, da cadeia de suprimento e dos serviços de atestação. A confiança é estendida e redistribuída. Nesse contexto, a comunicação anônima é complementar, protegendo metadados que a computação anônima sozinha não cobre. A auditabilidade e a transparência são requisitos não opcionais, já que auditorias independentes e logs imutáveis são parte do modelo de confiança.

Assista ao webinar de Jéferson Nobre

O pesquisador Jéferson Nobre apresentou, no dia 16 de abril de 2026, um webinar intitulado ‘Análise de Segurança da Computação Confidencial e da Comunicação Anônima’, oferecendo exemplos e esquemas na forma de imagens para uma melhor compreensão das questões abordadas. Assista no nosso canal no YouTube: https://www.youtube.com/watch?v=Rv-fUefBV-c

 

Pesquisador Dr. Ivan Zyrianoff apresenta webinar no dia 30 de abril

O seminário terá como título “Federated Learning at the Edge: Addressing Data Heterogeneity in IoT Systems”

A Aprendizagem Federada (FL) e a IA Edge são elementos fundamentais para uma inteligência escalável e que preserve a privacidade em sistemas baseados na Internet das Coisas (IoT). No entanto, as implementações no mundo real são inerentemente afetadas pela heterogeneidade dos dados (distribuições não IID) entre os diferentes contextos, o que degrada significativamente o desempenho e a convergência dos modelos. Nesta palestra, apresentamos uma abordagem orientada para o sistema à inteligência de ponta, combinando inferência no dispositivo, treino federado e soluções ao nível da arquitetura para lidar com a heterogeneidade. Começamos com pipelines de IA nativos de ponta para deteção e inferência em tempo real, destacando como o processamento local reduz a latência e a sobrecarga de comunicação. Em seguida, discutimos estratégias de aprendizagem por transferência federada que permitem o treino colaborativo de modelos entre clientes distribuídos, preservando simultaneamente a localidade dos dados. Por fim, uma nova arquitetura federada baseada num espaço latente partilhado pelos clientes, que melhora a robustez face a dados não IID, alinhando representações semânticas entre clientes e reduzindo simultaneamente os custos de comunicação.

O palestrante

Ivan Zyrianoff obteve a licenciatura em Ciências da Computação e o mestrado em Engenharia da Informação pela Universidade Federal do ABC, em Santo André, Brasil, em 2017 e 2019, respetivamente, e o doutoramento pela Universidade de Bolonha, em Bolonha, Itália, em 2024. É investigador da Universidade de Bolonha, em Bolonha, Itália, e membro do Laboratório IoT-Prism. Os seus temas de investigação atuais abrangem a interoperabilidade para a Internet das Coisas, computação e inteligência de ponta e armazenamento em cache proativo.

Dave Cavalcanti apresenta webinar ‘Enabling Real-Time Systems & AI at the Edge’ dia 2 de abril

Em sua apresentação o Dr. Dave Cavalcanti, Engenheiro Sênior na Intel, examinará os fundamentos arquitetônicos e de nível de sistema necessários para viabilizar a computação determinística em tempo real em conjunto com aplicações de IA em plataformas de borda modernas.

Vai enfocar a computação coordenada no tempo, as cargas de trabalho de criticidade mista e a convergência entre computação e rede como fatores-chave para os sistemas ciberfísicos de próxima geração.

A apresentação discutirá recursos de hardware, software e rede, como Time-Sensitive Networking, ferramentas de benchmarking e seu papel na viabilização de sistemas em tempo real aprimorados por IA em diversos mercados verticais.

O palestrante

Dave Cavalcanti é engenheiro sênior na Intel Corporation, com ampla experiência em sistemas de rede distribuídos, conectividade, padrões do setor e ecossistemas. Ele também atua como presidente da Avnu Alliance, um fórum do setor que promove padrões e programas de certificação para possibilitar um desempenho determinístico em tempo real com base em dispositivos interoperáveis de Time Sensitive Networking (TSN) e redes convergentes.

Ele obteve o título de doutor em Ciência da Computação e Engenharia em 2006 pela Universidade de Cincinnati, mestrado em Ciência da Computação e bacharelado em Engenharia Eletrônica pela UFPE, no Brasil. Publicou mais de 50 artigos revisados por pares e detém mais de 125 patentes concedidas. Ocupou vários cargos de liderança em conferências e publicações do IEEE.

Não é necessário se inscrever para participar do webinar, basta acessar o nosso canal no YouTube.

Esperamos vocês!

. Data: 2 de abril de 2026, 5a feira.
. Horário: 16h.
. Transmissão pelo canal INCT ICoNIoT no YouTube

 

Webinar “Language Models for Network Configuration” com o prof. Nelson Fonseca, coordenador-geral do ICoNIoT

No dia 5 de março de 2026 acontece o webinar “Language Models for Network Configuration”, ministrado pelo coordenador-geral do INCT ICoNIoT Nelson Fonseca. Confira a seguir o resumo da apresentação:

Network configuration encompasses the setup and management of parameters that ensure computer networks operate reliably and securely. This process spans hardware configuration—routers, switches, and firewalls—as well as the design of protocols, IP addressing schemes, routing strategies, and security policies. However, as networks continue to scale in size and complexity, manual configuration proves increasingly inefficient and error-prone. To address these challenges, network configuration has become a cornerstone of automation frameworks such as the Zero-touch Network & Service Management (ZSM) paradigm, which envisions self-healing, self-configuration, self-monitoring, self-optimization, and self-protection.

While large language model (LLM)-based intent-driven self-configuration has shown significant promise, it also introduces notable barriers: high computational cost, resource intensity, and privacy concerns due to dependency on external infrastructure. In this talk, I will present a lightweight, fine-tuned, small language model (SLM) approach built upon an agent-based architecture. By employing parameter-efficient techniques, this framework enables the rapid translation of configuration requests—posed as natural language requirements or questions—into syntactically and semantically valid network configurations. Crucially, this can be achieved fully on-premise, ensuring efficiency, accuracy, and privacy. This novel approach points to a secure and practical path forward for intent-driven, automated network self-configuration in next-generation systems.

Não é necessário se inscrever para participar do webinar, basta acessar o nosso canal no YouTube.

Esperamos vocês!

. Data: 5 de março de 2026, 5a feira.
. Horário: 16h.
. Transmissão pelo canal INCT ICoNIoT no YouTube

Seminar on November 13 with Andrea Sabbioni

In the era of Society 5.0, technologies such as IoT, Artificial Intelligence and 5G/6G networks are transforming the way we create and connect digital services. But the fragmentation of standards and the dispersion of data make development increasingly complex. In his lecture, researcher Andrea Sabbioni, from the University of Bologna, will present two approaches that can simplify this scenario: Platform Engineering and Serverless Computing.

These paradigms propose a new model of innovation: serverless eliminates the need to manage infrastructure, allowing developers to focus on functionality, while platform engineering creates tailor-made environments with specific interfaces and automations that accelerate integration between services. Together, these practices point to a more scalable, agile, and collaborative future, in which the cloud will be the foundation of a truly interconnected and intelligent society.

This is the theme of Andrea Sabbioni’s lecture for INCT ICoNIoT, to be given on November 13, 2025 and open to the public on YouTube.

Assista e participe ao vivo!

Não é preciso se inscrever previamente.

NEW CLOUD CONTINUUM MODELS TO SUPPORT SOCIETY 5.0 DEVELOPMENT

Data: November 13, 2025
Hora: 4 pm Brasilia time
Palestrante: Prof. Dr. Andrea Sabbioni (Università di Bologna)
YouTube – https://www.youtube.com/@INCTICoNIoT

Check out details of the presentation to be delivered

Abstract: “The advancement and increasing availability of novel technologies, such as Internet of Things, Artificial Intelligence,  and 5G/6G networks are widely recognized as crucial in building both a more resilient society and a sustainable economy. These technological factors are paving the way to a Society 5.0, where all domains, from economic to technical, are encouraged to collaborate in the creation of a more dynamic, reliable, and valuable ecosystem. However, the vast fragmentation of standards and protocol, further exacerbated by the geographical dispersion of data sources and services, significantly increases the complexity of developing and integrating new services, ultimately hindering the full potential of innovation.
In this keynote, we will explore two emerging paradigms in cloud computing, Platform Engineering and Serverless Computing. By offering abstract interfaces and enabling rapid service prototyping, these paradigms are well-suited to address the intrinsic dynamicity of future society. Serverless computing provides a general-purpose, rapid development environment that completely abstracts infrastructure complexities, enabling developers to focus solely on functionality. In parallel, platform engineering specializes existing platforms by tailoring interfaces and introducing targeted automations for specific use cases, thereby enhancing interoperability and streamlining development workflows. Together, these approaches provide a robust foundation for scalable, secure, and efficient integration of services, accelerating the realization of a truly interconnected and intelligent society.”
Speaker’s CV Summary

Andrea Sabbioni received a Ph.D. in Computer Science Engineering from the University of Bologna in 2023, where he is currently a research fellow (RTD-A). His interests include cloud continuum, next-generation networks, serverless computing, middleware, and architectural approaches for innovative tourism, smart cities, and industrial applications.