Página inicial » Fornecimento de produtos » Energias Renováveis » Pesquisadores gregos desenvolvem técnica de previsão de energia fotovoltaica que preserva a privacidade
Mão pressionando cadeado com escudo ícone plano sobre céu azul com nuvens brancas

Pesquisadores gregos desenvolvem técnica de previsão de energia fotovoltaica que preserva a privacidade

Pesquisadores da Grécia desenvolveram uma técnica de previsão de PV para esquemas de prosumer usando aprendizado federado, um método de aprendizado de máquina que envia atualizações de modelos locais para um servidor central para correção. Suas simulações mostram resultados surpreendentes em comparação com a previsão centralizada.

Fotos do Blue Coat

Imagem: Blue Coat Photos, Flickr, CC BY-SA 2.0

Cientistas da National National Technical University of Athens, na Grécia, propuseram uma nova técnica de previsão de PV que protege a privacidade do prosumer. Esquemas prosumer eficientes dependem de modelos precisos de previsão de produção solar, que exigem dados extensos, tornando essenciais as compensações entre privacidade e utilidade. A abordagem dos pesquisadores para equilibrar essa compensação é baseada em aprendizado federado (FL).

“O processo FL começa com um modelo global compartilhado com todos os dispositivos. Cada dispositivo treina o modelo localmente e envia atualizações para um servidor central, onde são agregadas para melhorar o modelo”, disseram os acadêmicos. “Este modelo atualizado é então distribuído de volta aos dispositivos para treinamento posterior. O ciclo FL é iterado várias vezes até que o modelo global atinja a precisão ótima desejada.”

O modelo da equipe roda localmente em cada máquina e inclui uma arquitetura de memória de longo prazo (LSTM), uma unidade de dropout e duas camadas densas totalmente conectadas. A LSTM manipula dados sequenciais, enquanto a unidade de dropout reduz o overfitting, e as camadas densas auxiliam na realização de previsões finais.

O modelo também usa hiperparâmetros para ajustar modelos LSTM locais e agrupar clientes semelhantes no servidor central. Esses hiperparâmetros, definidos antes do início do treinamento, governam o processo de treinamento do modelo de machine learning.

Outros modelos

“O conjunto de dados sob exame é originário da rede elétrica de Terni, Itália, compreendendo dados de 30 prosumidores de eletricidade de pequena escala que utilizam sistemas fotovoltaicos para geração de energia”, explicou o grupo. “Após a normalização, dividimos o conjunto de dados em dois subconjuntos: um conjunto de treinamento para treinamento do modelo e um conjunto de teste para avaliar o desempenho do modelo em dados não vistos. Esta divisão adere a uma divisão 80-20, com dados de janeiro de 2015 a dezembro de 2017 designados para treinamento e dados abrangendo de janeiro de 2018 a dezembro de 2019 alocados para teste.”

Os pesquisadores então compararam o modelo FL-LSTM no mesmo conjunto de dados com vários métodos de aprendizado. O primeiro foi o aprendizado localizado, que opera em um ambiente totalmente privado e localizado. O segundo foi o aprendizado centralizado, que normalmente oferece maior precisão, mas sacrifica a privacidade. O terceiro modelo foi aprimorado com FL com privacidade diferencial (DP) para minimizar a chance de identificar contribuições individuais, usando multiplicadores de ruído definidos em 0.2, 0.25, 0.3 ou 0.4.

“Para avaliar o desempenho dos modelos, duas métricas principais são utilizadas: erro absoluto médio (MAE) e erro quadrático médio da raiz (RMSE)”, explicou o grupo. “A seleção do MAE permite uma visão geral abrangente das margens de erro dos nossos modelos, particularmente devido à sua robustez contra outliers – uma característica notável do nosso conjunto de dados. Por outro lado, o RMSE enfatiza a sensibilidade a erros maiores, o que é crucial para avaliar a precisão da previsão de geração, pois destaca o impacto de desvios substanciais mais do que o MAE.”

Os resultados mostraram que o modelo centralizado teve melhor desempenho, com um MAE de 0.00960 e RMSE de 0.01687. O modelo FL teve um MAE de 0.01993 e RMSE de 0.02872. O modelo FL-DP com um multiplicador de ruído de 0.2 registrou um MAE de 0.01857 e RMSE de 0.02669. O modelo localizado teve um MAE de 0.02436 e RMSE de 0.04679, enquanto o modelo FL-DP com um multiplicador de ruído de 0.25 mostrou um MAE de 0.02651 e RMSE de 0.03375. Os resultados para multiplicadores de ruído de 0.3 e 0.4 não foram fornecidos.

“Na busca por um nível de ruído que fornecesse desempenho semelhante à implementação FL não DP, encontramos uma anomalia intrigante. A proporção ótima de ruído para desempenho foi observada em um multiplicador de ruído de 0.2, o que inesperadamente produziu resultados melhores do que FL”, observou o grupo. “Nossos experimentos com multiplicadores de ruído maiores que 0.2 demonstraram a degradação antecipada na precisão preditiva com o multiplicador de 0.4 tornando o modelo incapaz de convergir.”

O grupo disse que a “principal restrição envolveu o tamanho limitado do conjunto de dados em relação ao número de clientes participantes. Este estudo serve como uma linha de base; adicionar mais prosumidores ao longo do tempo certamente aumentaria o desempenho do FL e do FL-DP. Com isso em mente, nossos resultados indicam que, para conjuntos de dados menores com poucos clientes participantes, o aprendizado centralizado supera o FL em termos de precisão, embora ambas as abordagens aproveitem os dados coletivos disponíveis. Apesar disso, o FL oferece benefícios em relação à privacidade e aos custos de comunicação.”

Eles apresentaram seus resultados em “Empowering federated learning techniques for privacy-preserving PV forecasting”, que foi publicado recentemente em Relatórios de energia.

Este conteúdo é protegido por direitos autorais e não pode ser reutilizado. Se você deseja cooperar conosco e gostaria de reutilizar algum de nosso conteúdo, entre em contato com: editors@pv-magazine.com.

Retirado de revista pv

Isenção de responsabilidade: as informações estabelecidas acima são fornecidas por pv-magazine.com independentemente do Chovm.com. Chovm.com não faz nenhuma representação e garantia quanto à qualidade e confiabilidade do vendedor e dos produtos. Chovm.com isenta-se expressamente de qualquer responsabilidade por violações relativas aos direitos autorais do conteúdo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *

Voltar ao Topo