Arquivo do autor:Marcio Venturelli

Sobre Marcio Venturelli

Márcio Venturelli trabalha há 25 anos no mercado de Automação Industrial, desenvolveu sua carreira ao longo do tempo com foco em Inovação e Novas Tecnologias, especializou-se em Digitalização e Indústria 4.0, atualmente é Professor e Consultor de Automação Industrial, como foco em Transformação Digital. Trabalhou em diversos projetos e implantação de sistemas de controle e automação industrial, no Brasil e no exterior, além de ser professor de graduação e pós-graduação nas áreas de automação e gestão industrial e desenvolver pesquisa aplicada nas áreas da Indústria 4.0. Graduado em Ciência da Computação com especialização em Controle e Automação Industrial, possui pós-graduação em Gestão Industrial e Tecnologia do Petróleo e Gás e MBA em Estratégica de Negócios, é membro Sênior da ISA Sociedade Internacional de Automação.

TRANSFORMAÇÃO DIGITAL

A Evolução da Automação Industrial no Contexto da Digitalização e Indústria 4.0

Após percorrer diversos trabalhos em indústrias, que tem o objetivo de trilhar o caminho da Digitalização, e receber diversos comentários sobre nossos artigos, solicitando para demonstrarmos como estruturar um projeto de Automação 4.0, apresentamos este trabalho, para você leitor técnico e estudante, não temos a intenção de esgotar o assunto e nem mesmo, postular um modelo, mas sim, demonstrar de forma prática e direta, considerações, que hoje devem ser levadas em conta, nos projetos de automação industrial, que vão permear a Indústria 4.0.

A Digitalização é a evolução do formato da linguagem humana, a forma de transferir conhecimento, bem como administrá-lo e deter o poder, remonta na época dos oradores, onde a palavra, bem-dita, demonstrava profundo conhecimento e respeito na sociedade, assim era a educação, a ciência, a política de uma época dos homens da oratória.

Com a evolução da escrita, com a prensa que pode disseminar a palavra impressa, temos um novo modelo de comunicação, textos, documentos, assinaturas, tudo isso, permeia nossa sociedade atualmente, ainda que em fase de transição para a digitalização, mas nosso modelo é baseado no documento, no livro, no impresso, na escrita.

O processamento de dados computacionais criou um novo formato de informação, os documentos, escritas, palavras e toda forma de comunicação, passaram a ser digitais, criando uma nova sociedade, pelo menos estamos nesta fase de transformação, já é possível assinar documentos de forma digital, dispensado a escrita manual ou assinaturas, governos administram documentos tudo de forma digital e assim caminha nossa sociedade.

Com a Digitalização, a comunicação em rede mundial e dispositivos capazes de gerar e analisar dados em tempo real, além de serem portáteis, temos o nascimento do que estamos chamando de Sociedade 4.0, onde todas as áreas da organização humana, são administradas através de dados digitais, governos, saúde, educação, segurança, mobilidade e a indústria, passam a relacionar nesta sociedade, utilizando-se de novas tecnologias, que podemos chamar de 4.0, somente como um alusão a 4.a Revolução Industrial, tendo assim a nossa Indústria 4.0, para ficar em nosso setor produtivo.

Para levar a indústria ao patamar digital, é necessário percorrer um caminho de transição, mas principalmente, projetar sistemas de automação para responder as necessidades da nova indústria digital.

O que conhecemos como Pirâmide da Automação, nossa Automação 3.0, é uma estrutura de camadas, onde sua intercomunicação é feita por diversas interfaces, mas tendo um modelo vertical, se limita a planta e seus departamentos, com pouca flexibilidade e alta latência para tomada de decisões.

A nova indústria digital, deve ser projetada com a Automação 4.0, baseado agora, nos Pilares da Automação, principalmente pelo fato que temos a interconexão de todas as informações, não só verticais, mas também horizontais e de toda a cadeia de valor do negócio, interagindo em tempo real.

Como dissemos, estamos em fase de transição, para evoluir de Pirâmide de Automação para Pilar da Automação, as principais mudanças serão:

  • No campo: aumento sobremaneira de dispositivo de sinais com a camada de IoT Internet das Coisas;
  • No controle: os controles serão distribuídos nos campos em dispositivos inteligentes e será supervisionado em uma camada de Cloud (nuvem);
  • Nos sistemas de gestão e controle (IHM, MES, Scada, ERP, BI, PCP): tendem a ser integrados, trabalhando em convergência um único ambiente de Cloud, ferramentas interconectadas;

Para projetar a Indústria 4.0, a partir de uma arquitetura de Automação 4.0, são necessárias algumas tecnologias, e principalmente, um novo formato de conectar dados, pessoas e processos.

Segue abaixo uma lista, não abrange todas as tecnologias, mas permeia os principais pontos hoje que devem ser observados para projetos de Automação 4.0:

  • Unidades de Controle Distribuído (campo) – módulos de I/O inteligentes (entrada e saída) e controle de baixa densidade de pontos, mas de alto poder de processamento e comunicação, distribuídos e interconectados;
  • Segurança (dados e informação) Campo (IoT) – como os módulos de I/O e controladores distribuídos e conectados em rede, normalmente em padrões baseado em Ethernet, o risco de invasão para acesso de dados é permanente, surgindo a necessidade de projetos de Cibersegurança;
  • Camada EDGE – camada de campo de Cloud, para tomada de decisões autônomas na célula de produção ou setor produtivo, a análise de dados se dá neste sistema, disponibilizando para o externo, somente o que é necessário para supervisão;
  • Conectividade (pilar de comunicação) – a conectividade e a Interface única de dados, deve permitir a interconexão de toda automação de forma vertical e horizontal, não há mais camadas, mas sim um inter-relacionamento de informações, um modelo baseado em RAMI 4.0, é um referencial para isto;
  • Unidades de Controle Distribuído (cloud) – as unidades de controle distribuído, também se comunicarão com um Cloud, local, porém com função de supervisão, baseado em dados de planejamento, recursos, qualidade, entre outros, formando um ecossistema único;
  • Cloud Local – a nova indústria digital, terá seus dados e controle centralizados em seu Cloud próprio, com suas ferramentas e necessidades próprias, podemos dizer que é CPD Centro de Processamento de Dados, para controlar o processo produtivo, somente externando o que é necessário;
  • PLC/DCS (virtual) – na mesma linha de ter o Cloud local, ferramentas de controle e comando, estarão centralizadas, camada de controle distribuído e local formarão um ambiente único digital de prioridades, tanto para controle avançado, quanto para gestão e supervisão de tomada de decisões produtivas;
  • Camada FOG – no mesmo objetivo da camada EDGE, porém agora tratando dados de todo planejamento e interfaces, para tomada de decisões inteligentes, unindo os dados;
  • Backbone de Dados (IIoT) – conectar a cadeia de valor da indústria, da unidade de negócio, é pré-requisitos para atender o conceito da Indústria 4.0, uma rede que tenha capacidade de conectar fornecedores, setores externos, clientes, e a própria indústria é necessário para interconexão, todos os elementos externos são a IIoT Internet Industrial das Coisas;
  • Cloud (Externo) – o uso de Cloud Computing externo, para aplicação de ferramentas, tais como, I.A. Inteligência Artificial, para tomada de decisões e uso de Big Data, unido todo o ecossistema do negócio industrial, entregando dinâmica de cenários para tomada de decisões, acelerando o tempo e diminuindo o erro.

O funcionamento básico desta estrutura digital de automação, tem como premissa a troca de dados em tempo real entre todos os componentes da rede e utilizar sistema para tomada de decisões, os principais pontos de funcionamento, podemos descrever:

  • No campo, o controle e o sinal são distribuídos, processamento local e análise de dados local;
  • Na conectividade, todos dispositivos devem permitir uma camada horizontal de dados, formando uma conexão interoperável;
  • O sistema possui um Cloud Local, com serviços de controle, supervisão e tomada de decisões no local e centralizado;
  • Um Backbone conecta toda a cadeia de valor da Indústria;
  • O Cloud externo, utiliza-se de serviços de I.A. Inteligência Artificial, interagindo na cadeia produtiva.

Quais os benefícios esperados, utilizando uma arquitetura de Automação 4.0, sendo um modelo para a realidade da Indústria 4.0, descrevemos os principais:

  • Flexibilizar a produção, através de controle distribuído e controle centralizado na camada de Cloud;
  • Simplificação na camada de comunicação, com uso de protocolos e interfaces abertas (OPC-UA e MQTT);
  • Tomada de decisões (Mineração de Dados e Aprendizado de Máquina) localmente (EDGE e FOG);
  • Utilizar o Cloud Externo somente sob Demanda;
  • Aplicar I.A. na Operação e Manutenção, com foco em Operador Supervisor e Manutenção por Prognósticos.

As tecnologias e o modelo de projeto destas arquiteturas são muito novas em termos de conhecimento, isso remete a desafios, podemos descrever alguns abaixo:

  • Projetar sistemas de automação com controle distribuído;
  • Projetar uma rede com protocolos e interfaces de dados horizontal;
  • Criar um sistema de virtualização local, permitindo processamento intermediário de Cloud (EDGE e FOG);
  • Interconectar a cadeia de valor através de um Backbone (IIoT Internet Industrial das Coisas);
  • Utilizar serviços externos de Cloud (na medida necessária) e aplicar I.A.

Como uma sugestão de principais pontos, podemos descrever o que deve ser observado em uma implantação de um projeto de digitalização, com foco na automação:

  • Projete seu processo produtivo em blocos de produção (quantidades) e linha de produtos (variedade);
  • Distribua os sinais e o controle pelas linhas ou unidade produtiva;
  • Utilize tecnologias de comunicação que necessitem o mínimo de interfaces ou gateways (OPC-UA e MQTT);
  • Crie camada de Cloud local (EDGE e FOG) e use análise de dados local (R e Python);
  • Crie comando e controles locais para atender produção flexível e centralizados, para supervisão da produção;
  • Conecte a cadeia de valor ao Cloud local para análise de dados (Use o RAMI 4.0)
  • Use o Cloud externo para utilização de ferramentas avançadas de dados (I.A. e Big Data).

Os sistemas, componentes e fornecedores, estão em constante evolução, hoje podemos apontar algumas tendências de curto prazo, para novas tecnologias, que já se apontam com realidade, para atender este escopo de necessidades:

  • Equipamentos de controle e I/O de pequeno porte e conectividade (OPC-UA, MQTT, TSN);
  • Micro PC Industrial distribuído, formando Cloud local em camadas de FOG e EDGE;
  • Fornecedores da cadeia de valor já terem dados estruturados para conexão padronizada (Cloud) em um Backbone de IIoT;
  • Serviços de Cloud externo de fabricantes, com soluções prontas para Indústria (SIEMENS, Rockwell, Yokogawa, Emerson, GE …).

Concluímos que os sistemas de automação industrial são a estrutura de comando e controle do setor produtivo, projetar sistemas para a indústria digital, atendendo a Indústria 4.0, é um caminho de novos desenvolvimentos, conceitos e modelos, exigindo novos pensamentos e quebra de paradigmas.

FDI NA AUTOMAÇÃO INDUSTRIAL

FDI Field Device Integration no Gerenciamento de Ativos na Indústria

A evolução nas conexões de dados industriais, é foco de nosso texto, grandes esforços e investimentos dos departamentos de pesquisa e desenvolvimento tecnológico estão criando novos padrões, equipamentos e softwares, permitindo pavimentar o caminho da Indústria 4.0.

Disponibilizamos três textos correlacionados, onde mostramos as novas tecnologias, o OPC-UA (OPC UA – Unified Architecture) , o TSN (Time-Sensitive Network) e o FDI (Field Device Integration), formando os novos padrões da conectividade industrial.

A transformação digital permitirá uma indústria mais inteligente, portanto mais eficiente, barata e segura, para que isso ocorra, a automação industrial tem grande papel nesta transformação, onde a Indústria 3.0, baseada na Pirâmide da Automação, se transforma nos Pilares da Automação, uma vez que Convergência, Padronização e Velocidade de dados, possibilitará que a Indústria 4.0 se torne uma realidade, rompendo as barreiras de interface, que hoje existem no modelo atual da indústria.

Quanto ao FDI, vamos falar sobre:

  • Conexão de dados de instrumentos de campo;
  • Ferramentas de Engenharia, Manutenção e Diagnóstico;
  • Gerenciamento de dados em rede industrial;
  • Convergência tecnológica de comunicação;
  • Padronização de conexões (solução aberta);
  • Evolução da conexão para IoT e Indústria 4.0.

Com o advento dos protocolos industriais e dispositivos comunicando em redes, o desenvolvimento de tecnologias que permitissem acessar dados, durante o funcionamento, para manutenção, comissionamento e monitoração, se tornaram uma realidade, as primeiras tecnologias foram baseadas em DD/EDDL em 2004, como evolução do conceito de acesso de dados, temos a tecnologia FDT/DTM em 2009 e sua evolução em 2015, com o FDI, esse é o destaque a evolução e vamos falar em mais detalhes de cada tecnologia.

EDDL Eletronic Device Description Language, é uma linguagem baseada em texto, os sistemas de automação acessam estes dados por um interpretador, é usada em forma binária DD Device Description (Hart e FF).

FDT/DTM Field Device Tool / Device Type Manager – é um sistema onde os fabricantes elaboraram os “drives” DTM (compilados) de cada equipamento e são acessados por um FDT (plataforma), o sistema depende de COM/DCOM.

Estas tecnologias têm algumas limitantes e novas demandas técnicas, podemos listar as principais:

  • Limites da EDDL por texto, limitante nas definições de dados e diagnósticos;
  • As DTM variam enormemente de fabricante para fabricante;
  • O FDT tem a dependência da COM/DCOM do Windows;
  • EDDL e FTD/DTM tem o mesmo objetivo, mas são divergentes nas soluções (como decidir?).

O FDI Field Device Integration – é uma tecnologia de comunicação de dispositivos de campo, usando rede de comunicação industrial, onde é utilizado o OPC-UA (Cliente-Servidor) unificando o modelo de informação dos dispositivos industriais.

Seus principais objetivos, como evolução dos sistemas EDDL e FDT/DTM, são:

  • Manter a compatibilidade com os sistemas legados existentes nas plantas industriais;
  • Unificar as especificações EDDL dos protocolos industriais compatíveis;
  • Manter o modelo compatível de acesso de dados via FDT.

As principais características desta tecnologia são:

  • Unificação – todas as informações (vertical e horizontal) se comunicam na rede por um único canal;
  • Padronização – independente do protocolo, o sistema permite troca de dados em diversas aplicações e níveis;
  • Interconexão – troca de dados entre equipamentos e aplicativos, utilizando rede industrial;
  • Interoperável – troca de dados entre fabricantes diferentes, compartilhando recursos;
  • Intercambiável – troca de equipamentos por outro fabricante, sem perder funcionalidade;
  • Extensibilidade – aumento de funções por agregação, sem perder o que já existe
  • Escalar – permite implantações pequenas e crescimento de acordo com a necessidade, com todas funções.

Os principais benefícios do uso do FDI, são:

  • Fácil de usar – ótima experiência para o usuário;
  • Robusto na instalação – a instalação dos drives não provoca alterações nos sistemas de automação;
  • Interoperável e em conformidade – compatível com as EDDL e experiência das DTM padronizadas;
  • Integrável e convergente – fácil trocar informações com níveis ERP e MES, por exemplo, usando o OPC-UA;
  • Manutenção de versões – compatível com versões anteriores de software e suporte as DD e DTM existentes.

O sistema do FDI se destaca por incorporar no em seu aplicativo as DP (Device Package), entenda como elas funcionam no servidor FDI:

  • DD Device Definition – faz a definição das variáveis e blocos funcionais
  • UID User Interface Description – menu dos equipamentos
  • BL Business Logic – organiza os endereçamentos dos equipamentos
  • UIP User Interface Plug-in – interface com o usuário (gráfico)
  • Dentro do DP pode-se anexar documentos dos devices

Quanto ao princípio de funcionamento do sistema do FDI:

  • O servidor FDI é quem concentra a comunicação com a rede, normalmente conectado em um controlador que faz o roteamento de dados;
  • No servidor FDI são instados os Device Package de cada equipamento, com suas definições, modos de acesso e interfaces;
  • A comunicação é feita pelo OPC-UA, permitindo que OPC-Client e FDI-Client acesse dados do servidor, utilizado em aplicativos de manutenção, monitoração, gestão (ERP, MES) e outros.

As arquiteturas dos sistemas de automação em rede, permite a conexão com o FDI, onde instala-se os drives de cada equipamento/fabricante, suportando diversos protocolos, já compatíveis no mercado.

Na operação, temos os servidores FDI, servindo dados para os Clientes, que poderão executar manutenção, operação, monitoração, engenharia, configuração, otimização e comissionamento com os equipamentos do sistema.

A aplicação de destaque do FDI está no Gerenciamento de Ativos, o sistema de automação, montado em uma rede industrial, agora com destaque a diversos padrões e protocolos, utilizando OPC-UA, pode-se executar todas as rotinas já descritas.

Com o FDI e a Indústria 4.0, o Gerenciamento de Ativos passa para um outro patamar de aplicação, incorporando novas ferramentas, podemos destacar as principais funções de um sistema atual e digitalizado:

  • Parametrização de equipamentos e dispositivos;
  • Análise on-line de status de funcionamento;
  • Controle de acesso de usuários;
  • Registro de alterações – rastreabilidade;
  • Avaliação de performance – índice;
  • Otimização de processo;
  • Gerencia dados para Cloud Computing;
  • Emite prognóstico usando Machine Learning.

Como continuidade na evolução da tecnologia, podemos destacar algumas tendências:

  • Serviços gerenciamento de dispositivos via FDI serem via Cloud com suporte do fabricante;
  • Equipamentos com OPC-UA Server incorporados, comunicando diretamente no Cloud FDI;
  • Protocolos e dispositivos de IoT (industrial), incorporarem a tecnologia FDI para gerenciamento.

Concluímos que o gerenciamento de dispositivos industriais (ativos) é uma realidade na indústria moderna, sua evolução está orientada na predição e prognóstico, via Cloud Computing, usando ferramentas de Machine Learning, para isso, a tecnologia FDI permite a interconexão entre dispositivos e sistemas, de forma simples e universal, aderente a Indústria 4.0.

REDES TSN NA AUTOMAÇÃO INDUSTRIAL

Redes Ethernet de Tempo Real – A TSN – Time-Sensitive Networking na Indústria

A evolução nas conexões de dados industriais, é foco de nosso texto, grandes esforços e investimentos dos departamentos de pesquisa e desenvolvimento tecnológico estão criando novos padrões, equipamentos e softwares, permitindo pavimentar o caminho da Indústria 4.0.

Disponibilizamos três textos correlacionados, onde mostramos as novas tecnologias, o OPC-UA (OPC UA – Unified Architecture) , o TSN (Time-Sensitive Network) e o FDI (Field Device Integration), formando os novos padrões da conectividade industrial.

A transformação digital permitirá uma indústria mais inteligente, portanto mais eficiente, barata e segura, para que isso ocorra, a automação industrial tem grande papel nesta transformação, onde a Indústria 3.0, baseada na Pirâmide da Automação, se transforma nos Pilares da Automação, uma vez que Convergência, Padronização e Velocidade de dados, possibilitará que a Indústria 4.0 se torne uma realidade, rompendo as barreiras de interface, que hoje existem no modelo atual da indústria.

Para entender as redes TSN, vamos falar de:

  • Evolução das Redes Ethernet;
  • As limitações das Redes Ethernet;
  • Ethernet em Tempo Real e com Priorização;
  • Padronizando a comunicação em Ethernet;
  • As demandas na Indústria 4.0.

Para entender os principais pontos da evolução das redes Ethernet, em seu conceito principal, ela trabalha com modelo de colisão de dados (CSMA-CD), não sendo determinística, em seu primórdio, era uma rede lenta, mas atendia a sua realidade e foi a aposta certa na tecnologia.

Baseado no mesmo modelo apresentado, as redes Ethernet se tornaram muito rápidas, 100M, 1G, 10G e são controladas por Switches configuráveis, controlando todo o tráfego de rede, apesar de ainda trabalhar no conceito (CSMA-CA), a questão determinística foi superada pela velocidade e controle da rede.

Mas novas questões, tais como, IoT (Internet das Coisas), que remetem a milhares de dispositivos conectados a um único Backbone de dados, priorização de mensagens críticas, unificação da interface de troca da informação, foram necessidades que levaram ao advento das redes TSN.

Em linhas gerais, os desafios e indagações que permearam esta tecnologia, foram:

  • Como fazer convergência de dados no nível de TO + TI + IoT com alta largura de banda, alta velocidade?
  • Como ter a certeza dos tempos de sincronização e priorização de mensagens dentro da Rede Ethernet (determinismo)?
  • Como manter a base padrão Ethernet e incorporar protocolos de alto desempenho industrial e de IoT?

Surgem as Redes TSN – Time-Sensitive Networking ou Redes Sensíveis ao Tempo, que:

  • São um conjunto de padrões do IEEE 802 elaborados para aprimorar a Rede Ethernet;
  • Seu objetivo é ter o controle da Latência da Rede permitindo uma Rede Determinística e Unificada;
  • O padrão permite a incorporação de Protocolos (OPC-UA, IEC61850, Profinet…) e é compatível com o padrão existente.

As principais características das Redes TSN:

  • Permite convergência de Dados (TO+TI+IIoT) em único padrão;
  • Rede muito rápida (microssegundos);
  • Possui alta largura de banca de dados (backbone);
  • Permite uso do padrão existente (legado);
  • Controla o tempo de latência de dados na rede (sincronização);
  • Controle de prioridades de dados e seu comportamento;
  • Incorpora protocolos existentes industriais e de IoT;
  • Permite ser um padrão único do sensor no campo ao Cloud;
  • Permitir virtualização de redes.

Principais benefícios no uso das Redes TSN:

  • Alta velocidade;
  • Baixa latência;
  • Tempo real;
  • Determinística (aplicação crítica);
  • Flexibilidade;
  • Alta disponibilidade;
  • Dado horizontal e vertical (único);
  • Segura.

As arquiteturas das Redes TSN, seguem o mesmo modelo das Redes Ethernet convencionais, lembrando que os equipamentos devem suportar esta tecnologia e a rede deve ser configurada para as funções específicas do novo padrão, principalmente os tempos, além de comunicações em Cloud.

Quanto ao princípio de funcionamento da rede, podemos destacar as suas operações:

  1. Sincronização de tempo (tempo real) – toda a rede tem o mesmo tempo (configurável);
  2. Agendamento e modelo de tráfego (regras – únicas e priorização);
  3. Seleção de caminhos de comunicação (configuração e alternativas);
  4. Reserva de trajeto (“vê” outro caminho);
  5. Tolerância a falhas (faz mais de um caminho).

Um dos pontos de destaques e principal recurso, que transforma a rede em determinística, é a função Time-Aware Scheduler, onde os pacotes de dados trafegam normalmente pelo sistema e quando há uma prioridade de dados (crítico), os pacotes comuns param e o pacote prioritário passa pelo sistema, isso permite comunicação crítica e baseado no tempo.

As redes TSN suportam diversos protocolos e cada vez mais estarão incorporados outros, gostaria de destacar o uso do Profinet, do próprio OPC-UA, do Ethernet/IP e o IEC 61850.

As redes TSN são preparadas para segurança de dados, são baseadas em Ethernet convencional, com as premissas conhecidas:

  • Utiliza o modelo de camadas;
  • No nível de dispositivo usa-se OPC-UA, permitindo:
    • Autenticação
    • Criptografia
    • Bloqueio (proteção)
  • Gerenciamento de fluxo de dados;
  • O determinismo não altera os modelos de segurança.

Nas aplicações das redes TSN o mais importante hoje é fazer um projeto com dispositivos que suportem o modelo, é uma tendência de grande crescimento em equipamentos que já se comunicam com o padrão Ethernet, podemos dizer que é quase um caminho natural, com isso sistemas de gerenciamento, roteamento e chaveamento da rede (Switch e Router), também suportarão o novo modelo.

As redes TSN com OPC-UA são uma grande tendência, pois:

  • Os fabricantes de equipamentos já estão incorporando juntamente com o OPC-UA o canal TSN nos dispositivos;
  • Temos os benefícios dos padrões OPC-UA e os ganhos em velocidade e performance de rede com o TSN;
  • A união destas duas tecnologias é uma realidade da convergência Tecnológica.

Quanto a aplicação e uso na Indústria 4.0, as redes TSN permitem e facilitam a:

  • Digitalização das Coisas (IoT);
  • Convergência da Cadeia de Valor (IIoT);
  • Uso de Cloud Computing;
  • Alta velocidade e Padronização.

Quanto a evolução natural do novo padrão, podemos destacar como tendência:

  • Equipamentos e dispositivos virem com recursos de comunicação nativa (OPC-UA + TSN);
  • As redes TSN podem se tornar o padrão Ethernet para todos os níveis de informação, inclusive de TI;
  • Recursos incorporados, tais como, SDN, IPV6 e Wireless, serão comuns nos dispositivos de automação.

Concluímos que a tecnologia das redes TSN são uma resposta às novas demandas da Indústria 4.0, convergência de dados com alta velocidade e alta disponibilidade, comunicação com integridade bidirecional, simplicidade do Backbone ao sinal de IoT, uma nova realidade nos ambientes de controle industrial.

OPC-UA NA AUTOMAÇÃO INDUSTRIAL

O Padrão de Comunicação para Interconexão e Convergência de Dados na Indústria

A evolução nas conexões de dados industriais, é foco de nosso texto, grandes esforços e investimentos dos departamentos de pesquisa e desenvolvimento tecnológico estão criando novos padrões, equipamentos e softwares, permitindo pavimentar o caminho da Indústria 4.0.

Disponibilizamos três textos correlacionados, onde mostramos as novas tecnologias, o OPC-UA (OPC UA – Unified Architecture) , o TSN (Time-Sensitive Network) e o FDI (Field Device Integration), formando os novos padrões da conectividade industrial.

A transformação digital permitirá uma indústria mais inteligente, portanto mais eficiente, barata e segura, para que isso ocorra, a automação industrial tem grande papel nesta transformação, onde a Indústria 3.0, baseada na Pirâmide da Automação, se transforma nos Pilares da Automação, uma vez que Convergência, Padronização e Velocidade de dados, possibilitará que a Indústria 4.0 se torne uma realidade, rompendo as barreiras de interface, que hoje existem no modelo atual da indústria.

Em nosso texto de OPC-UA, vamos falar sobre:

  • Comunicação de Dados na Indústria;
  • Padronização de Tecnologias;
  • Evolução da Conectividade;
  • Conectividade para Indústria 4.0.

Para entender como chegamos ao OPC-UA, que é a tecnologia mais moderna hoje na padronização de comunicação, precisamos entender que para se fazer uma comunicação de dados digitais, antes de meados de 1990, eram necessários “drives” proprietários, isto é, cada fabricante desenvolvia o seu, com suas particularidades e características.

Com o advento do Windows da Microsoft, e a adoção desta plataforma na automação industrial, surge a tecnologia OPC (Clássica), onde através de um modelo de coleta de dados padronizados, utilizando os recursos do próprio sistema operacional, podemos comunicar entre sistemas e hardwares industriais, portanto, as limitações e novas demandas, levaram ao desenvolvimento do OPC-UA, onde vamos entender um pouco melhor.

Antes, vamos entender o que é o OPC – OLE for Process Controle, é um conjunto de padrões de comunicação de dados para indústria que se utiliza do OLE – Object Linking and Embedding, tecnologia da Microsoft (Windows), que permite a conexão entre objetos de dados, utilizando-se da interface COM/DCOM – Distributed Component Object Model, também do Windows, permitindo troca de dados entre aplicativos e dispositivos, por exemplo, um PLC e um sistema SCADA conectado com um OPC.

O OPC Clássico possui três especificações, DA – Data Access, para troca de dados em tempo real, o A&E – Alarm and Events, dados e mensagens de eventos de estados e HDA – Historical Data Access, dados para análise histórica de eventos.

O OPC Clássico, se mostrou limitado para alguns desafios do seu tempo, os principais abaixo:

  • Problemas frequentes de configuração com o DCOM;
  • Não há timeouts configuráveis;
  • Apenas Microsoft Windows;
  • Segurança muito simples;
  • Nenhum controle sobre DCOM.

Então, surge o OPC UA – Open Platform Communications – Unified Architecture (Plataforma Aberta de Comunicação – Arquitetura Unificada – nova terminologia), sendo um padrão aberto de comunicação de dados industriais, e ao contrário do OPC Classic, o OPC UA utiliza um modelo de informação orientado a objetos, que suporta estruturas, objetos, máquinas de estado, base legada, além de ser independe de sistema operacional (Windows), onde este:

  • Suporta arquitetura orientada a serviços (SOA) que permite a fácil personalização do OPC UA, para diversos tipos de dispositivos e aplicativos;
  • O OPC UA possibilita a troca de dados brutos e informações pré-processadas entre os sistemas incorporados nos sensores e nos dispositivos de campo e os sistemas de ERP, MES e de visualização de processos (IHM);
  • Possui segurança Robusta de dados.

As principais características do OPC-UA, são listadas abaixo:

  • Para trocar dados, o OPC UA usa um protocolo binário otimizado baseado em TCP. Basta abrir uma única porta no firewall;
  • Os usuários podem combinar livremente os diferentes recursos de segurança de acordo com suas necessidades específicas, para que possam criar soluções escaláveis;
  • OPC UA utiliza uma arquitetura robusta com mecanismos de comunicação confiáveis, monitoramento de tempo configurável e detecção automática de falhas;
  • Os mecanismos de correção de falha restabelecem automaticamente o link de comunicação entre o OPC UA Client e o OPC UA Server sem perda de dados;
  • O OPC UA fornece funcionalidade de redundância que pode ser integrada a aplicações Client e Server a fim de proporcionar alta disponibilidade do sistema e máxima confiabilidade;
  • O OPC-UA permite ainda, como recursos adicionais, redundância de conexão, monitoramento da conexão (interrupções) e buffer de dados e confirmação, conexões perdidas não levam a perda de dados.

Quanto aos principais benefícios do uso do OPC-UA, temos:

  • Fácil e rápida instalação e partida;
  • Implementação multiplataforma, incluindo implementações portáveis ANSI C , Java e .NET;
  • Escalabilidade: de sensores inteligentes e atuadores e dentro de equipamentos;
  • Operação multithread (múltiplas Threads – tarefas), bem como single-threaded / single-task – necessária comunicação de dispositivos embarcados IoT;
  • Segurança, baseada em novos padrões;
  • Tempos limite configuráveis para cada serviço;
  • Chunking (organizar dados em pacotes menores) de grandes datagramas;
  • A arquitetura OPC UA é uma arquitetura orientada a serviços (SOA).

Podemos montar diversos arranjos de arquitetura de conexão com o OPC-UA, lembrando que seu conceito de comunicação básico é baseado em cliente-servidor, logo podemos ter, conexão de um sistema com um hardware, conexão de um ou mais hardwares, com diversos sistemas, como um Scada e um banco de dados, como cliente OPC e até mesmo, externar dados para Cloud, onde o OPC-UA, suporta estes tipos de conexão via Internet.

Quanto ao funcionamento, o OPC-UA, tem as seguintes principais características:

A comunicação OPC-UA suporta dois formatos, UA Binário e XML, o remetente codifica os dados para o formato relevante e o receptor deve ser capaz de decodificar o conteúdo (com todas premissas de integridade e segurança) de forma a reconstruir o dado original.

Formato UA Binário

O formato UA Binário é um conjunto de dados seriados em formato de array (conjunto ou estrutura de dados) de bytes, este é um método simples e de baixo custo, normalmente aplicado no nível de dispositivo, é de processamento limitado, mas de alta prioridade, deve ser interpretado somente por clientes compatíveis com OPC-UA.

Formato XML – Extensible Markup Language

O formato XML é uma linguagem de dados de marcação, isso facilita a interpretação por parte de diversos dispositivos, independe da plataforma e pode-se utilizar-se de esquemas de SOA.

Este formato normalmente está aplicado no nível mais alto de comunicação da planta e suporta clientes genéricos de XML (impressora, por exemplo), como codificar e decodificar XML é mais caro, normalmente esta solução se aplicação no nível de informação e gestão.

O OPC UA suporta dois protocolos de comunicação, o OPC/TCP e o SOA/HTTP(S):

Protocolo OPC/TCP – OLE for Process Control / Transmission Control Protocol

Este protocolo de baseia no TCP para transporte do dado, permitindo um canal full-dulplex entre o Server e o Client, no modelo Socket (soquete), o canal se comunica com pacotes Binários, permitindo canal seguro (soquete seguro), somente clientes OPC são capazes de receber informações de OPC-TCP.

Protocolo SOAP/HTTP (S) – Simple Object Access Protocol / Hypertext Transfer Protocol (Secure)

Este protocolo trabalha com mensagens estruturadas no modelo SOAP (XML), que são transmitidas via HTTP(S), normalmente são chamados de envelopes de mensagem. Estas mensagens são conjuntos de dados que são utilizados no nível de informação entre diversos tipos dispositivos que suportam XML, podendo trabalhar com modo seguro, criptografia e certificados digitais.

O OPC-UA utiliza as tecnologias SSL –  Secure Sockets Layer, TLS – Transport Layer Security e AES – Advanced Encrypton Standard, que permitindo os seguintes controles de segurança:

  • Proteção contra o acesso não autorizado, modificações de valores de processo, sabotagem e falhas causadas por uso negligente;
  • Os recursos de segurança são uma parte obrigatória do padrão e incluem autenticação de usuário e de aplicativo, assinaturas digitais de mensagem e criptografia de dados transmitidos;
  • A troca de dados entre dispositivos OPC-UA é segura, com controle de confidencialidade, integridade e autenticação;
  • Os mecanismos de dados de transporte de OPC-UA são acessíveis por Firewall e Internet, permitindo controles de acesso local e via Internet;

A nova tecnologia PUBLISHER / SUBSCRIBER:

A estrutura de aplicação do OPC-UA é baseada em Cliente-Servidor, este tipo de aplicação não é o modelo ideal quando consideramos soluções para IoT – Internet das Coisas aderente a Indústria 4.0, com isso, surge a solução baseada em Publisher / Subscriber, onde o “publicador” emite os dados para seus “inscritos” e os inscritos também podem enviar dados para o publicado, este conceito permite redes digitais de alta densidade, velocidade e performance.

Quanto as aplicações do OPC-UA, tanto em soluções quanto em descrições de produto, são importantes definir as entradas de dados e seus respectivos protocolos, definir as saídas da mesma forma, orientada as aplicações dos sistemas que vão “consumir” estes dados, inclusive com foco com Cloud, se for o caso, com os protocolos exigidos para tal, exemplo, MQTT.

Softwares de OPC-UA, normalmente são chamados se Suites, pois permitem uma série de funções adicionais, tais como, troca de dados entre protocolos e equipamentos diferentes, acesso a base de dados, tunelamento de dados, entre outros.

O OPC-UA tem total aderências as demandas da Indústria 4.0, podemos destacar alguns pontos:

  • Suporta convergência de padrões e unifica o conector (Protocolo) de saída;
  • Suporta MQTT Message Queuing Telemetry Transport e AMQP Advanced Message Queuing Protocol;
  • Permite comunicação direta em Cloud Computing (Azure, AWS, Google, MindSphere – Siemens…).

Como continuidade do desenvolvimento tecnológico, podemos descrever algumas tendências, baseado em indicares reais de desenvolvimento técnico em curso:

  • OPC-UA incorporado em qualquer dispositivo (coisa) IoT;
  • OPC-UA trabalhar com TSN – Time-Sensitive Networking;
  • OPC-UA conectar dispositivos de campo, independente de protocolos FDI – Field Device Integration.

Concluímos que a evolução da digitalização e a realidade da Indústria 4.0, passam por desafios técnicos de comunicação de dados de toda a cadeia de valor, as novas soluções devem permitir convergência, padronização e velocidade, o OPC-UA é uma proposta concreta e já aplicável.

REDES SDN NA AUTOMAÇÃO INDUSTRIAL

Aplicação das Redes Definidas por Software nos Sistemas Industriais (SDN Software Defined Networking)

As redes Ethernet permitiram conectar o mundo, num primeiro momento entre computadores, depois com a Internet como a conhecemos e agora com a IoT Internet das Coisas.

Os desafios frente as demandas deste padrão, consolidado no mundo, não param de permear área de pesquisa e desenvolvimento na área de comunicações de dados, pois desde o seu advento, nunca estivemos tão perto do seu limite tecnológico.

Quando pensamos em encaminhar pacotes de dados e roteamento entre redes, os padrões das conhecidas camadas 2 e camada 3 do modelo OSI (Open Systems Interconnect), já se definiram com seus modelos e protocolos, não conseguimos com estes padrões existentes, criar novos formados de controle de dados (exclusivos ou especiais).

Nesta mesma linha, gerenciar a rede de comunicação e efetuar a segurança dos pacotes, também remetem a desafios complexos, uma vez que não é tarefa simples, criar área de segurança de dados, principalmente se forem dinâmicas, monitorar comportamentos estranhos na rede, desafios difíceis de serem superados, frente aos roteadores e firewall atuais.

Agora com o advento do conceito da Indústria 4.0, que é a conexão de toda a cadeia produtiva na Internet, vemos novos padrões, protocolos e modelos de gestão de dados que elevam ainda mais as necessidades, que naturalmente não estavam previstas no modelo atual da Ethernet.

O modelo OSI de 7 camadas de rede e o TCP/IP, operam de forma fixa nas camadas um, dois e três, quando imaginamos uma necessidade de se criar algo novo em redes, temos que pensar na camada de aplicação, onde temos liberdade para criar, através de programação, novas formas de gestão de dados.

Para entender melhor o modelo existente, vamos relembrar como o switch e o roteador de dados funciona e como o conhecemos no modelo existente, o que ele faz:

  • Entender quando o pacote chega;
  • Ver na tabela de encaminhamento para onde vai (ou descartar);
  • Enviar pacote;
  • Atualizar a tabela;
  • Atualizar estatísticas;
  • Usa protocolos pré-definidos.

Perguntamos: Neste formato então, com o modelo ATUAL existente de Ethernet para Encaminhamento e Roteamento, é possível CRIAR controles, monitoramento e segurança de rede fora dos padrões atuais, com objetivo de atender NOVAS demandas, protocolos e novas ameaças de redes?

A resposta é: NÃO!

Para entender o caminho da solução, as redes SDN abrem novas possibilidades a entender:

  • Com o modelo ATUAL existente, somente sobra a CAMADA DE APLICAÇÃO para desenvolvimento, onde tenho possibilidade de criação;
  • Com este conceito de programar redes no nível de Aplicação, tem-se as SDN ou Redes Definidas por Software;
  • As redes virtuais (SDN) são um novo formato de gestão e comando de dados em uma rede, é uma quebra de paradigma e um novo mundo de possibilidades.

Para darmos alguns exemplos de cenários mais conhecidos na área de gestão de dados atualmente, frente aos novos desafios, podemos limitar nosso tema nas seguintes necessidades comuns, encontradas abaixo:

  • Fazer um projeto de redes Ethernet que permita a convergência de diversos setores (Indústria, TI e Logística), utilizando diversos protocolos e controlar as redes de uma central, bem como sua monitoração;
  • Criar um projeto de segurança de rede para controle de acesso, autenticação e monitoramento de regras, de forma dinâmica;
  • Escalar um projeto de rede para convergência de camadas de IoT (Internet das Coisas) e integrar nos sistemas de automação da planta, independente dos protocolos e com regras próprias.

A virtualização das redes, entra na mesma linha da virtualização dos computadores, vamos relembrar, de nossos textos anteriores:

Objetivo da virtualização de computadores: Processamento, armazenamento, compartilhamento e gestão;

Objetivo da virtualização de redes: Encaminhamento, roteamento, segurança e gestão.

Sendo que a duas soluções podem ser executadas On-Premisse (local) ou em Cloud Computing (computação nas nuvens).

A evolução dos sistemas de rede Ethernet, se baseia na gestão por camadas, esta é uma forma de entendermos o desenvolvimento tecnológico e o atendimento de suas demandas:

  • No início tínhamos apenas os concentradores de rede (HUB), que tinha apenas a função de conectar à rede no Layer 1, conexão física, não gerenciando dados em nenhuma instância;
  • Como os switches, temos a gestão das redes no Layer 2, também conhecido no nível de endereçamento físico (MAC), trabalhando com tabela de encaminhamento, cuja função principal, entre outras, é gerenciar pacotes e colisão de dados;
  • Com a união de redes de diferentes funções, localizações e diversos serviços, temos a gestão da rede no Layer 3, ou roteamento, nível IP, dado pelos roteadores de rede, onde podemos configurar rotas e permissões de dados, elevando o nível de controle da rede, com seus diversos protocolos roteamento.
  • A proposta da evolução, dado agora pelo Layer 4, é permitir a conexão de uma aplicação na camada de rede, diretamente na camada de transporte, utilizando-se API (Application Programming Interface), onde podemos montar tabela de encaminhamento, roteamento e regras próprias de segurança, fazendo todas as outras funções, porém com programação própria.

As redes SDN (Software Defined Networking) ou Redes Definidas por Software, é uma tecnologia que permite criar redes virtuais (Ethernet), utilizando-se de um hardware simplificado para encaminhamento de pacotes, conectados um sistema operacional de rede, conectados a API diretamente nos aplicativos de função da rede.

Como então funciona este modelo de gestão de dados no Layer 4? Como o switch ou roteador se comporta e o que faz na rede:

  • Entender quando o pacote chega;
  • Ver na tabela de encaminhamento para onde vai;
  • Enviar pacote (como deve ser tratado – programação);
  • Só acessa tabela de encaminhamento;
  • Usa API para conectar DEVICE na Tabela;
  • Atualiza tabela e estatísticas.

A tecnologia e o princípio de funcionamento das redes SDN, se dão por três elementos do conjunto, veja como é feito:

  • Utilizando Switches de Layer 4 para interface, faço todas conexões físicas;
  • Conecto os Switches em um Controlador SDN (sistema operacional da rede);
  • Programo as API (Application Programming Interface) de acordo com cada aplicação que tenho, criando as funções, regras e tabelas.

Para facilitar o entendimento do uso das redes SDN, descrevemos abaixo alguns termos muito utilizados com esta tecnologia:

  • SDN – Software Defined Networking – é o conceito de criação e gestão de redes de comunicação de forma virtual – conjunto de tecnologias;
  • NFV – Network Functions Virtualization – é a virtualização de funções de rede de forma a padronizar funções (comunicação, segurança ou regras);
  • SDWAN – Software-Defined Wide-Area Network – é a virtualização de conjuntos de serviços dentro de uma WAN, usando NFV, por exemplo, VPN, 4G;
  • OPENFLOW – é a tecnologia (protocolo) que permite aplicar de fato a SDN (sistema operacional de rede e as API);
  • ORQUESTRAÇÃO – é a gestão de um serviço de cloud de ponta a ponta, em nosso caso usar SDN no Cloud e orquestrando, por exemplo, com OpenStack;
  • OVERLAY – é uma rede sobreposta, conceito de criar uma rede (virtual) em cima de outra rede.

Como benefícios no uso das redes SDN, descrevemos abaixo suas principais características:

  • São redes de custos menores;
  • As redes SDN são flexíveis quanto ao projeto e implantação, testes simples;
  • Podem ter gestão centralizada ou distribuída no circuito de rede;
  • Por segurança, usa a negação por padrão, no envio de pacotes, o que não está programado, não é reconhecido;
  • Sistema de gestão de multiprotocolo, interoperável e com regras programáveis;
  • Facilidade de monitoração e gerenciamento da rede, conexões e fluxo de dados;
  • Facilidade de flexibilizar regras (permissões) de dados com geolocalização do Host;
  • Não se mistura arquiteturas convencionais de Ethernet com SDN;
  • O conceito já está preparado para uso em Cloud, criando ambientes híbridos, aderentes a Indústria 4.0.

As redes SDN se caracterizam por dois principais elementos básicos:

  • O Switch Layer 4, que utilizando o OpenFlow, conecta a tabela de encaminhamento da rede, através de API;
  • O controlador, que é o Sistema Operacional da rede e permite a programação da SDN.

Os sistemas SDN, permitem arquitetura centralizada e distribuída, dentro de uma rede única ou em modelos de sub-redes.

A implantação das redes SDN na automação industrial, segue o mesmo conceito e arquitetura conhecida e convencional, porém temos os switches e roteadores Layer 4 com OpenFlow, conectando fisicamente à rede e fazendo a conexão de API na tabela de encaminhamento e nesta rede, um controlador, em nosso exemplo estamos usando um centralizado, gerenciando e controlando toda a rede, inclusive conexões de IoT (Internet das Coisas), conceito da Indústria 4.0, conectados em Cloud.

No aspecto desenvolvimento tecnológico, podemos eleger algumas principais tendências na continuidade das redes virtuais:

  • Switches com programação direta das API e orquestração em Cloud;
  • Virtualização total dos controladores, principalmente em soluções Wireless (NaaS) Network as a Service;
  • Integração e convergência de dados (TO) Tecnologia da Operação, (TI) Tecnologia da Informação e (IoT) Internet das Coisas, usarem SDN para Flexibilização, Distribuição e Segurança de Dados.

Concluímos que as redes SDN são uma resposta aos grandes desafios de conectividade de comunicação na atualidade, vivemos o momento da virtualização do processamento, possibilitado escala que antes não era possível, com a virtualização das redes, rompe-se o limite tecnológico que estamos próximos, colocando as soluções de acordo com os patamares esperados pela Indústria 4.0, mudando sobremaneira a automação industrial como conhecemos hoje.

 

CLOUD COMPUTING NA AUTOMAÇÃO INDUSTRIAL

Integrando Sistemas de Operação e Manutenção Industrial na Nuvem

A convergência da TO Tecnologia da Operação, que envolve a automação industrial e a gestão de planta, juntamente com a TI Tecnologia da Informação, estão permitindo a interconexão de toda Cadeia de Valor das unidades de negócio industrial, premissa da Indústria 4.0.

Com a evolução de automação, herdando as tecnologias da informática ao longo dos anos, vieram desafios que não existiam até pouco tempo atrás, tanto em projetos de controle, quanto em manutenção de ativos, podemos listar alguns destes desafios nas plantas:

  • Alta demanda por ferramentas de produtividade;
  • Ampla utilização de redes (dados) em todos os níveis;
  • Aumento dos custos de aquisição e manutenção de sistemas;
  • Convergência da TO com TI unindo ativos e gestão;
  • Dificuldades de manter sistemas atualizados.

A automação industrial, utilizando os primeiros sistemas supervisórios Scada, comunicavam em formato ponto a ponto com os controladores, chamados de arquitetura Stand-Alone, por vezes com comunicação serial e não haviam interligações entre as estações.

Com a incorporação de redes Ethernet nos controladores, pudemos fazer arranjos de PLC e Scada com arquiteturas de dados compartilhados entre estações, montar sistemas em anéis e em redundância, além de poder trabalhar no conceito de cliente-servidor.

A convergência dos dados, trouxe para a automação, o atributo da gestão industrial, ferramentas de gestão de ativos, gestão de alarmes, gestão de malhas, controle avançado, PIMS, MES e MOM, entre outros, compõem uma nova gama de apoio, tanto para o controle operacional, quanto para a manutenção, elevando a quantidade de dados e usuários em uma planta industrial toda em rede.

Tudo isso gerou uma demanda por gestão dos sistemas de informação, que antes era atribuição exclusiva da TI, agora o departamento de TO, também passa a ter os mesmos problemas.

Do processamento individual, passamos por rede de dados, e compartilhamos informações na planta, com toda esta demanda, tecnologias de virtualização, que vamos ver, permitiram escalar soluções a menores custos, também vieram soluções com Cloud Computing, objeto de nosso texto, complementando com Fog Computing e Edge Computing, tudo visando soluções de processamento, compartilhamento e armazenagem de dados, um dos pilares da Indústria 4.0.

A automação quando era uma ilha, ou quando muito compartilhava dados locais, sua estrutura de custo se limitava ao controlador e uma licença de Scada, com seus sensores simples e sinais discretos, com a incorporação de redes e ferramentas de software, cada vez mais sofisticadas, os custos de aquisição e gestão destas plataformas, deram um salto, passando a ser um problema de ativos de aquisição de alto custo e manutenção para o parque industrial.

A solução para esta expansão de custo e gestão de plataforma, vieram basicamente de duas formas, a Virtualização e o uso de Cloud Computing, com principal objetivo de simplificar as soluções e reduzir custos.

A virtualização de plataformas é técnica de criar e utilizar uma plataforma computacional (não física), de hardware ou software, onde se pode distribuir e gerenciar recursos de um único ponto, podendo ser Local (On-Premisse) ou via Cloud Computing.

Quando eu uso a virtualização? Vamos ver alguns cenários principais, lembrando que nosso foco é entender toda esta tecnologia dentro da automação industrial:

  • Cenário 1: Reduzir custos de infraestrutura e processamento na plataforma local (on-premisse) – processamento crítico;
  • Cenários 2: Usar processamento remoto (não crítico) para aumento de capacidade e uso de ferramentas em forma de serviço, sem infraestrutura, direto no Cloud.

O Cloud Computing ou Computação na Nuvem, é um conceito computacional, que se refere a utilizar processamento, armazenamento, compartilhamento e gestão de dados, utilizando a Internet como meio, onde Infraestrutura, Plataforma e Softwares são adquiridos como serviços.

Características principais do Cloud Computing:

  • On-Demand – Serviço sob Demanda – Você só paga pelo que precisa;
  • Paga pelo uso – somente paga quando o serviço configurado inicializa;
  • Self Service – a contratação é toda dentro da plataforma que escolher, sem burocracia, só escolher os serviços;
  • Automatização – a infraestrutura é automatizada, com scripts quanto por interface, gestão completa a distância.

Para que tudo isso possa ser aplicado na prática, já temos diversos provedores de serviços de Cloud Computing, onde podemos listar abaixo os principais, não são únicos, são os mais conhecidos:

Plataformas Cloud Computing de uso geral:

  • Microsoft Azure
  • IBM Blue Mix (Watson)
  • Amazon Web Services AWS
  • Google Cloud Platform

Plataformas Cloud Computing para automação Industrial:

  • Siemens – Mind Sphere
  • GE – Predix
  • Rockwell – Scio

O conceito de uso de Cloud Computing é baseado em Serviço, isto é, eu não adquiro licenças, softwares, aplicativos, hardware ou algo do gênero, eu uso a solução, podendo ser desde uma infraestrutura, uma plataforma de desenvolvimento ou um serviço de aplicação, apenas pagando pelo uso, veja abaixo os principais modelos:

  • IaaS – Infrastructure-as-a-Service – Infraestrutura com Serviço – Maquinas virtuais, processamento, backup;
  • PaaS – Platform-as-a-Service – Plataforma como Serviço – Soluções, aplicativos de ferramentas, criação de soluções;
  • SaaS – Software-as-a-Service – Software como Serviço – Usuários, utilizar a ferramenta direto, um aplicativo.

Para entender o grau de evolução que a automação está chegando, tudo o que se passa na TI é esperado que venhamos a ter na TO em pouco tempo, por exemplo, hoje uma automação convencional (On-Premisse) eu compro tudo para implantar, do hardware ao software e também, tenho que desenvolver tudo, além de fazer a gestão.

Com os modelos de Serviços, eu posso ter um novo formato, por exemplo, usuários que ao invés de comprar sensores, controladores e atuadores, alugam de algumas empresas com este perfil, sendo responsável por toda infraestrutura, na mesma linha eu posso alugar também a plataforma, não preciso comprar softwares de desenvolvimento, podendo chegar a adquirir toda a automação, controle operacional e manutenção do sistema em forma de serviço.

O princípio básico de conexão de dados de planta no Cloud é a utilização de gateways, com se comunicam por rede na unidade industrial, enviando para o provedor de serviços, utilizando a Internet como meio, este é o princípio de processamento como serviço.

Este conceito de aplicação, vem evoluindo em diversos tipos de equipamentos, máquinas e sistemas, por exemplo, a indústria que já tem o seu Cloud, já se comunica com uma máquina comprada e instalada em seu próprio parque industrial, um compressor, por exemplo, onde o fabricante monitora toda a manutenção e os dados de sua Cloud própria, podendo ser compartilhados no Cloud da empresa cliente, estes são subsistemas em Cloud, tudo interligado e compartilhando informações.

Podemos descrever abaixo as principais vantagens de uso do Cloud Computing:

  • Não tem preocupação com infraestrutura – hardware e se for contratado plataforma, não precisa de licenças de aplicativos;
  • O compartilhamento de serviços é fácil, já está na nuvem, pode-se trocar dados;
  • Gerenciamento de versões, patch´s, atualizações, não é necessário se preocupar;
  • Não existe a gestão do Ativo, a gestão é do consumo, melhor relação investimento x custo;
  • Manutenção é de responsabilidade do provedor de serviços.

Nesta mesma linha, podemos descrever abaixo algumas desvantagens de uso do Cloud Computing:

  • É imperativo – Infraestrutura de comunicação eficiente, link de internet de alta disponibilidade e de banda de dados de acordo com seu projeto;
  • Risco de desconexão de serviços e perda de processamento, controle operacional não deve ser em Cloud;
  • Preocupação com a segurança de dados, invasão externa, roubo de dados ou hackeamento do sistema.

Principais pontos a serem observados na aplicação de Cloud Computing na automação industrial:

  • Sistemas de apoio a tomada de decisões podem ser utilizados em Cloud, por exemplo, gestão de ativos, gestão de alarmes, otimização de processos, entre outros;
  • Sistema de controle do processo, controle crítico e segurança, Scada, não se usa Cloud, o processamento é local, no máximo envia-se informações para análise e apoio a tomada de decisões.

As plataformas de Cloud Computing, tem características técnicas que deve ser levada em consideração em projetos e aplicações de soluções, as principais abaixo relacionadas:

  • Conectividade – equipamentos e dispositivos devem suportar uma conexão via internet, para enviar ou receber dados, de forma segura;
  • Latência – o tempo da troca de dados entre os clientes e o servidor, equipamentos e operações críticas, não podem permitir espera para processamento;
  • Processamento – capacidade de entregar o resultado, no tempo esperado, baseado na quantidade entradas de dados;
  • Gravação – uso de um banco de dados, relacional, temporal ou não estruturado, para análise e tomada de decisões na planta, esta função é base para os sistemas de inteligência.

Levar dados da planta industrial (sensores, controladores e sistemas), para o Cloud, necessita de um arranjo complexo, com diversas interfaces, ocasionando latência de rede, limitação de processamento e gravação, além da dificuldade da interconexão de dispositivos.

Para ajudar a minimizar estas dificuldades técnicas, nas tecnologias que temos hoje, foram criados dois conceitos que trabalham com o Cloud Computing.

O FOG Computing – Computação em Névoa ou Neblina e EDGE Computing – Computação de Borda, são arquiteturas de rede em CLOUD Computing, que tem o objetivo de:

  • Reduzir quantidade de dados para enviar ao Cloud;
  • Diminuir a latência da rede e da Internet;
  • Melhorar o tempo de processamento e resposta do sistema.

EDGE Computing – Computação de Borda, tem objetivo de processar os dados de análise mais próximo dos dispositivos de campo (controle).

Pode ser processado diretamente no sensor inteligente, no controlador que suporte esta função ou em um processador local, que permita conexão, processamento e gravação desta camada, somente enviar para o Cloud o que for necessário.

FOG Computing – Computação em Névoa ou Neblina, tem objetivo de processar os dados de análise mais próximo da camada Cloud, integrando processos de gestão e tomada de decisões locais.

Pode integrar a camada de EDGE, ou comunicar diretamente nos processadores (SCADA, MES) e gerar uma camada intermediária, antes de enviar para o Cloud.

Essas tecnologias podem trabalhar em arranjos separados, de acordo com a necessidade de cada projeto, onde a borda de processamento é mais necessária, lembrando que não é uma regra, são arranjos que ajudam a ganhar performance para uso do Cloud Computing.

Todos os meus dados e informações vão para o Cloud Computing? Não! Vamos ver algumas considerações em relação a isto:

  • Somente vai para Cloud informações que devem ser relacionadas com outros dados fora da célula local;
  • Informações que devem ter backup e rastreio;
  • Informações que rodam em aplicativos para o Cloud;
  • Quando parte do processamento é transferido para o Cloud.

Enviar dados para o Cloud Computing, tem a premissa de comunicação externa como meio a Internet, remetendo a preocupações com a segurança de dados, exigindo projetos de Cibersegurança, abaixo relacionamos os principais pontos a serem observados:

  • Treine pessoas;
  • Todas as redes devem ser segmentadas;
  • Utilizar DMZ (redes desmilitarizadas) para criar células de segurança;
  • Para conectar a célula no Cloud, utilize Firewall e limite as regras (mais simples é melhor);
  • Somente use conexão bidirecional em casos de M2M;
  • Limite conexões físicas e espaços de acesso;
  • Monitore a rede com Sistemas de Cibersegurança;

Veja artigo específico: CIBERSEGURANÇA NA AUTOMAÇÃO

Quanto à implantação, há diversas premissas de projeto de infraestrutura e conectividade que devem ser levando em consideração, abaixo listamos os principais pontos que devem ser observados:

  • Justifique as questões que te levam a enviar informações para Cloud;
  • Faça um projeto para eliminar infraestrutura e leva-la para o Cloud;
  • Use as ferramentas de Infraestrutura, Plataforma e Serviços de Automação (vincule soluções);
  • Integre e faça convergência de dados, analise se é necessário e possível aplicações EDGE e FOG;
  • Entenda o valor da Informação no Cloud, use ferramentas de Data Science;
  • Foque na segurança;
  • Escale as soluções e evolua os modelos de controle e decisões.

A tecnologia do Cloud Computing é relativamente nova, todavia, a evolução continua e podemos apontar algumas tendências para o aprimoramento do uso destes recursos:

  • Equipamentos de automação com canal direto para conexão em Cloud (TSN) Time-Sensitive Networking – dispensando uso de Gateways;
  • Equipamento se automação com OPC-UA incorporado, facilitando a criação de células de FOG ou EDGE para envio ao Cloud – interconexão e segurança simplificada;
  • Ferramentas de automação cada vez mais em Cloud, vinculando controle operacional com Deep Learning, Realidade Aumentada e Decisões Autônomas.

Concluímos que Cloud Computing é a ponte para a Indústria 4.0, pois a interconexão da Cadeia de Valor da Indústria na Internet, permitirá escala, eliminação de erro e operação em tempo real das plantas produtivas, reduzindo custos de produtos e processos.

CANVAS NA AUTOMAÇÃO INDUSTRIAL

Ferramenta Ágil para Planejamento de Implantação de Sistemas de Automação Industrial

A importância de gerenciar projetos com eficiência é inquestionável, todavia, o que se vê, na maioria dos casos, é relegar gerenciamento a questões macro, onde alguém controla a implantação, ou quando muito, um departamento cuida disto na empresa, ficando muito distante da realidade do dia a dia de quem está em contato direto com os clientes e patrocinadores do projeto.

Até pouco tempo, vivemos um grande boom de certificações em gestão de projetos, PMI, PMBOK e assim por diante, com diversas questões de governança, tudo muito importante e de grande valor, mas aqui, vamos complementar a importância desta ação, no mundo da automação industrial, utilizando-se de ferramentas ágeis.

Como nossa experiência, gostaria de pontuar o perfil de projetos de automação na indústria, tanto em relação a novos projetos, quanto a ampliações ou melhorias, o que vemos é um despreparo, muitas vezes não intencional, mas de não entendimento da importância de gerenciar projetos de implantação com ferramentas mínimas.

Escrevemos um artigo sobre gerenciamento de projetos de automação industrial, seguindo as premissas do PMBOK, foi bastante comentado e acreditamos ter ajudado a entender e iniciar uma jornada neste mundo da administração de entregas, todavia, recebemos muitos comentários que a grande maioria de projetos de automação, principalmente em integradoras e departamentos específicos de automação nas empresas, são pequenos e complexos, com muitos envolvidos, muito dinâmicos e com muitas falhas em documentação, quando esta existe.

Desta forma, nossa proposta aqui, é apresentar uma ferramenta, um método complementar ao que já falamos, mas de grande valor, que é o CANVAS, ferramenta poderosa, simples de usar, com foco no planejamento, contribuindo sobremaneira, na condução e implantação de projetos de automação industrial, com as características citadas, gerando valor a todos os envolvidos.

Então, como são os projetos hoje de automação industrial? Vamos descrever as principais características, não limitadas a estas, mas que nos dê um escopo descritivo de nosso texto:

  • Em grandes obras a automação industrial é um item minimizado, ficando sempre para o fim;
  • Projetos de automação são dinâmicos e a grande maioria não tem informação para um bom planejamento;
  • Normalmente os Stakeholders (todos envolvidos no projeto) não participam do planejamento do projeto da automação, levando a consequências graves de cronograma, custo e qualidade.

Porque então usar o CANVAS na automação? Qual a contribuição desta ferramenta que iremos apresentar?

  • Ferramenta para departamento de engenharia e integradores com diversos projetos dinâmicos;
  • Caso use o PMBOK como diretriz, o CANVAS e excelente opção para Planejamento;
  • Mitigar e diminuir os riscos de implantação de sistemas pelo engajamento de todos envolvidos.

Entendendo então, as questões macro da automação industrial e as justificativas do uso desta ferramenta, vamos falar neste texto sobre:

  • Focar em uma metodologia simples e eficaz para planejamento de projetos;
  • Entender como usar o CANVAS;
  • Engajar stakeholders no plano de projeto;
  • Como dinamizar a gestão de projetos de automação industrial.

Vamos entender o que é o CANVAS *:

  • Metodologia* de planejamento de projetos;
  • Baseado em Neurociência (simples e visual);
  • Baseado em Modelo Mental (intuitivo);
  • Quadro colaborativo (modelo A1 – download);
  • Uso de termos curtos (Post-It);
  • Quadro flexível, modificável, claro e conciso;
  • Ponto central da ideia, criação, discussão e solução;
  • É a base para Cronogramas, Planilhas, Contratos…
    • * Todos os créditos do Prof. José Finochio Junior no site http://pmcanvas.com.br / (idealizador do modelo).

Quais os benefícios do uso nesta metodologia:

  • Facilidade de todos participarem;
  • Rápido para coleta de informações;
  • Dados organizados e sequenciados;
  • Engajamento dos participantes.

Vamos entender as premissas básicas da ferramenta CANVAS, vamos apresentar o que é fundamental para uso.

  1. O CANVAS trabalha respondendo perguntas diretas:
    1. Por quê? Justificativas, objetivos e benefícios;
    2. O que? Produto e requisitos;
    3. Quem? Stakeholders e equipe;
    4. Como? Premissas, grupo de entregas e restrições;
    5. Quando e quanto? Riscos, linha do tempo e custos.
  1. O CANVAS é composto de 13 quadros para serem preenchidos:
    1. GP Gerente do Projeto;
    2. PITCH Nome do Projeto;
    3. JUSTIFICATIVAS – o motivo do projeto;
    4. OBJETIVO SMART – o que te levará a solução com o projeto;
    5. BENEFÍCIOS – os benefícios do projeto;
    6. PRODUTO – o que é o projeto;
    7. REQUISITOS – o que é necessário para executar o projeto;
    8. STAKEHOLDERS – envolvidos no projeto e fatores externos;
    9. EQUIPE – todos os profissionais envolvidos que farão entregas;
    10. PREMISSAS – cenários problema, sem controle de gerente de projetos;
    11. GRUPO DE ENTREGAS – conjuntos de entregas do projeto pela equipe;
    12. RESTRIÇÕES – limitações reais do projeto;
    13. RISCOS – o que pode dar errado;
    14. LINHA DO TEMPO – cronograma macro baseado nas entregas;
    15. CUSTOS – quanto irá custar o projeto total.
  1. O CANVAS deve ser preenchido pela equipe, utilizando-se dos Post It, e seguindo uma sequência, a mesma apresentada no item anterior, sendo o fluxo de trabalho ou Workflow.
  1. O método de trabalho com o CANVAS é dividido em quatro partes:
    1. Conceber – a definição dos 13 passos (veja o exemplo na apresentação e no vídeo);
    2. Integrar – agrupar blocos e verificar coerências – passos (veja o exemplo na apresentação e no vídeo)
    3. Resolver – balancear o projeto, discutir problemas de limitações com todos (o que fazer):
      1. Não se resolve na hora – é lição para stakeholders;
      2. Deve identificar cenários de estrangulamento;
      3. Problemas de benefício;
      4. Problemas de requisitos;
      5. Problemas de entrega;
      6. Resolver juntos (equipe);
      7. Trazer soluções e cenários (plano B).
    4. Compartilhar – comunicar a todos os detalhes do projeto (o que):
      1. Mensagem de definição – porque o projeto existe;
      2. O que o projeto produz que atende ao cliente;
      3. Quem está no projeto e fornece recursos;
      4. Qual trabalho será feito, requisitos, premissas;
      5. Quais os riscos e incertezas;
      6. Qual a programação e custos do projeto.

Existem alguns pensamentos errados a respeito do CANVAS e sua aplicação como ferramenta, vejam os principais:

  • Pensar que é para projetos pequenos;
  • Eu faço sozinho;
  • Para que fazer no Post It se posso fazer direto no computador;
  • O espaço do CANVAS é pequeno para detalhar;
  • O CANVAS substitui documentação.

Concluímos que melhorar a eficiência na implantação de projetos de automação e diminuir os riscos de contratação, é fundamental para obter retorno sobre os investimentos e atendendo a todas as expectativas dos envolvidos.