Versões comparadas

Chave

  • Esta linha foi adicionada.
  • Esta linha foi removida.
  • A formatação mudou.


INTRODUÇÃO 

Aqui você encontrará as informações necessárias para utilizar a Integração RM com Smart Link DataSharing v2. Para essa integração será utilizado o protocolo de comunicação grpc. 

Nesse modelo de integração, o dado é recuperado do ERP RM e enviado para o Smartlink server (serviço hospedado na plataforma TotvsApp).

Na versão anterior de integração com Smart Link DataSharing v1 , o dado é recuperado do ERP RM e enviado diretamente para a Carol (mais detalhes disponível em https://tdn.totvs.com/x/l-55IQ,).


01.Configurando a integração 

incluir componente desk card contendo os passos...

1 - Deve abrir uma issue de apoio para equipe de framework BH (DFRWFOUNDATION) solicitando o registro do app em questão nas configurações gerais de integração (disponíveis no arquivo TotvsAppSaas.json).


incluir print do wizard.. está dando erro na tela

2 - Informar o clienteId e clientSecret enviados para o cliente no "Assistente de ativaçaõ" selecionando o app em questão.


02.Serviço RM de envio dos dados

Na integração Smart Link DataSharing v1, os dados são enviados em ciclos execução de Job's (mecanismo de  Job do RM - https://tdn.totvs.com/x/_Z4YIQ).

Já na integração Smart Link DataSharing v2, os dados serão enviados através da execução automática de um serviço de Host chamado NotifyServer.

Nesse mecanismo, somente uma máquina do ambiente do cliente (seja um servidor de aplicação ou um servidor de Job) terá a responsabilidade de enviar os dados. Em nenhum momento duas ou mais máquinas poderão enviar  os dados ao mesmo tempo.

Caso ocorra algum problema com essa máquina responsável pelo envio, ficando portanto indisponível, outra máquina assumirá o papel de envio.


03.Envio dos pacotes (batchs)

Nesta versão, a sincronização de dados entre o RM → Smart LIink → Carol seguirá o conceito de envio por pacotes (batchs). Cada pacote possui um identificador que será utilizado para rastreio dos dados conforme são enviados pelo Smart Link, para a Carol e por fim até ao app.

O batch será  composto por múltiplas mensagens que irão conter os registros das tabelas que deverão ser enviadas para o serviço de ingestão utilizando o protocolo de comunicação gRPC.

Cada mensagem é formada por 200 registros. 

No RM, o rastreio dos dados enviados podem ser verificados através de uma sentença sql na tabela "GDataShareRecords'. 


Informações

A tabela GDataShareRecords é responsável em manter um rastro dos registros que já foram enviados (por tabelas).

Portanto, operações de update, delete e insert não poderão ser efetuadas nessa tabela de forma manual. 

O processo de limpeza dessa tabela é feito automaticamente pelo serviço de envio de dados.


04.Serviço de entidades 

A lista das tabelas que participarão do processo de envio é recuperada através da chamada de um serviço com endpoint "/api/carol-definitions/v1/entities/RM".

O retorno da chamada desse serviço terá o seguinte padrão de objeto:

Bloco de código



Portanto, solicitações de inclusão / exclusão de tabelas para a integração devem ser tratadas diretamente com a equipe de plataformas do TotvsApp.





05.Dados disponíveis na Carol










da coluna que compõe a chave primária, precisa estar presente na listagem das colunas do schema (SchemaColumn[] columns)

1.3 Sumário

No final do job será necessário enviar um sumário do pacote, informando o numero de mensagens enviadas, o total de registros enviados e o range de datas que o pacote representa.

O sumário é o responsável por duas tarefas importantes:

  • Permitir a observabilidade dos pacotes em relação ao número de mensagens enviadas. Permitindo a identificação de mensagens que podem ter sido perdidas e emissão de alertas.
  • Serve como um sinalizador para a execução otimizada dos pipelines de dados na Carol. Garantindo que o processamento dos dados será, na maioria das vezes, executado quando pacotes completos estiverem disponíveis.  

1.4 Estrutura básica de um pacote

draw.io Diagram
bordertrue
diagramNamePacote - estrutura básica
simpleViewerfalse
width
linksauto
tbstyletop
lboxtrue
diagramWidth670
revision2


02.MECANISMO DE ENVIO (JOB)

Mecanismo de job que deverá rodar em um período configurável de tempo, executando a sequência de chamadas de APIs descritas a seguir:

  1. Registry (eventual)
  2. Token (eventual)
  3. Entidades (eventual)
  4. Write
  5. Summary

Ou seja, se todos os mecanismos recomendados forem implementados, será possível em alguns momentos de execução do job, chamar apenas a API Intake da Carol para enviar os dados.

O framework deverá implementar uma rotina de controle dos registros baseado em timestamp, este controle poderá ser nativo/prévio ou habilitado somente para as tabelas que forem retornadas pela chamada da api Entities.

2.1 Registry

Serviço responsável por centralizar todas as URLs acessadas pelo ERP. Não possui autenticação e deve ser a única URL configurada diretamente.

Os serviços cadastrados são retornados usando a seguinte estrutura:

Bloco de código
titleEstrutura dos serviços
linenumberstrue
[{
    "service": "rac-token",
    "endpoints": [
        {
            "version": "1",
            "address": "https://admin.rac.dev.totvs.app/totvs.rac/connect/token"
        }
    ]
}]

2.2 Autenticação

As chamadas disponíveis na solução (Write e Summary) são autenticadas pelo RAC. Cada cliente provisionado recebe um client id e um client secret que são utilizados para gerar o token de serviço onde além de autenticar também é utilizado para identificar o cliente.

Segue um exemplo da chamada para geração do token:

  • A url responsável pela geração do token de serviço para o tenant deve ser recuperada pela chave rac-token na listagem dos serviços do Registry (2.1)
Bloco de código
languagec#
titlecURL para geração de token
curl --location 'https://admin.rac.dev.totvs.app/totvs.rac/connect/token' \
--header 'Content-Type: application/x-www-form-urlencoded' \
--data-urlencode 'grant_type=client_credentials' \
--data-urlencode 'scope=authorization_api' \
--data-urlencode 'client_id=xxxxxxxxx' \
--data-urlencode 'client_secret=xxxxxxxxx'

2.3 Entidades

As entidades consistem em uma parte fundamental do processo, elas determinam todas as entidades que o ERP deve subir de acordo com os produtos contratados e o ERP utilizado.

Quando o ERP inicia um ciclo de envio, após gerar as credenciais conforme o passo 2.2, é necessário fazer um solicitação para a API de entidades, onde serão retornadas no seguinte formato

  • A url responsável pela geração do token de serviço para o tenant deve ser recuperada pela chave provisioning-carol-definitions-entities na listagem dos serviços do Registry (2.1)
Bloco de código
languagejs
titleEstrutura de retorno da API de Entidades
{
    "uploadVersion": 2,
    "uploadVersionInfo": "Gestão de Upload de Dados via gRPC",
    "queries": [
        {
            "table": "SE4",
            "filter": null,
            "forceReload": false,
            "metadata": null
        },
        {
            "table": "FKD",
            "filter": " FKD_DTBAIX > '20200101' ",
            "forceReload": false,
            "metadata": null
        },
        {
            "table": "CTT",
            "filter": null,
            "forceReload": false,
            "metadata": null
        }
    ]
}

2.3.1 Migração progressiva

Para habilitar uma migração progressiva dos clientes é necessário enviar no no endpoint provisioning-carol-definitions-entities, o header http x-upload-version,esse header vai nos informar qual versão da subida de dados é suportada pela versão do ERP instalada no cliente.

  • Versão 1: Utiliza rest para enviar direto para a Carol (x-upload-version: 1)
  • Versão 2: Utiliza o framework gRPC para envio e permite observabilidade (x-upload-version: 2)

2.3.2 Características:

  1. Filtro de dados (filter): clausula SQL ANSI obrigatória para entidades que possuem dados históricos ou de movimentação, atualmente a plataforma trabalha com dados no máximo até de 2 anos para trás. Deve ser utilizado sempre que o ciclo de envio estiver enviando a tabela pela primeira vez (carga inicial) ou quando uma solicitação de recarga dessa tabela (force reload) seja sinalizada para o ERP.
  2. Recarga de uma tabela específica (forceReload): é um campo do tipo booleano que indicará para o ERP efetuar a recarga desta tabela. Uma vez que a recarga foi solicitada, na próxima chamada feita para o serviço de Entities ela virá como 'true' para sinalizar o reenvio e as chamadas subsequentes irão trazer ela imediatamente como 'false'. Recurso importante para tratar cenários com problema sem a necessidade de acessar o ambiente do cliente.

    1. Quando efetuar uma recarga de dados é obrigatório que as mensagens referentes as tabelas envolvidas na recarga sejam enviadas com a flag isBaseLoad igual a true, para evitar que grandes quantidades de dados entrem na mesma fila que os dados incrementais (delta) gerados no durante uso das funcionalidades que afetam dados no ERP.
  3. Campo genérico para utilização conforme a necessidade de cada ERP (metadata): Campo do tipo texto livre para cadastro de qualquer informação que possa ser utilizada para auxiliar os ERPs no ciclo de envio para cada tabela.
Informações
titlePontos importantes
O recurso para recarregar uma determinada tabela forceReload é bastante importante para o processo, utilizado sempre que é identificado algum problema em pipelines de dados na Carol ou até para as aplicações TOTVS Apps. Nesse sentido, a correção é executada (pipelines ou aplicação) e a recarga é sinalizada para receber os dados novamente da forma correta sem que haja necessidade de acessar o ambiente do cliente.

2.4 Tratamento de erros para a rotina de envio

  • A rotina deverá trabalhar sob o controle de transação READ_COMMITED, não pode realizar leitura suja de registros, ou seja, registros gerados por transações que ainda não foram commitadas na base.
  • Caso o framework permita a remoção física de registros, deverá ser implementada uma rotina para garantir a notificação da deleção. Pois no caso de delete lógico o registro é enviado à Carol com o atributo deleted = true.
  • Somente poderão subir para a Carol, tabelas que possuam chave primária, seja ela simples ou composta.
  • Controle de Overlapping - sobreposição do timestamp de início de execução para garantir que transações lentas não sejam perdidas.
  • Thread Carga Inicial - thread isolada para execução de carga inicial de uma tabela nova ou de um forceReload quando o cliente já estiver em delta.