Árvore de páginas

Versões comparadas

Chave

  • Esta linha foi adicionada.
  • Esta linha foi removida.
  • A formatação mudou.

...

Para ativar a integração do fluig com o GoodData Analytics é necessário seguir os passos conforme a documentação: Guia de Implantação Fluig Analytics.

Nota

Caso deseje fazer com que enviar os dados atuais do servidor antes da anteriores à integração com o Analytics sejam enviados , é necessário executar a rotina de importação de dados históricos. Para maiores informações, clicar no link a seguir: acesse Importação de dados históricos.

O procedimento acima envia todos os dados históricos para o Analytics referentes a documentos, solicitações e eventos sociais, entretanto os dados dos formulários das solicitações não são enviados por padrão, para tal é necessário verificar a documentação a seguir: Enviando dados do formulário.

Por fim, é importante ressaltar que dados do dataset HitPages não são enviados como histórico.

 

Assim que ativadoativada a integração, movimentações de processos, acessos a páginas, publicações e alterações de documentos, bem como utilização de recursos sociais dispararão irão disparar eventos JMS para um serviço do próprio fluig que irá gravar estes dados em uma tabela chamada ANL_SENDDATA.

 

Nota

Caso a utilização do servidor seja devidamente muito alta, é necessário que haja um aumento da na quantidade de requisições possíveis na fila JMS para que impedir que a fila entre em sobrecarga e acabe ocasionando ocorram problemas na gravação do registro na ANL_SENDDATA e por consequência inconsistências no servidor , causando inconsistências nos dados do Analytics.

 

Quando o servidor atinge os minutos 10 40 de cada hora (Por exemplo: 10:40, 11:10, 11:40, 12:10, etc.), a rotina de envio de dados ao Analytics é iniciada. Nesta rotina o servidor recupera coleta os dados da tabela ANL_SENDDATA e monta arquivos separados por dataset para serem compactados e enviados ao serviço de importação de dados do Analytics, sendo que a cada arquivo enviado com sucesso, os dados daquele dataset são apagados da tabela ANL_SENDDATA. Caso ocorra um problema durante o envio dos dados o servidor retorna retornará um erro e os dados daquele dataset específico não são apagados, indo ficando na fila para o próximo envio.

 

Que erro é esse?

Além de indisponibilidade do servidor Analytics, outros problemas comuns de que podem ocorrer durante o envio de dados para o Analytics são: 

ErroDescrição
400 Bad Request
Esse erro costuma ocorrer quando os dados do dataset não correspondem aos dados esperados pelo Analytics. Pode ocorrer caso o modelo do projeto informado esteja desatualizado ou alguma informação esteja formatada de maneira errada no arquivo do dataset.

 

401 Unauthorized
Erro caso o login e senha informados na configuração no fluig estejam errados.
 
403 Forbidden
Erro caso o servidor não tenha acesso ao ambiente
analytics
Analytics. É importante lembrar que a porta 443 do servidor onde o fluig está hospedado deve estar liberada para acesso aos endereços informados no link a seguir: ANA 009 - Endereços que devem ser liberados na porta 443
 

Outro erro comum é causado ocorre quando o usuário do Analytics configurado no fluig teve algum problema de acesso e ativou o Captcha CAPTCHA de segurança do analyticsAnalytics, sendo necessário autenticar-se logar novamente manualmente e de forma manual no servidor do Analytics e informar o Captcha CAPTCHA para que a integração volte a funcionar. Por isso é recomendado que o usuário que visualiza os dados e monta os relatórios do Analytics não seja o mesmo configurado no fluig para realizar a integração de dados, evitando assim falha humana e uma possível dessincronização dos dados. 

Os datasets que o modelo padrão do fluig configura no modelo do Analytics possuem dados incrementais, ou seja, os dados são apenas adicionados e atualizados, nunca removidos. A única excessão exceção é o dataset de solicitações em atraso, sendo que este sempre é apagado e regerado a cada envio dos dados para o Analytics. 

É importante ressaltar que, em ambientes em Cluster, o ideal é que apenas um dos ambientes seja o responsável para enviar os pelo envio de dados para o Analytics, assim evitando que dois ambientes realizem o envio das mesmas informações e acabe ocasionando problemas de sincronia, principalmente no dataset de solicitações em atraso. 

Após enviados os dados, as informações quanto ao sucesso do upload podem ser consultadas através da aba Manage do Analytics, dentro das opções de cada dataset, sendo que caso um ícone de aviso apareça ao lado do informativo de upload, significa que ocorreu algum problema com aquela atualização em específico.

Para verificar os logs do Analytics, é necessário consultá-lo através das APIs da própria GoodData, conforme explicado anteriormente. Caso ocorra um erro de comunicação entre o fluig e o Analytics, ele estará explicitado no log do fluig entre os informativos de início e fim do procedimento de envio de dados, respectivamente Starting Analytics file upload Completed Analytics file upload.

 

Como utilizar

?

Em termos de uso direto, basta os usuários manterem os dados populados para que sejam enviados ao Analytics nos espaços de tempo informados. É possível utilizar os relatórios padrões construídos a partir do modelo importado para a utilização com o fluig bem como criar novos relatórios e dashboards.

A partir daqui, toda a utilização fica a cargo da GoodData. Caso seja detectada alguma inconsistência de dados, é possível realizar a importação de dados históricos para a GoodData a fim de ressincronizá-los, porém é importante lembrar que a importação padrão de histórico apaga os dados de acesso a às páginas e os dados de formulários customizados das solicitações, sendo assim as documentações de importação devem ser revistas e um modelo de importação especificado precisa ser criado para que não hajam problemas de perda de dados.