Árvore de páginas

Versões comparadas

Chave

  • Esta linha foi adicionada.
  • Esta linha foi removida.
  • A formatação mudou.

...

Os objetivos deste documento são:

 

...

  • Resumir que é o

...

  • fluig Analytics e quais

...

  • os recursos disponíveis.
  • Detalhar como funciona a integração do Analytics com o fluig.

...

  • Informar as vantagens

...

  • e recomendações quanto à utilização do mesmo

...

  • .

 

GoodData Analytics

...

Image Modified

O que é?

O GoodData Analytics é uma ferramenta de BI (Business Intelligence) fornecida pela GoodData. É uma plataforma em Cloud que fornece meios de integração, armazenamento, acompanhamento e análise de dados através da geração de relatórios e serviços RESTs REST através de protocolo seguro HTTPS.

Para que serve?

Sendo uma ferramenta de BI, a principal função do GoodData Analytics é facilitar a análise visual de grandes cargas volumes de dados através de armazenamento dimensional, ou seja, facilitar a visualização de cargas de dados extensas a fim de auxiliar em ações de tomada de decisões e acompanhamento de fluxo de dados.

 

Como funciona

...

 

Image Removed

...

?

O GoodData Analytics utiliza o conceito de datasets para agrupar os dados em registros, os quais são formados por dois tipos macros de valores: atributos e fatos.

 Image Added


Datasets: Datasets são os grupos de dados como são enviados para o analyticsAnalytics. Possuem um conjunto de atributos e fatos que juntos formam a composição de seus registros. O conjunto dos datasets de um projeto é chamado de Model e pode ser visualizado de maneira gráfica de dentro do analyticsAnalytics.

 

Image Modified

 

Attributes: Atributos são os dados brutos enviados ao Analytics, ou seja, todo dado não sumarizável que faz parte de um registro de um determinado dataset, cujos quais complementam as dimensões dos dados.

...

Metrics: Apesar de fatos serem dados utilizados para sumarizações, em muitos casos eles tendem a ser insuficientemente tratados para que possam ser exibidos de modo adequado em um relatório, desta forma eles devem ser utilizados para a geração de uma métrica. Métricas podem ser apenas uma passagem para os fatos ou, de maneira mais comum, ser utilizado utilizadas como um filtro para tornar os dados numéricos mais fáceis de serem interpretados pelo usuário. Assim, assim as métricas são a forma como relatórios são sumarizados dentro da GoodData, portanto todo fato enviado, para ser utilizado em um relatório, deve estar contido dentro de uma métrica.

Variables: Em casos onde é necessário atribuir valores específicos por usuário para a constituição de uma métrica, é possível criar uma variável. Variáveis podem ser criadas e atribuídas através da aba Manage do Analytics, possuindo um valor definido por padrão e podendo ser atribuída a cada usuário específico através de uma tabela, podendo ser um no formato de dado numérico para ser calculado juntamente a fatos, formando uma métrica, ou então um atributo definido a fim de agrupar os usuários ou realizar funções durante o processamento dos relatórios de maneira diferenciada.

 

Como utilizar?

A maneira mais comum de se utilizar o GoodData Analytics é através da criação de Dashboards e Reports.

 

Image Modified

 

Dashboard: Dashboard nada mais é que uma espécie de página constituída por um conjunto de Reports, servindo para agrupar relatórios que compreendem um mesmo contexto, facilitando a visualização das informações e sua interpretação.

Reports: A maneira como o GoodData Analytics sumariza e agrupa os dados brutos a fim de apresentá-los aos seus usuários é através de relatórios. Os relatórios são criados pelo usuário tendo como base as métricas e atributos dos datasets populados carregados no Analytics.

 

Image Modified

 Através da visão de criação do relatório, é possível definir: 

What: O que vai ser mensurado, ou seja, as métricas utilizadas para se criar o relatório. Nesta visão também é possível criar métricas novas ou alterar métricas existentes.

How: Pelo que quê está sendo mensurado, ou seja, que quais dados serão utilizados para se agrupar as sumarizações. São os atributos em si dos datasets relacionados as às métricas utilizadas. Os atributos passíveis a de serem utilizados aparecerão em destaque em uma fonte mais escura. Ao selecionar um atributo, aparecerá será exibido se ele é para ser será listado de forma lateral (L) ou ao no topo (T), para que a tabela se forme seja formada da maneira que o usuário deseja.

Filter: Nesta fase o relatório já está disponível para o usuário, porém é possível filtrar os dados tendo como base os atributos dos datasetsdataset, por exemplo, para que os registros que contém determinado atributo não sejam sumarizados. Também é possível realizar drilldowns e formatações de dados apresentados nos formulários e alterar a apresentação dos mesmos entre tipos de tabelas e gráficos.

Dica
title

 

Para um melhor detalhamento sobre criação de relatórios clicar no link a seguir: 
Dica

Consulte nossa documentação sobre Criação de Relatórios no fluig Analytics

 

.

Como mencionado, a GoodData disponibiliza um conjunto de serviços REST para suas funções. Para um determinado projeto, é possível acessar a biblioteca REST padrão através do link  link https://analytics.fluig.com/gdc/projects/[CODIGO_DO_PROJETO]. 

 

Image Modified 

  • Para verificar a documentação da
api, clicar no link:  
  • Para informações mais detalhadas sobre o funcionamento e
funções
  • recursos do
analytics

 

fluig X GoodData Analytics

 

O que é?

Para facilitar o monitoramento de dados trafegados pelo fluig, é fornecida oferecida a possibilidade de integração com a GoodData Analytics, onde é fornecido um Model padrão, bem como um ambiente Analytics, um conjunto de relatórios, métricas e dashboards pré programados. 

A lista de relatórios e dashboards do modelo padrão fluig pode ser encontrada aqui: em Relatórios AnalyticsA e a lista de dados de datasets pode ser encontrada aqui: em Dados para Relatórios.

 

Para que serve?

A integração do fluig com o GoodData Analytics serve para facilitar a análise de determinados dados passados referentes ao uso da plataforma fluig. Ao todo, hoje o fluig possui quatro grandes grupos de datasets:

Dataset
 
Finalidade
Processos
: Serve para monitorar
Monitorar o andamento das solicitações. Os dados gravados na GoodData são referentes sempre ao estado atual da solicitação como um todo e servem para sumarizar o andamento e os dados de conclusão de cada solicitação.
Documentos
Monitorar
Serve para monitorar
os documentos publicados no GED (Gerenciador Eletrônico de Documentos) do fluig.
Hits
Monitorar
Serve para monitorar
o acesso dos usuários a cada página do fluig, possuindo dados como
de
páginas mais acessadas por usuários e
de
horários de acesso (conforme relógio do servidor)
.
Social
Monitorar
Serve para monitorar
os dados referentes a eventos sociais, comunidades e publicações.

 

Como funciona?

Para ativar a integração do fluig com o GoodData Analytics é necessário seguir os passos conforme a documentação: Guia de Implantação Fluig Analytics

...

.

 

Nota

Caso deseje fazer com que os dados atuais do servidor antes da integração com o Analytics sejam enviados é necessário executar a rotina de importação de dados históricos. Para maiores informações, clicar no link a seguir: Importação de dados históricos

...

.

O procedimento acima envia todos os dados históricos para o Analytics referentes a documentos, solicitações e eventos sociais, entretanto os dados dos formulários das solicitações não são enviados por padrão, para tal é necessário verificar a documentação a seguir: Enviando dados do formulário.

 

Por fim, é importante ressaltar que dados do dataset HitPages não são enviados como histórico.

...

Assim que ativado, movimentações de processos, acessos a páginas, publicações e alterações de documentos, bem como utilização de recursos sociais dispararão eventos JMS para um serviço do próprio fluig que irá gravar estes dados em uma tabela chamada ANL_SENDDATA.

 

Nota

Caso a utilização do servidor seja devidamente alta, é necessário que haja um aumento da quantidade de requisições possíveis na fila JMS para que impedir que a fila entre em sobrecarga e acabe ocasionando problemas na gravação do registro na ANL_SENDDATA e por consequência inconsistências no servidor Analytics.

 

Quando o servidor atinge os minutos 10 40 de cada hora, a rotina de envio de dados ao Analytics é iniciada. Nesta rotina o servidor recupera os dados da tabela ANL_SENDDATA e monta arquivos separados por dataset para serem compactados e enviados ao serviço de importação de dados do Analytics, sendo que a cada arquivo enviado com sucesso os dados daquele dataset são apagados da tabela ANL_SENDDATA. Caso ocorra um problema durante o envio dos dados o servidor retorna um erro e os dados daquele dataset específico não são apagados, indo para o próximo.

 

Além de indisponibilidade do servidor Analytics, outros problemas comuns de ocorrer durante o envio de dados para o Analytics são:

 

400 Bad Request: Esse erro costuma ocorrer quando os dados do dataset não correspondem aos dados esperados pelo Analytics. Pode ocorrer caso o modelo do projeto informado esteja desatualizado ou alguma informação esteja formatada de maneira errada no arquivo do dataset.

 

401 Unauthorized: Erro caso o login e senha informados na configuração no fluig estejam errados.

 

403 Forbidden: Erro caso o servidor não tenha acesso ao ambiente analytics. É importante lembrar que a porta 443 do servidor onde o fluig está hospedado deve estar liberada para acesso aos endereços informados no link a seguir: ANA 009 - Endereços que devem ser liberados na porta 443

 

Outro erro comum é causado quando o usuário do Analytics configurado no fluig teve algum problema de acesso e ativou o Captcha de segurança do analytics, sendo necessário se logar novamente manualmente no servidor do Analytics e informar o Captcha para que volte a funcionar. Por isso é recomendado que o usuário que visualiza os dados e monta os relatórios do Analytics não seja o mesmo configurado no fluig para realizar a integração de dados, evitando assim falha humana e uma possível dessincronização dos dados.

 

Os datasets que o modelo padrão do fluig configura no modelo do Analytics possuem dados incrementais, ou seja, os dados são apenas adicionados e atualizados, nunca removidos. A única excessão é o dataset de solicitações em atraso, sendo que este sempre é apagado e regerado a cada envio dos dados para o Analytics.

 

É importante ressaltar que, em ambientes em Cluster, o ideal é que apenas um dos ambientes seja o responsável para enviar os dados para o Analytics, assim evitando que dois ambientes realizem o envio das mesmas informações e acabe ocasionando problemas de sincronia, principalmente no dataset de solicitações em atraso.

 

Após enviados os dados, as informações quanto ao sucesso do upload podem ser consultadas através da aba Manage do Analytics, dentro das opções de cada dataset, sendo que caso um ícone de aviso apareça ao lado do informativo de upload significa que ocorreu algum problema com aquela atualização em específico. Para verificar os logs do Analytics, é necessário consultá-lo através das APIs da própria GoodData conforme explicado anteriormente. Caso ocorra um erro de comunicação entre o fluig e o Analytics, ele estará explicitado no log do fluig entre os informativos de início e fim do procedimento de envio de dados, respectivamente Starting Analytics file upload Completed Analytics file upload.

 

Como utilizar

Em termos de uso direto, basta os usuários manterem os dados populados para que sejam enviados ao Analytics nos espaços de tempo informados. É possível utilizar os relatórios padrões construídos a partir do modelo importado para a utilização com o fluig bem como criar novos relatórios e dashboards. A partir daqui, toda a utilização fica a cargo da GoodData. Caso seja detectada alguma inconsistência de dados, é possível realizar a importação de dados históricos para a GoodData a fim de ressincronizá-los, porém é importante lembrar que a importação padrão apaga os dados de acesso a páginas e os dados de formulários customizados das solicitações, sendo assim as documentações de importação devem ser revistas e um modelo de importação especificado para que não hajam problemas de perda de dados.