terça-feira, 31 de março de 2015

Como o COBIT 5 poderá suportar uma estratégia de BPM?

O Business Process Management (BPM) é um conceito já com alguns anos mas que continua a ter uma enorme atualidade, talvez mais do que nunca, pela sua visão holística das Organizações e da importância que a tecnologia pode ter como facilitador na criação de valor. No entanto, a implementação deste tipo de práticas continua a apresentar enormes desafios às Organizações, sendo difícil dizer quem fala mais alto: se os casos de sucesso, se as más experiências com projetos dispendiosos e intermináveis!

Atualmente fica claro que a implementação de uma estratégia de BPM é cada vez menos uma automatização dos processos existentes mas sobretudo uma oportunidade para se inovar na forma como as Organizações criam valor para seus negócios.

Mas nem tudo são rosas. A dificuldade cada vez maior de conseguir representar de forma sistêmica, a complexidade de uma Organização e de garantir a adoção de soluções capazes de acomodar as constantes alterações que se verificam hoje em dia nas organizações, permitindo que os processos sejam encarados como uma mais-valia e não como uma amarra de formalização que tem mais impactos negativos do que positivos. 

Como fiel desta balança estão naturalmente as Pessoas, e são sem dúvida estas que continuam a ser apontadas como as principais influenciadoras do sucesso ou insucesso de uma verdadeira mudança na Organização.

Um adequado patrocínio é igualmente apontado como um dos principais fatores críticos de sucesso para levar a bom porto um projeto de BPM. O sucesso apenas é possível se esse patrocínio for de fato capaz de garantir uma verdadeira cultura de mudança e melhoria contínua de todos os envolvidos.

Esta capacidade de intervir em todos os níveis da Organização coloca uma enorme importância na comunicação interna, motivo pelo qual foquei a minha apresentação na adoção de uma framework como a COBIT 5, nomeadamente na adoção de princípios orientadores para o desenho e implementação de uma estratégia de BPM. Aqui fica uma visão sobre os 5 princípios COBIT 5 e a sua relação com processos:

  • Princípio # 1 – Alinhar os processos com as necessidades dos stakeholders: A adoção de modelos como a Cascata de Objetivos poderá contribuir para uma melhor identificação dos processos críticos e implementação de mecanismos de medição dos objetivos nos diferentes níveis da Organização;
  • Princípio # 2 – A responsabilidade pelo sucesso (e insucesso) dos processos é de todos: Todas as diferentes estruturas Organizacionais têm um papel fundamental no desenho, implementação e monitorização dos processos. As estruturas de Governança determinam a direção para as estruturas de Gestão planearem e darem instruções aos níveis operacionais para executarem os processos. O sucesso desta cadeia de responsabilidades deverá ser monitorizado quer pelos seus intervenientes como pelas estruturas de suporte (ex. controlo interno, auditoria interna, gestão de risco);
  • Princípio # 3 – Adoção de frameworks integradoras dos diferentes standards e áreas funcionais: O COBIT 5, sendo uma framework, apresenta uma visão transversal das áreas do sistema de informação e garante um total alinhamento com as boas práticas e standards nos diferentes domínios. Desta forma é possível garantir que o detalha dos processos é devidamente integrado numa framework comum, permitindo uma melhor monitorização dos objetivos dos mesmos;
  • Princípio # 4 – Os processos não são a solução, apenas parte dela: Ao definir 7 facilitadores, o COBIT 5 destaca a importância de considerar uma visão holística do sistema de informação. Apesar de ser assumida como uma das principais componentes do sistema, os Processos só serão de facto determinantes se complementados por Princípios, frameworks e políticas; Estruturas organizacionais; Cultura ética e comportamentos; Informação; Serviços, infraestruturas e aplicações; e Pessoas e competências;
  • Princípio # 5 – Adoção de um modelo de processos de referência. A adoção de um modelo de referência para processos de governança e gestão dos sistemas de informação é um dos fatores determinantes para a eficiência e transparência. Eficiência porque os 37 processos COBIT 5 representam uma visão holística do sistema de informação e um alinhamento com as principais boas práticas de governança, planeamento, desenvolvimento, exploração e monitorização. Transparência porque a adoção de boas práticas de mercado permitem uma melhoria da comunicação interna e externa, nomeadamente no que refere ao reporte para entidades reguladoras ou de supervisão.

BPM é (muito) mais do que Processos. Numa visão holística de uma Organização os Processos são sem dúvida o motor mas o sucesso e criação de valor só serão assegurados se todas as restantes componentes (i.e. Organização, Pessoas e Tecnologias) forem igualmente ativadas: os processos deverão ser um veículo da missão, visão e estratégia da Organização; as Tecnologias deverão suportar os Processos (e não o contrário); e - talvez o mais importante - as Pessoas deverão estar comprometidas com o valor dos processos e contribuírem de forma ativa para a sua implementação e melhoria contínua.

Três passos para construir uma melhor cultura de Big Data

Uma visão forte e dinâmica são vitais para a criação de uma cultura que envolva dados e fatos como a principal base para a tomada de decisão


A promessa contida nos conceitos Big Data e Analytics parece bastante simples. Coletar o máximo de dados díspares e não estruturados, a partir do maior número de fontes possíveis, e analisá-los com o objetivo de descobrir novos padrões, apoiar decisões de negócios e desencadear inovações. Se é assim, por que então há tão poucas organizações verdadeiramente se beneficiando dos avanços em Business Intelligence (BI) e Analytics?
A resposta, de acordo com pesquisas recentes, não está no data center, mas sim no aspecto cultural corporativo.
O esforço deve começar no topo da organização, de acordo com o Ciclo Virtuoso de Dados, um levantamento com 362 líderes de negócios realizado no ano passado pela Economist Intelligence Unit (EUI) e a Teradata. Uma visão forte e dinâmica são vitais para a criação de uma cultura que envolva dados e fatos como a principal base para a tomada de decisão.
“Não existe substituto para um líder corporativo que tenha encontrado a sua religião nos dados e análises”, disse Russell Glass, Diretor de Marketing de Produtos do LinkedIn, durante um webcast detalhando as conclusões do estudo. É fundamental para os líderes de nível C estarem abertos à possibilidade de erro e comprometidos com a descoberta da verdade por meio dos dados. Isso se eles pretendem construir um negócio fundamentado em dados que os levará a superar a concorrência, acrescentou Glass.
Mas o desafio do Big Data não termina na sala de reuniões. A maioria das organizações com desempenho acima da média e que estimulam a análise de dados entende que os funcionários também precisam estar envolvidos neste esforço. Tornar os dados universalmente disponíveis, associá-los aos objetivos de negócios do dia a dia e investir em treinamento de funcionários, são aspectos necessários para se construir uma cultura equilibrada, altamente funcional e impulsionada pelos dados, dizem os pesquisadores.
“Uma excelente divulgação, treinamento e acompanhamento do programa é realmente imperativo”, disse David Trimm, CIO da gigante de aluguel de carros Hertz, durante a sessão. “Você tem que estar sempre atento, reforçando, lembrando e reciclando a mensagem continuamente”.
“Sintonia no topo da corporação, seguida de uma excelente execução, são provavelmente os fatores-chave para o sucesso”, acrescentou Trimm. Então, como as empresas globais estão se saindo em suas aspirações de Big Data? Não muito bem, revela o estudo. Apenas um quarto (25%) dos executivos diz que os funcionários de suas empresas são capazes de extrair facilmente informações relevantes a partir dos dados que são capturados e postos à sua disposição.
O EUI sugere três etapas para a construção de uma cultura corporativa fundamentada em dados, que podem ajudar qualquer organização a aproveitar melhor as informações disponíveis e a usar a tecnologia de análises para melhorar o desempenho geral da empresa:
1 - Construir uma base de tecnologia 
Com os dados que entram em uma organização provenientes de uma variedade de fontes, tais como transações de clientes, fluxos de sensores e interações de mídias sociais, o primeiro passo é implantar as ferramentas necessárias para coletar, processar e visualizar as informações de maneira útil e efetiva. Para isto, são necessários repositórios de armazenamento de dados alta capacidade, bancos de dados modernos e aplicações de Big Data especializadas que podem ser utilizadas ​​para encontrar padrões e dar sentido à torrente de dados.

2 - Atrair os talentos certos 
Nem os melhores repositórios de armazenamento e bancos de dados relacionais do mercado podem substituir as habilidades necessárias para a manipulação e o entendimento das informações. As organizações precisam de membros qualificados em reimaginar os usos da informação e no desenvolvimento de abordagens científicas para analisar os dados. Empregar cientistas de dados e analistas de negócios experientes é fundamental para o sucesso. Muitas das empresas mais progressistas consultadas pela EIU deram o passo inicial com a O EUI sugere três etapas para a construção de uma cultura corporativa fundamentada em dados, que podem ajudar qualquer organização a aproveitar melhor as informações disponíveis e a usar a tecnologia de análises para melhorar o desempenho geral da empresa:

1 - Construir uma base de tecnologia 
Com os dados que entram em uma organização provenientes de uma variedade de fontes, tais como transações de clientes, fluxos de sensores e interações de mídias sociais, o primeiro passo é implantar as ferramentas necessárias para coletar, processar e visualizar as informações de maneira útil e efetiva. Para isto, são necessários repositórios de armazenamento de dados alta capacidade, bancos de dados modernos e aplicações de Big Data especializadas que podem ser utilizadas ​​para encontrar padrões e dar sentido à torrente de dados.

2 - Atrair os talentos certos 
Nem os melhores repositórios de armazenamento e bancos de dados relacionais do mercado podem substituir as habilidades necessárias para a manipulação e o entendimento das informações. As organizações precisam de membros qualificados em reimaginar os usos da informação e no desenvolvimento de abordagens científicas para analisar os dados. Empregar cientistas de dados e analistas de negócios experientes é fundamental para o sucesso. Muitas das empresas mais progressistas consultadas pela EIU deram o passo inicial com a criação de novos cargos, como Chefe de Dados, para gerir as suas iniciativas de Big Data criação de novos cargos, como Chefe de Dados, para gerir as suas iniciativas de Big Data.
3 - Desenvolver uma visão empresarial e cultural 
Com uma base tecnológica apropriada e as habilidades em prática, a etapa final envolve a conscientização do valor da tomada de decisões com base nos dados para a empresa como um todo. As organizações devem criar e fomentar uma cultura que englobe dados e fatos e os aplique ao negócio, todos os dias. Como vimos, o esforço requer tanto abordagens de cima para baixo quanto de baixo para cima, para garantir que toda a empresa esteja alinhada ao novo paradigma.

Uma vez que uma organização tenha as ferramentas, as habilidades e a cultura necessárias para conduzir um negócio baseado em análises, ela estará então pronta para realizar o objetivo final de qualquer iniciativa de Big Data: Ser criativa e inovadora com as informações e continuamente encontrar novas maneiras de alavancar suas capacidades centradas em dados.
"A chave para o sucesso no futuro é construir uma organização que possa inovar com os dados", disse Rod Morris, antigo vice-presidente sênior de marketing e operações da Opower, empresa de serviços em nuvem que fornece aplicativos SaaS (Software as a Service) para as indústrias de energia e utilities. “Para dispersar os dados, democratizar as ferramentas e libertar a criatividade dos funcionários”.

segunda-feira, 30 de março de 2015

Tableau: Novidades na versão 9.0 - Novos recursos de monitoramento no Tableau Server

No Tableau, o objetivo é oferecer para seus usuários as melhores ferramentas para analisar seus dados e chegar a novos insights. 

Uma dessas ferramentas (Admin Views) é permitir que os administradores possam monitorar e analisar os dados de seu próprio servidor Tableau, usando análises de BI em sua própria solução de BI. Este recurso permite detectar erros, a atividade dos usuários, atualizações, e alocar corretamente os recursos. 

Novas interações para o Administrador do Tableau Server

Uma questão que todo administrador que saber é: "Qual é a visualização mais acessada?" O "Traffic para Views" os dashboard da Admin Views responde a esta pergunta, exibindo o conteúdo mais visto e os usuários mais ativos em um site ou servidor. 

Além disso, como todos os novos Admin Views contem campos interativos, você pode mudar a sua pergunta com um clique e, em vez fazer perguntas como: "Qual é o conteúdo top que este usuário está interagindo?" Quase todo o campo pode ser selecionado, permitindo que novas questões a serem respondidas. O "Traffic para fontes de dados" os dashboard da Admin Views contém informações semelhantes sobre as fontes de dados publicadas no Tableau server.
































Tableau: Empreendimentos Pague Menos: Increasing Data Agility for Retail Pharmacists

sexta-feira, 27 de março de 2015

IBM: Descubra e use terminologia do mundo real com o IBM Watson Content Analytics

Desenvolva dicionários de domínio de amostra para análise de dados

 Use análise linguística no IBM® Watson™ Content Analytics (WCA) para explorar terminologias específicas do domínio e desenvolva dicionários de domínio que reflitam as preferências de vocabulário da "vida real" dos usuários. Use esses dicionários no WCA Studio para desenvolver anotadores de conceito.



Argumentos a favor de dados não estruturados

Há muito interesse sobre a variedade de informações que a sociedade produz em quantidades sempre crescentes (seja nas empresas, na web ou em redes sociais). É possível usar esses dados de várias maneiras para produzir insights que podem melhorar a saúde, a democracia ou a maneira como você faz negócios. Esses insights baseados em dados são o playground tradicional de Analytics ou Business Intelligence (BI), que normalmente contam com dados estruturados, como datas, valores financeiros, quantidades ou nomes de empresas. Porém, a maioria dos dados está em formato não estruturado — textos, imagens, filmes— em proporções que variam de 70% para dados corporativos a quase 100% para mídia social.Qualquer aplicativo de análise que use apenas dados estruturados o faz, portanto, sem cerca de quatro quintos das informações disponíveis. Extrair informações estruturadas de fontes não estruturadas parece ser obrigatório na era de Big Data. Este tutorial foca em dados textuais e mostra como extrair informações terminológicas relevantes para um domínio de negócios.
IBM Watson Content Analytics
O IBM Content Analytics com procura corporativa é uma plataforma de procura e análise. Ele utiliza análise de rich text para trazer à tona novos insights acionáveis de muitas fontes e tipos de conteúdo textual, incluindo conteúdo corporativo, conteúdo da web (como mídia social), email ou bancos de dados.Na prática, o IBM Watson Content Analytics (WCA) pode ser usado de duas maneiras gerais:Uso imediato de visualizações analíticas para produzir insights rápidos por meio de conjuntos dimensionáveis de conteúdos. Essas visualizações costumam operar em máscaras. Máscaras são aspectos significativos dos documentos derivados de metadados que já estão estruturados (por exemplo, data, autor, tags) ou de conceitos extraídos de conteúdo textual.
Por meio da extração de entidades ou conceitos para uso por visualização de análise do WCA ou outras soluções de recebimento de dados. Exemplos típicos incluem a mineração de relatórios de análises de laboratório ou de médicos para preencher prontuários de pacientes, extrair entidades nomeadas e relacionamentos para alimentar software de investigação ou definir uma tipologia de sentimentos expressos em redes sociais para melhorar a análise estatística do comportamento do consumidor.

O WCA usa a tecnologia de processamento de linguagem natural (NLP) para extrair informações sobre dados não estruturados (ou textos). Essas informações podem ser encontradas nos seguintes formatos:Conceitos ou entidades atômicas, como pessoas, lugares, empresas, peças de aeronaves, ações de manufatura;
Combinações das informações anteriores, geralmente envolvendo algum nível de relacionamento entre os conceitos. Como exemplo, podemos mencionar uma pessoa e seu trabalho, uma empresa e o domínio do seu setor, a operação de manutenção de uma peça de aeronave específica, um antecedente médico de um paciente que envolva uma ligação familiar e um problema de saúde.
O WCA processa texto bruto de fontes de conteúdo por meio de um pipeline de operações em conformidade com o padrão da UIMA. A UIMA (Unstructured Information Management Architecture) é uma arquitetura de software que tem como objetivo desenvolver e implementar recursos para a análise de informações não estruturadas. Pipelines do WCA incluem estágios como detecção do idioma de origem, análise léxica, extração de entidade ou aplicação de extração de conceito customizada. A extração de conceito customizada é realizada por anotadores, que identificam informações expressas como segmentos de texto. Os anotadores podem ser criados com o IBM Content Analytics Studio (WCA Studio), um ambiente gráfico baseado em Eclipse que facilita o design e o teste de anotadores com base em dicionários e regras.
Veja a matéria completa em: http://www.ibm.com/developerworks/br/library/ba-watson-dictionary/index.html

Veja o IBM Watson Content Analytics em ação: https://www14.software.ibm.com/webapp/iwm/web/signup.do?source=swg-ECM&S_PKG=ov12182&S_TACT=101NK01W&dynform=4582&lang=en_US

quinta-feira, 26 de março de 2015

Data Wharehouse: As 10 Regras Essenciais para a Modelagem de Dados Dimensional

Quando o assunto é modelagem de um Data Warehouse, precisamos ter atenção a alguns pontos para que o projeto não seja um fracasso.

De acordo com o Kimball Group da Universidade de Stanford existem algumas regras essenciais para a modelagem de dados dimensional.

Veja a seguir:



Regra #1: Carregue dados detalhados para as estruturas dimensionais:


Modelos dimensionais devem ser populados com um alicerce de dados detalhados para suportar os requisitos imprevisíveis de filtragem e agrupamento necessárias para atender as consultas dos usuários de negócios. Usuários normalmente não precisam visualizar um registro por vez, mas é impossível prever em quais diferentes maneiras eles pretendem ver os dados e acessar os detalhes. Se apenas dados agregados estiverem disponíveis, então você já deve ter se deparado com padrões de utilização dos dados que levaram os usuários a chegar a uma barreira intransponível quando eles querem acessar os detalhes. 

É claro, dados detalhados podem ser complementados por modelos dimensionais agregados que trazem vantagens de desempenho para consultas frequentes de dados sumarizados, mas os usuários de negócios não conseguem viver apenas dos dados agregados; eles precisam dos detalhes sangrentos para responder seus diferentes questionamentos.

Regra #2: Estruture os modelos dimensionais em torno dos processos de negócios:


Os processos de negócios são as atividades desenvolvidas por sua empresa; elas representam eventos mensuráveis, como registrar um pedido ou emitir uma fatura para um consumidor. Processos de negócios normalmente capturam ou geram métricas únicas de desempenho associadas a cada evento. Estas métricas traduzidas em fatos, com cada processo de negócios representado por uma única tabela fato.

Além destas tabelas fato para cada processo, tabelas fato consolidadas às vezes são criadas para combinar métricas de vários processos em uma tabela fato com um nível padronizado de detalhe. Novamente, tabelas fato agregadas são um complemento para as tabelas fato detalhadas relacionadas aos processos de negócio, e não um substituto para elas. 

Regra #3: Tenha certeza de que cada tabela fato tenha uma dimensão de data associada:


Os eventos mensuráveis descritos na Regra #2 sempre tem uma data de algum tipo associada a eles, sejam eles um balancete mensal ou uma transferência de dinheiro registrada em seu centésimo de segundo. Cada tabela fato deve ter ao menos uma chave estrangeira associada a uma tabela de dimensão data, cuja granularidade é cada único dia, com os atributos de calendário e suas características não padronizadas relacionadas a data do evento, como o período fiscal ou um indicador corporativo de feriado. Às vezes múltiplas chaves estrangeiras de data estão ligadas em uma única tabela fato.

Regra #4: Certifique-se que todos os fatos em uma única tabela fato estão na mesma granularidade ou nível de detalhe:

Existem três granularidades fundamentais para classificar todas as tabelas fato: transacional, snapshot periódico, ou snapshot acumulado. Independente de sua granularidade, cada métrica em uma tabela fato deve estar exatamente no mesmo nível de detalhe. Quando você mistura fatos representando muitos níveis de granularidade em uma mesma tabela fato, você estará criando confusão para os usuários de negócios e tornando as aplicações de BI vulneráveis a erros de valores ou outros resultados incorretos.


Regra #5: Resolva relacionamentos muitos-para-muitos em tabelas fato:

Como uma tabela fato guarda os resultados de um evento de um processo de negócios, existem inerentemente relacionamentos muitos-para-muitos (M:M) entre suas chaves estrangeiras, como diferentes produtos vendidos em diferentes lojas em diferentes dias. Estes campos de chaves estrangeiras nunca devem conter valores nulos. Às vezes dimensões podem ter valores diferentes para uma único métrica, como diferentes diagnósticos associados com uma consulta médica ou diferentes clientes de uma conta bancária.

Nestes cados, seria irracional resolver as dimensões multi-valoradas diretamente na tabela fato, pois isto poderia violar a granularidade natural da métrica. Neste caso, podemos usar um relacionamento muitos-para-muitos, com uma tabela de relacionamento em conjunto com a tabela fato.


Regra #6: Resolva os relacionamentos muitos-para-um nas tabelas de dimensões:

Hierarquicamente, relacionamentos muitos-para-um (M:1) entre atributos são normalmente desnormalizados ou concentrados em uma única tabela dimensão. Caso você não queira passar a maior parte de sua carreira desenhando modelos entidade-relacionamento para sistemas transacionais, você precisa resistir a sua instintiva tendência a normalizar ou criar um snowflake com subdimensões menores para cada relacionamento M:1; desnormalização de dimensões é a regra do jogo na modelagem dimensional.
É bastante comum ter muitos relacionamentos M:1 em uma única tabela dimensão.
Relacionamentos um-para-um, como uma única descrição de produto associada a um código de produto, também são encontradas em uma tabela dimensão.
Ocasionalmente relacionamentos muitos-para-um são resolvidos na tabela fato, como no caso de uma tabela de dimensão detalhada com milhões de linhas e com atributos frequentemente atualizados. Entretanto, usar a tabela fato para resolver relacionamentos M:1 deve ser feito de forma moderada.

Regra #7: Gravar nomes de relatórios e valores de domínios de filtros em tabelas dimensão:

Os códigos e, mais importante ainda, as decodificações e descrições associadas a eles usadas como nomes de colunas em relatórios e como filtros em consultas devem ser gravadas em tabelas dimensionais. Evite gravar campos com códigos criptográficos ou volumosos campos descritivos na própria tabela fato; da mesma forma, não grave apenas o código na tabela de dimensão e assuma que os usuários não precisam das
decodificações descritivas ou que elas pódem ser resolvidas na aplicação de BI. Se a informação for um nome de linha/coluna ou um filtro de menu, então ela deve ser tratada como um atributo de dimensão.
Embora tenhamos dito na Regra #5 que as chaves estrangeiras de tabelas fato nunca devem ser nulas, também é aconselhável evitar nulos em campos de atributos de tabelas dimensão trocando o valor nulo por um valor como "NA" (não se aplica) ou algum outro valor padrão, determinado pela administração de dados, para reduzir a confusão entre os usuários se possível.

Regra #8: Tenha certeza de que as tabelas dimensão usam uma chave artificial:

Chaves artificiais, sem significado e sequenciais (exceto para a dimensão data, onde chaves cronologicamente definidas e mais inteligíveis são aceitáveis) provém um grande número de benefícios operacionais; chaves menores significam menores tabelas fato, menores índices, e desempenho melhorado. Chaves artificiais são absolutamente necessárias no caso de você estar registrando as alterações dos atributos da dimensão com uma nova linha para cada mudança. 

Mesmo que seus usuários de negócios inicialmente não visualizem o valor de registrar as alterações nos atributos, usar chaves artificiais tornará uma futura alteração de política menos onerosa. As chaves artificiais também permitem mapear múltiplas chaves transacionais para um único perfil, adicionalmente protegendo contra atividades operacionais inesperadas, como a reutilização de um código de produto obsoleto ou a aquisição de uma outra empresa com suas próprias regras de codificação.

Regra #9: Crie dimensões padronizadas para integrar os dados na empresa:

Dimensões padronizadas (também conhecidas por dimensões comuns, principais, ou de referência) são essenciais para o data warehousing empresarial. Gerenciadas no sistema de ETL e então reutilizadas associadas a diversas tabelas fato; dimensões padronizadas trazem atributos descritivos consistentes para os modelos dimensionais e permitem a habilidade de navegar através dos dados integrados de diferentes
processos de negócios. A matriz de negócios da empresa é o diagrama de arquitetura chave para representar os processos de negócios principais da organização e suas dimensões associadas. A reutilização das dimensões padronizadas finalmente diminui o tempo de desenvolvimento eliminando o desenho redundante e o esforço de desenvolvimento; entretanto, dimensões padronizadas requerem um compromisso e investimento em administração de dados e governança, desta forma você não precisa que cada pessoa concorde com cada uma das dimensões para atingir a conformidade.


Regra #10: Avalie requisitos e realidade continuamente para desenvolver uma solução de DW/BI que seja aceita pelos usuários de negócios e suporte seu processo de tomada de decisões:

Os responsáveis pela modelagem dimensional devem constantemente balancear os requisitos do usuários de negócios com as realidades inerentes aos dados de origem associados para desenvolver um modelo que possa ser implantado, e que, mais importante ainda; tenha uma boa chance de ser útil aos negócios. A avaliação dos requisitos reais é parte da tarefa dos desenvolvedores de DW/BI, apesar de você estar focado na modelagem dimensional, estratégia do projeto, arquiteturas técnica/ETL/BI ou implantação/planejamento de manutenção.

quarta-feira, 25 de março de 2015

Business Intelligence: Além do BI - Relações entre Data Discovery e os negócios da sua empresa

Empresas passam por quatro etapas quando o assunto é Data Discovery: visualização de dados, descoberta de informações, sua influência nos negócios e a análise preditiva

O Business Intelligence (BI) não é mais uma novidade. De acordo com a Frost&Sullivan, o mercado brasileiro de Big Data e Analytics deve movimentar cerca de US$ 965 milhões em 2018 – o segmento chegou a US$ 243,6 milhões em 2013. Os números não surpreendem se levarmos em conta a quantidade de informações que produzimos e o volume ao qual somos submetidos todos os dias. Passamos pela fase de coleta e organização de todos estes dados. Agora, é hora de aprender como transformá-los em conhecimento de fato relevante para os negócios. Surge então o conceito de Data Discovery, uma das prioridades atuais das organizações, pois envolve o modelo self-service. Sem a necessidade de criar relatórios pré-definidos, como anteriormente, é possível levar a análise de informações para todos os setores e camadas das empresas.

Ao disponibilizar diversas e diferentes informações, o modelo self-service estimula a autonomia de todas as áreas ao mesmo tempo em que reduz gargalos nos departamentos de TI. Se antes eram utilizadas planilhas estáticas para avaliação de dados, hoje em dia é apenas necessário um dispositivo com acesso à internet. O BI tornou-se mais visual e fácil de utilizar. O desafio passa a ser integrar as informações críticas aos programas de visualizações já existentes. Explico: Os gráficos já são utilizados há muito tempo dentro das corporações – principalmente para apresentar resultados, mas apenas compilar dados não é o suficiente para obter perspectivas verdadeiras e eficientes dos negócios. É preciso ir além.

No geral, as empresas passam por quatro etapas quando o assunto é Data Discovery. A visualização de dados, a descoberta destas informações, sua influência nos negócios (momento em que a análise reflete em ações) e a análise preditiva. Esta última, arrisco dizer, é a mais importante pois impacta diretamente nos negócios e, no entanto, poucas companhias no mundo encontram-se neste patamar. Quando digo ir além, quero dizer chegar nestes dois últimos pontos: O momento em que os dados impactarão os negócios e quando, com base na análise, conseguiremos tomar ações antecipadas. Para o Varejo, por exemplo, as soluções de Data Discovery ajudam a mapear o comportamento dos consumidores e, assim, as companhias conseguem planejar ações de marketing e promoções mais assertivas para os seus públicos-alvo.

Para chegar nestes dois momentos e atingir o máximo de resultado das análises é preciso, antes de mais nada, seguir algumas diretrizes. Por exemplo, definir muitos pontos para observação é um erro comum entre as empresas que implementam soluções de BI. Uma visualização eficiente está diretamente relacionada a um baixo número de medições para evitar dashboards muito confusos e pouco objetivos. É importante priorizar os principais indicadores, aqueles dados que, se compreendidos, podem trazer resultados estratégicos e efetivos. Vale ficar de olho em indicadores como mudanças de mercado e comportamento dos clientes. Essas informações, se devidamente cruzadas e analisadas, além de permitirem potencializar os negócios, podem apontar crises iminentes.

segunda-feira, 23 de março de 2015

Tableau e Governança de dados - Como funciona o Data Server do Tableau?

Garantir que os dados certos estejam disponíveis para as pessoas certas, e quando necessário, na organização é muito importante para as organizações de TI.
Frequentemente, apesar das rígidas políticas de governança de TI, os usuários acabam salvando documentos de análise críticos em seus computadores para fazer análises rápidas ou reavaliar se devem ir para a nuvem. Em um ambiente de autoatendimento, a função de governança de dados é garantir que os mecanismos de segurança sejam utilizados permitindo que os usuários obtenham as respostas de que precisam.
O Tableau Data Server é o componente pelo qual o Tableau Server oferece compartilhamento e gerenciamento centralizado de extração de dados do Tableau e conexão de banco de dados proxy compartilhada. Assim, o departamento de TI pode disponibilizar fontes de dados gerenciadas, analisadas e governadas para todos os usuários do Tableau Server sem duplicar as extrações ou as conexões de dados entre as pastas de trabalho. Isso significa que a organização tem uma forma centralizada de gerenciar:

  • Uniões e conexões de dados
  • Campos calculados (por exemplo, uma definição comum de “lucro”)
  • Definições de campo
  • Conjuntos e grupos
  • Filtros de usuário



Ao mesmo tempo, para viabilizar o autoatendimento e a flexibilidade, os usuários podem estender o modelo de dados combinando novos dados ou criando novas definições e permitindo que o modelo de dados recém-definido seja enviado para a produção com agilidade. Os dados gerenciados de modo centralizado não serão alterados, mas os usuários manterão a flexibilidade.

As fontes de dados publicadas podem ser de dois tipos:

  1. Extrações de dados do Tableau: Os usuários podem conectar-se diretamente com uma extração de dados publicada. Uma organização pode escolher essa abordagem para fornecer aos usuários uma análise de autoatendimento rápida e, ao mesmo tempo, aliviar a carga de sistemas críticos. As extrações de dados centralizadas também evitam a proliferação de silos de dados em uma organização. As atualizações dos dados precisam ser agendadas apenas uma vez para cada extração publicada, e os usuários da organização terão sempre acesso aos mesmos dados e definições compartilhados.
  2. Conexões de proxy compartilhadas: os usuários podem conectar-se diretamente a dados em tempo real com uma conexão de banco de dados proxy. Isso significa que o usuário não tem que definir uma conexão separada, facilitando o início de trabalhos com dados. Os usuários também não precisam instalar drivers de banco de dados, o que reduz a carga do departamento de TI na distribuição de drivers, e os mantém sempre atualizados.









Portanto, o Tableau oferece suporte ao gerenciamento centralizado de extrações e de conexões de dados em tempo real permitindo ao usuário final flexibilidade, segurança e autonomia em suas extrações e visualizações criadas no tableau desktop e server.


sábado, 21 de março de 2015

sexta-feira, 20 de março de 2015

Business Analytics : Logística e Big Data - A Integração Perfeita dos Dados


Big Data e setor de logística deve realmente andar juntos. 

Prestadores de serviços de logística movem grandes volumes de bens, produtos e serviços e há sempre mais e mais no mercado. Ao mesmo tempo, eles  reúnem um conjuntos de dados que estão apenas esperando para serem transformados em informações que suportaram tomada de decisões. 

Eles capturam e rastreiam a origem e o destino dos embarques, o seu tamanho, peso, e sua localização atual. 

No entanto, as empresas do setor, muitas vezes não têm a visão sobre como eles podem se beneficiar de uma informação a partir do material que coleta e rastreia.

Mas o rastreamento desses dados explora plenamente o valor que podem agregar aos negócios? Acreditamos que hoje não.

Não podemos negar que há um enorme potencial inexplorado para melhorar a eficiência operacional e “experiências” com relação ao cliente, e ainda criar novos modelos de negócios mais apropriados. Considere, por exemplo, os benefícios da integração dos dados logísticos de vários provedores da cadeia de abastecimento. Isto poderia eliminar a fragmentação do mercado atual, permitindo uma nova e poderosa corrente de colaboração e serviços.

Muitos provedores imaginam que o Big Data poderá mudar tendências para o setor de logística. Em um estudo internacional recente sobre as tendências da cadeia de abastecimento (BLV International, 2013), 60% dos pesquisados afirmaram que eles estão planejando investir em análise de Big Data dentro dos próximos cinco anos.

No entanto, a busca por vantagem competitiva começa com a identificação de fortes casos de uso do Big Data. Neste trabalho, devemos olhar primeiro para as organizações que implantaram, com êxito, análise de Big Data no contexto das suas próprias indústrias. Em seguida, deveremos considerar uma série de casos de uso específicos para o setor de logística.

À seguir, identificamos três principais vantagens de se implementar Big Data em Logística:

  • O aumento da eficiência do processo operacional, por exemplo, aumentando a transparência, a utilização dos recursos da melhor maneira, aumentando a qualidade e no desempenho do processo de logística.

  • Melhoria na experiência do cliente com a empresa, como o resultado temos a fidelização e retenção de clientes origem, grupos de clientes pode ser segmentados e os clientes podem ser abordados individualmente. A empresa otimiza assim toda a comunicação com o cliente e melhora a execução do serviço prestado.
  • Novos modelos de negócios são possíveis:  Empresas ganham fontes adicionais de receita.

Portanto, capitalizar e maximizar o valor dos ativos de informação deverá ser, a médio prazo, um novo objetivo estratégico para a maioria das empresas e organizações, assim como a migração de seus dados para uma plataforma de Big Data.

Fonte:
















Gestão por indicadores, BSC, BI e Planejamento Estratégico, sua empresa está preparada?

O futuro das organizações estará comprometido se os gestores não tiverem as informações necessárias para as tomadas de decisões disponíveis no momento da decisão, isso é certo, mas muitos ainda utilizam do feeling, da experiência no negócio para tomar suas decisões.

O mundo moderno não permitirá mais esse perfil, uma safra nova de gestores estão vindo, e esses serão mais ágeis, mais flexíveis às movimentações do mercado, e precisão de um Painel de Controle mais eficiente, dinâmico que mostre rapidamente o rumo que a empresa está tomando, e o mais importante, alinhado ao famoso Planejamento Estratégico da organização, que muitas vezes está só na parede ou engavetado.

Um gestor eficiente deverá buscar os resultados que o Planejamento Estratégico (PE) definiu, desenvolvendo o Balanced ScoreCard (BSC) da empresa e dos setores alinhado ao PE e definir seus indicadores e ir em busca das metas, e agora é que começam os desafios. Sabemos definir nossos indicadores?

Quais são os indicadores que precisamos? Que metas estamos buscando? Talvez estejamos tão preocupados com a operação do dia-a-dia, que não dedicamos tempo para isso, lembre “um barco sem rumo, não terá ventos favoráreis”, precisamos saber onde queremos estar amanhã, e ir trilhando e corrigindo o caminho.

Antes de sair comprando e implementando uma ferramenta de Business Inteligence (BI) ou Dashboards, pense se você tem os indicadores definidos, esse é o começo, e se estão alinhados ao BSC (Balanced ScoreCard), se não estiverem alinhados é pouco provável que a empresa atinja os objetivos definidos no PE. Sua empresa tem um Planejamento estratégico não é mesmo?!
Então não se preocupe com a ferramenta, mas com o Planejamento dos Objetivos que se quer alcançar, a software que vai lhe ajudar é um detalhe.

O Indicador é algo que lhe mostre o caminho até a meta, ele deverá ser monitorado, controlado, e você só pode controlar o que se pode medir. Quando for definir um indicador tenha certeza que você tem como coletar os dados.


quinta-feira, 19 de março de 2015

Business Analytics :Como evoluir a arquitetura do seu Data Wharehouse para Big Data

Atualmente quando falamos em arquitetura de um Data Wharehouse temos que levar em consideração vários fatores críticos para o sucesso na implementação. 

Um dos principais fatores é o volume de dados que esta Data Wharehouse irá suportar. A arquitetura deve ser preparada visando um projeto de Big Data combinando componentes físicos e lógicos.


Para saber como evoluir a arquitetura do seu Data Wharehouse para Big Data clique no link abaixo e veja a matéria completa: A Evolução da Arquitetura do Data Wharehouse para Big Data


IBM: Por que tão lento? O IBM Bluemix é a via expressa do desenvolvimento de aplicativos móveis

Em uma escala que mede conveniência, o Bluemix está fora da escala. 

IBM® Bluemix™ fornece configuração rápida para desenvolvimento móvel eficiente.
Uma infraestrutura adequada (para não dizer ideal) é uma necessidade para todo o desenvolvimento de aplicativos, mas o custo em tempo e dinheiro para a configuração desses ambientes pode ser uma barreira ao sucesso. O IBM Bluemix é uma plataforma como serviço que remove essa barreira. Fornecendo serviços, APIs e melhores práticas com suporte de uma comunidade ativa de desenvolvedores, o Bluemix é o cenário ideal para colocar seus aplicativos móveis na via expressa.


"Com o clique de um botão no console de navegador da web do Bluemix eu tenho esse ambiente e resta apenas começar a desenvolver esses aplicativos. Posso preparar meu ambiente em menos de meia hora, simples assim."
IBM Executive Specialist for Mobile Gang Chen explica como o Bluemix e o MBaaS da IBM são os componentes fundamentais para aperfeiçoar e acelerar seu processo de desenvolvimento de aplicativos móveis.
Confira a matéria completa em: http://www.ibm.com/developerworks/br/websphere/library/techarticles/1411_chen/1411_chen.html

Para maiores informações entre em contato conosco.



quarta-feira, 18 de março de 2015

Business Analytics :A diferença entre métrica e indicador

Em projetos de Business Intelligence (BI) é comum serem discutidos diversos pontos essenciais para a implementação correta da solução. Muito é debatido também em cima de assuntos como métricas e indicadores de desempenho. A todo momento falamos desses termos, mas sem saber às vezes a real diferença. Afinal, o que muda entre um e outro?

Quando trabalhamos com informações é muito importante conhecer essa distinção pois são instrumentos importantíssimos e que conduzem a avaliação de nossas análises. Saber a diferença entre métrica e indicadores também nos auxilia na percepção e apuração correta dos resultados.


Métricas são medidas brutas que servem de subsídios aos indicadores. São compostas por vários tipos, como valor, quantidade, peso, volume ou outro formato quantitativo. São a base para a constituição dos indicadores de desempenho.

No BI as métricas correspondem aos dados atômicos armazenados na estrutura de tabelas Fato de um Data Warehouse. São os quantificadores das informações qualitativas disponíveis nas tabelas de Dimensão.


Já quando falamos de indicadores, normalmente estamos referenciando aos indicadores de desempenho (Key Performance Indicator - KPI). Com uma redundância intencional e meio óbvia, podemos dizer que indicador é aquilo que indica algo ou alguma situação específica. Ele também verifica o cumprimento das metas estabelecidas dentro da organização.

Os indicadores de desempenho, além de avaliar a performance organizacional, auxiliam a análise de tendência, a melhoria continua, a atuação proativa e dão transparência à empresa. Fornecem também informações para a análise de processos e implementação de melhorias, e são os elementos que guiam na direção estabelecida pelo planejamento estratégico.

Contudo, devemos perceber que apesar das diferenças conceituais entre cada um, a métrica e indicadores de desempenho possuem aplicações distintas. As métricas têm foco operacional e os indicadores possuem foco no nível tático. Ambos dão suporte as metas no nível estratégico da organização.

Portanto devemos ficar atentos quanto as diferenças intrínsecas dessas definições, pois a partir do momento que compreendemos bem os conceitos, fica muito mais fácil o emprego no dia a dia da organização, contribuindo assim para o resultado das ações gerenciais.




Business Analytics :Self-Service BI vs. Governança de Dados - Como se preparar para esta nova realidade

Self-Service Business Intelligence (SSBI) coloca o poder da análise nas mãos dos usuários finais para criar seus próprios relatórios e análises de conjuntos de dados conforme suas necessidades. O objetivo é utilizar Data Discovery e outras ferramentas de BI para reduzir a sua participação e agilizar informações para usuários de negócios, oferecendo o que Gartner refere como "mais rápido, BI mais fácil de usar e mais relevante."

No entanto, uma infinidade de preocupações devem ser tratadas antes de profissionais de negócios com um conhecimento em analytics pode facilmente tirar proveito de painéis, visualizações interativas, em memória, e ferramentas de mashup que estão contribuindo para o movimento no sentido da simplificação de BI.

O sucesso da implementação SSBI requer a implementação da governança de dados, para tratar as disparidades de cada usuário, estrutura organizacional, e uma abordagem centralizada. O papel da TI é fundamental para quase todas estas preocupações sejam cuidados com muita atenção.

Alguns pontos devem ser observados com cuidado pela Governança de Dados:

  • Má qualidade dos dados: definições inconsistentes são uma das principais razões para a má qualidade dos dados, com ferramentas de auto-atendimento, uma vez que seus respectivos setores de uma organização têm definições diferentes para o mesmo prazo (como cliente). Este problema pode ser evitado através da criação de definições com base em métricas-chave de desempenho ao nível da política que são consistentes em uma base de toda a organização.
  • Integração de Dados: Os problemas de integração surgem quando os dados não estão formatados corretamente antes que os usuários tentem agregar ou compartilhar dados. Esta ocorrência pode ser diminuída com ferramentas de BI que possuam requisitos pré-determinados de análise, modelos de relatórios, e esquema de dados (em grande parte com base na entrada de negócios), permitindo aos usuários escolham o mais adequado para suas necessidades específicas. 
  • Erros lógicos: Uma extensão do problema de qualidade de dados, são os erros lógicos ocorrem quando os indivíduos tomam decisões (e compartilham dados entre usuários e departamentos) com base em tomada de decisões fora de contexto. Políticas de governança devem ser estabelecidas para estratificar informações a nível individual, de troca, e os níveis de publicáveis, todos os quais requerem limpeza de dados antes de criar suas visualizações. O monitoramento de TI dessas ferramentas é recomendado para fornecer um nível adicional de vigilância.