Análise do tráfego de um Web Site

Você precisa estar logado para dar um feedback. Clique aqui para efetuar o login
Para efetuar o download você precisa estar logado. Clique aqui para efetuar o login
Confirmar voto
0
 (0)  (0)

Veja neste artigo como fornecer informações para montar um conteúdo que gere receita por meio da análise de dados gerados pelo tráfego.

 

Hoje em dia possuir um web site é algo que esta se tornando cada vez mais comum. Com a facilidade proporcionada por blogs, wikis, páginas pessoais e gerenciadores de conteúdos, cada vez mais pessoas e empresas ingressam na Internet.

 

Contudo, muitas vezes é necessário que o site gere algum tipo de receita para se manter. Os blogs, em particular, são geralmente sustentados por anunciantes virtuais, que alugam um pedaço do site para colocar seus anúncios, por meio de links patrocinados. A receita gerada para o dono do blog vai depender da quantidade de visualizações (page views), clicks nos links apontados pelos anunciantes e variações destas técnicas.

 

Para garantir que o site tenha uma boa margem de visitas e, consequentemente uma receita razoável, muito se fala a respeito do conteúdo. Neste artigo não falarei sobre o conteúdo, mas sim sobre como fornecer informações para montar um conteúdo que gere receita por meio da análise de dados gerados pelo tráfego.

 

Uma das análises mais interessantes que podem ser feitas nos dados é chamada de ClickStream Analisys. Esta análise é mais voltada para os sites que contém uma loja virtual, daquelas que os usuários colocam itens no carrinho e depois finalizam a compra. Apesar de ser utilizada neste cenário, esta técnica pode ser utilizada em qualquer tipo de web site que contenha muitos links internos.

 

A idéia da técnica ClickStream Analisys é analisar a seqüência de clicks que cada usuários fez no site. Para armazenar estes dados geralmente utiliza-se o log do servidor, que deve armazenar uma informação sobre o IP do usuário e a URL de cada click que ele fez durante o acesso ao site. Com base nestes dados, aplica-se uma variação do algoritmo que gera regras de associação, como o algoritmo Apriori, para identificar qual é a probabilidade de um usuário comprar um determinado produto ou acessar certa região de um site.

 

Por exemplo: pode-se identificar que, antes de efetivamente finalizar a compra, uma grande quantidade de usuários clica na seção de Perguntas Freqüentes (FAQ). Com posse nesta informação, o web master pode considerar a modificação da tela de finalização de comprar para já incluir informações contidas no FAQ. Para mais informações sobre este tipo de análise recomendo uma boa lida no artigo em PDF apontada por este link: http://www.lac.inpe.br/~rafael.santos/DM/docs/dm-ssi.pdf

 

Outra análise interessante diz respeito ao perfil. Imagine que, a partir da base de dados de compras de produtos, podemos identificar um determinado grupo de usuários que consome um determinado produto ou acessa certa região. Por exemplo, se descobrirmos que uma porcentagem significativa de usuários que acesso o link X utiliza o Internet Explorer, faz o acesso das 00:00 às 02:00 e gasta, em média, 10 minutos no site, poderemos montar uma sessão especial no site neste horário e, quem sabe, aumentar a permanência e a quantidade de visitas deste tipo de usuários.

 

Para colocar mais informações e enriquecer o perfil, pode-se solicitar ao usuário que ele preencha um pequeno questionário (também chamado de enquete) indicando sexo, idade, preferência por conteúdo, horário de acesso etc. Um bom exemplo de como pode ser este questionário é apresentado no site Jacaré Banguela, onde o web master montou a questões do post “O JB quer saber quem é você” de forma bem humorada. O link para acessar este questionário é:

 

http://www.jacarebanguela.com.br/?palavra=enquete

 

Com base nisso, pode-se refinar o perfil tornando-o mais rico para futuras modificações no site. Um bom algoritmo que ajuda a determinar o perfil é o algoritmo de Árvores de Decisão. Um exemplo de como o algoritmo funciona é apresentado no artigo publicado no link abaixo:

 

http://www.imasters.com.br/artigo/5130/sql_server/data_mining_na_pratica_arvores_de/

 

Além destas análises, pode-se conduzir também estudos sobre a usabilidade de um web site. Talvez um dos estudos mais interessantes seja o estudo conhecido ClickMaps, onde se determina onde cada usuário mais clica na página de um site por meio de um HeatMaps. A Figura 1 apresenta um exemplo de um HeatMap:

 

15-04-2007pic01.JPG 

No HeapMap apresentado na Figura 1 as área onde os usuários mais clicaram são apresentadas em vermelho (cores mais fortes) e as área onde os usuários menos clicaram são apresentadas em azul (cores não tão fortes). Desta maneira, o web master pode verificar onde os usuários estão interagindo mais com o site e, caso haja a necessidade, modificar o layout do mesmo para confundir menos os usuários. Na minha opinião, a cada vez que o layout de um site for modificado este tipo de análise deve ser utilizada para ver como os usuários reagiram ao novo layout. Infelizmente, poucas empresas seguem esta prática.

 

Montar um HeapMap não é uma técnica muito complexa. O link abaixo apresenta um passo a passo, que utiliza apenas com software livre, ensinando como montar um:

 

http://blog.corunet.com/english/how-to-make-heat-maps

 

Além destas técnicas básicas para análises de dados de tráfego em um site existem muitas outros. Porém, é necessário antes planejar bem qual técnica utilizar antes de adaptar o site para coletar as informações. Além disso, é importante lembrar que a análise por si só não traz benefícios: são as ações tomadas a partir das conclusões das análises que podem trazer mais usuários, e conseqüentemente mais receitas, para um web site.

 

Mauro Pichiliani

 
Você precisa estar logado para dar um feedback. Clique aqui para efetuar o login
Receba nossas novidades
Ficou com alguma dúvida?