Referência

ReferrerCop analisa arquivos de log do Apache e awstats dados de dados.
Baixe Agora

Referência Classificação e resumo

Propaganda

  • Rating:
  • Licença:
  • GPL
  • Preço:
  • FREE
  • Nome do editor:
  • Ryan Grove
  • Site do editor:
  • http://wonko.com/software/mailfeed/

Referência Tag


Referência Descrição

ReferrerCop analisa arquivos de log do Apache e awstats dados de dados. O projeto ReferrerCop analisa arquivos de log do Apache ou awstats dados de dados e remove as entradas para referir URLs que correspondam a uma lista de spammers referrer conhecidos.In retorna os arquivos filtrados via saída padrão. Execute seus logs através da Referência Antes ou depois de serem processados por AWSTATS (ou antes de serem processados por qualquer outro analisador de log) para eliminar o spam de encaminhamento irritante de suas estatísticas da web. A filtragem é executada usando uma lista negra e um whitelist opcional. As listas são simplesmente arquivos de texto que contêm expressões regulares (um padrão por linha). ReferrerCop vem com uma lista negra grande, fortemente otimizada e freqüentemente atualizada. É extremamente rápida e usa muito pouca memória; É capaz de filtrar arquivos de praticamente qualquer tamanho. No meu Athlon XP 1800 rodando FreeBSD 5.4, ReferrerCop é capaz de processar cerca de 14.000 entradas de log de Apache por segundo (sua quilometragem pode variar) .Requirements: · Ruby 1.8.2 ou HighleUSageReRerCrop ReferrerCop -U ReferrerCop {-h | -V} modos: -f, --filter filtra os arquivos especificados (ou entrada padrão se nenhum arquivo for especificado), enviando os resultados para a saída padrão. Este é o modo padrão. -I, - Lugar filtro os arquivos especificados no lugar, substituindo cada arquivo com a versão filtrada. Um backup do arquivo original será criado com uma extensão .bak. -n, - Extract-Ham Extract Ham (Nonspam) URLs a partir dos dados de entrada e enviá-los para a saída padrão. Duplicatas serão suprimidas. -s, - Extract-spam extrair URLs de spam dos dados de entrada e enviá-los para a saída padrão. Duplicatas serão suprimidas. -U, --Url Teste o URL especificado.Options: -b, - blacklist blacklist para usar em vez da lista padrão. -V, - Verbose Imprimir status detalhado e informações estatísticas para Stderr. -W, --whitelist whitelist para usar em vez da lista padrão.Informação: -h, --Help exibir informações de uso (esta mensagem). -V, --Version Display Version Information.O que é novo nesta versão: · O formato de blacklists e whitelists mudou ligeiramente. · O desempenho com listas grandes foi melhorado. · O recurso de atualização da lista negra agora é mais confiável.


Referência Software Relacionado

robots.txt.

robots.txt é um script PHP que age como um arquivo robots.txt normal, mas com algumas diferenças. ...

207

Download

Jwtm.

JWTM é um menu da Web Tree Java Men Aplet, uma solução abrangente para navegação do site. ...

144

Download

Xorio.

Xorio é uma estrutura de aplicativos da Web com sistema integrado de gerenciamento de conteúdo (CMS) escrito em Java. ...

170

Download