MDP.

Toolkit modular para a biblioteca de processamento de dados
Baixe Agora

MDP. Classificação e resumo

Propaganda

  • Rating:
  • Licença:
  • LGPL
  • Preço:
  • FREE
  • Nome do editor:
  • Pietro Berkes, Niko Wilbert, and Tiziano Zito
  • Site do editor:

MDP. Tag


MDP. Descrição

Toolkit modular para biblioteca de processamento de dados MDP (Modular Toolkit para processamento de dados) é uma biblioteca de algoritmos de processamento de dados amplamente utilizados que podem ser combinados de acordo com uma analogia de pipeline para criar software de processamento de dados mais complexos.da a perspectiva do usuário, o MDP consiste em uma coleção de algoritmos de aprendizagem supervisionados e não supervisionados e outras unidades de processamento de dados (nós) que podem ser combinadas em seqüências de processamento de dados (fluxos) e arquiteturas de rede mais complexas de alimentação. Dado um conjunto de dados de entrada, o MDP cuida de treinamento sucessivamente ou execução de todos os nós na rede. Isso permite que o usuário especifique algoritmos complexos como uma série de etapas de processamento de dados mais simples de forma natural. A base dos algoritmos disponíveis está aumentando e inclui, para nomear, mas a análise de componente principal mais comum (PCA e Nipals), vários Algoritmos de análise de componentes (Cubica, Fastes, TDSEP, Jade e XSFA), análise lenta de recursos, classificadores Gaussianos, máquina de Boltzmann restrita e incorporação linear.Particular foi tomada para fazer cálculos eficientes em termos de velocidade e memória. Para reduzir os requisitos de memória, é possível realizar o aprendizado usando lotes de dados e definir os parâmetros internos dos nós para serem uma única precisão, o que torna possível o uso de conjuntos de dados muito grandes. Além disso, o subpackage "paralelo" oferece uma implementação paralela dos nós básicos e flui. Da perspectiva do desenvolvedor, a MDP é uma estrutura que torna a implementação de novos algoritmos de aprendizagem supervisionados e não supervisionados. A classe básica, 'nó', cuida de tarefas tediosas como verificação de tipo numérico e dimensionalidade, deixando o desenvolvedor livre para se concentrar na implementação das fases de aprendizagem e execução. Devido à interface comum, o nó integra automaticamente com o restante da biblioteca e pode ser usado em uma rede junto com outros nós. Um nó pode ter várias fases de treinamento e até mesmo um número indeterminado de fases. Isso permite a implementação de algoritmos que precisam coletar algumas estatísticas sobre toda a entrada antes de prosseguir com o treinamento real, e outros que precisam iterar em uma fase de treinamento até que um critério de convergência seja satisfeito. A capacidade de treinar cada fase usando pedaços de dados de entrada é mantida se os pedaços forem gerados com os iteradores. Além disso, a recuperação de falhas está opcionalmente disponível: Em caso de falha, o estado atual do fluxo é salvo para inspeção posterior.mdp foi escrito no contexto da pesquisa teórica em neurociência, mas foi projetado para ser útil em qualquer contexto onde Os algoritmos de processamento de dados treináveis são usados. Sua simplicidade no lado do usuário, juntamente com a reutilização dos nós implementados, torná-lo também uma ferramenta educacional válida. Requisitos: · Pitão · NUMPY. · Scipy. O que há de novo nesta versão: · 2009-06-30: Adicionado detecção on-line de back-end numérico, suporte de Python paralelo, backend da Symeig e backend numérico para a saída de testes unitários. Deve ajudar na depuração. · 2009-06-12: Integração dos nós de corte e histograma. · 2009-06-12: Corrigido bug no fluxo paralelo (manuseio de exceção). · 2009-06-09: Bug fixo no llenode quando o output_dim é um float. Obrigado a Konrad Hinsen. · 2009-06-05: Bugs fixos em fluxo paralelo para vários agendadores. · 2009-06-05: Corrigido um bug na camada inversa, graças a Alberto Escalante. · 2009-04-29: Adicionado um linearregressionnode. · 2009-03-31: o PCanode não reclama mais quando a matriz da covariance tem eigenvalues negativos IFF SVD == true ou reduza == TRUE. Se a saída_dim tiver sido especificada tiver uma variância desejada, os autovalores negativos são ignorados. Mensagem de erro aprimorada para sfanode em caso de eigenvalues negativos, sugerimos que agora prefenda o nó com um pcanode (SVD = TRUE) ou PCANODE (REDUCO = TRUE). · 2009-03-26: Migrou do pacote de rosca antigo para a nova rosca. Adicionado sinalizador para desativar o armazenamento em cache no processo de processo. Existem algumas alterações de quebra para agendadores personalizados (treinamento ou execução de fluxo paralelo não são afetados). · 2009-03-25: Adicionado suporte de rastreamento de revisão SVN. · 2009-03-25: Removido o sinalizador Copy_Callable para Scheduler, isso agora é completamente substituído pela pilificando a tarefa. Isso não tem efeito para a conveniente interface paranelelflow, mas os agendadores personalizados são quebrados. · 2009-03-22: Implementado em cache no processo de processosCheduler. · 2009-02-22: Make_Parallel agora funciona completamente no local para economizar memória. · 2009-02-12: Adicionado métodos de contêineres a flowdode. · 2009-03-03: Adicionado CrosscovarianCematrix com testes. · 2009-02-03: Adicionado identidadeNode. · 2009-01-30: Adicionado uma função auxiliar na HINET para exibir diretamente uma representação HTML de fluxo. · 2009-01-22: Permitir que a Saída_Dim na camada seja definida preguiçosamente. · 2008-12-23: Adicionado Total_Variance ao nó Nipals. · 2008-12-23: Sempre defina Explained_Variance e Total_Variance após o treinamento no PCANODE. · 2008-12-12: Symrand modificado para realmente retornar matrizes simétricas (e não apenas positivo definido). Adapted gaussianclassifiernode para explicar isso. Adaptou Symrand para retornar também matrizes errônicas complexas. · 2008-12-11: Corrigido um problema no PCANODE (quando o output_dim foi definido como Input_Dim, a variação total foi tratada como desconhecida). Parâmetro Var_Part fixo no paralelcanode. · 2008-12-11: Adicionado recurso VAR_PART ao PCANODE (filtro de acordo com a variação em relação à variância absutiva). · 2008-12-04: Corrigido eixo ausente ausente na chamada AMAX no tutorial. Graças a Samuel John! · 2008-12-04: Corrigido o manuseio de iterador de dados vazio em Paranelelflow. Também adicionou verificações vazias no fluxo normal (levante uma exceção se o iterador estiver vazio). · 2008-11-19: Nodes Modificados da PCA e SFA para verificar se há eigenvalores negativos nas matrizes do Cov · 2008-11-19: Symeig integrado no Scipy, MDP pode usá-lo de lá agora. · 2008-11-18: Adicionado ParallelfDanOde. · 2008-11-18: Atualizou o trem chamado para paranelelfow para suportar argumentos adicionais. · 2008-11-05: Reescreva o código paralelo, agora suporta estruturas do HINET. · 2008-11-03: Reescreva do criador de Repesentação HTML da HINET. Infelizmente isso também quebra a interface pública, mas as mudanças são bem simples. · 2008-10-29: Desligar avisos provenientes de processos remotos em ProcessScheduler · 2008-10-27: Problema fixo com overwriting Kwargs no método Init de Paranelelflow. · 2008-10-24: Corrigido os nós pretravidos bug no hinet.flowode. · 2008-10-20: Corrigido bug de importação crítica no pacote paralelo quando o PP (Parallel Python Library) está instalado.


MDP. Software Relacionado

jssha.

JSSHA é uma implementação de JavaScript de toda a família dos hashes SHA, conforme definido no FIPS 180-2. ...

247

Download

Portecle.

portecle é uma versão da GUI do KeyTool de linha de comando fornecida com o Java SDK. ...

200

Download

Bastilha

Programa de endurecimento de Bastille "Bloqueia" um sistema operacional. ...

185

Download