KNIME

KNIME
KNIME
Desarrollador
KNIME.com GmbH
knime.org
Información general
Última versión en pruebas 2.3.3
16 de marzo de 2011
Género Minería de datos
Sistema operativo Multiplataforma; funciona al menos en Linux, Windows, Mac OSX y cualquier S.O. que soporte máquina virtual Java
Plataforma Java
Licencia GPL
Estado actual En producción
En español No. 

KNIME (o Konstanz Information Miner) es una plataforma de minería de datos que permite el desarrollo de modelos en un entorno visual. Está construido bajo la plataforma Eclipse.

Contenido

Historia

Fue desarrollado originalmente en el departamento de bioinformática y minería de datos de la Universidad de Constanza, Alemania, bajo la supervisión del profesor Michael Berthold. En la actualidad, la empresa KNIME.com GmbH, radicada en Zúrich, Suiza, continúa su desarrollo además de prestar servicios de formación y consultoría.

Características

KNIME está desarrollado sobre la plataforma Eclipse y programado, esencialmente, en java. Está concebido como una herramienta gráfica y dispone de una serie de nodos (que encapsulan distintos tipos de algoritmos) y flechas (que representan flujos de datos) que se despliegan y combinan de manera gráfica e interactiva.

Los nodos implementan distintos tipos de acciones que pueden ejecutarse sobre una tabla de datos:

  • Manipulación de filas, columnas, etc., como muestreos, transformaciones, agrupaciones, etc.
  • Visualización (histogramas, etc.).
  • Creación de modelos estadísticos y de minería de datos, como árboles de decisión, máquinas de vector soporte, regresiones, etc.
  • Validación de modelos, como curvas ROC, etc.
  • Scoring o aplicación de dichos modelos sobre conjuntos nuevos de datos.
  • Creación de informes a medida gracias a su integración con BIRT.

El carácter abierto de la herramienta hace posible su extensión mediante la creación de nuevos nodos que implementen algoritmos a la medida del usuario. Además, existe la posibilidad de utilizar de llamar directa y transparentemente a Weka y o de incorporar de manera sencilla código desarrollado en R o python/jython.

KNIME integra diversos componentes para aprendizaje automático y minería de datos a través de su concepto de fraccionamiento de datos (data pipelining) modular. La interfaz gráfica de usuario permite el montaje fácil y rápido de nodos para preprocesamiento de datos (ETL: extracción, transformación, carga), para el análisis de datos y modelado y visualización. KNIME es desde 2006 utilizado en la investigación farmacéutica,[1] pero también se utiliza en otras áreas, como: análisis de datos de cliente de CRM, inteligencia de negocio y análisis de datos financieros.

Licencia y soporte

KNIME es una herramienta de código abierto que puede ser descargada y utilizada gratuitamente bajo los términos de la licencia GPLv3 con una excepción que permite que otros usuarios utilicen el bien definido nodo de API para añadir extensiones de propiedad[2] Esto también permite a los proveedores comerciales de software agregar envolturas enlazando sus herramientas hacia KNIME.

La compañía que lo desarrolla ofrece, adicionalmente, la posibilidad de contratar servicios de soporte en varios niveles, además de brindar servicios de consultoría y formación.

Referencias

  1. Abhishek Tiwaria and Arvind K.T. Sekhar: Workflow based framework for life science informatics, Computational Biology and Chemistry, Volume 31, Issues 5–6, Pages 305–319, Elsevier, October 2007.
  2. KNIME 2.1.0 lanzado (released, en inglés)

Véase también

  • Ver el portal sobre Software libre Portal:Software libre. Contenido relacionado con Software libre.
  • Weka - algoritmos de aprendizaje automático que se pueden integrar en KNIME
  • Environment for DeveLoping KDD-Applications Supported by Index-Structures - marco de minería de datos con muchos algoritmos de agrupamiento (clustering)

Enlaces externos


Wikimedia foundation. 2010.

Игры ⚽ Нужен реферат?

Mira otros diccionarios:

  • KNIME — Aktuelle Version 2.4.2 (29. August 2011) Betriebssystem Linux, Macintosh, Windows …   Deutsch Wikipedia

  • Logiciels de fouille de données — Exploration de données Articles principaux Exploration de données Fouille de données spatiales Fouille du web Fouille de flots de données Fouille de textes …   Wikipédia en Français

  • PMML — Predictive Model Markup Language (PMML) ist ein seit 1997 fortlaufend entwickelter, auf XML basierter Standard, zum Austausch von Ergebnissen zwischen verschiedenen Programmen für die Data Mining. Meist bietet das jeweilige Programm (prudsys… …   Deutsch Wikipedia

  • Datenstromorientierte Programmierung — geht von einem kontinuierlichen Datenstrom, meist Signaldaten, der in Echtzeit verändert und ausgegeben wird. Bekannte Beispiele sind Simulink, Pure Data oder LabVIEW. Inhaltsverzeichnis 1 Geschichte 2 Objekte 2.1 Quelle …   Deutsch Wikipedia

  • List of free and open source software packages — This article is about software free to be modified and distributed. For examples of software free in the monetary sense, see List of freeware. This is a list of free and open source software packages: computer software licensed under free… …   Wikipedia

  • Язык разметки прогнозного моделирования — Язык разметки для прогнозного моделирования (Predictive Model Markup Language  PMML) является языком разметки на основе XML, разработанным Data Mining Group (DMG), и обеспечивающим приложениям способ определения моделей, относящихся к… …   Википедия

  • Data mining — Not to be confused with analytics, information extraction, or data analysis. Data mining (the analysis step of the knowledge discovery in databases process,[1] or KDD), a relatively young and interdisciplinary field of computer science[2][3] is… …   Wikipedia

  • Decision tree learning — This article is about decision trees in machine learning. For the use of the term in decision analysis, see Decision tree. Decision tree learning, used in statistics, data mining and machine learning, uses a decision tree as a predictive model… …   Wikipedia

  • Association rule learning — In data mining, association rule learning is a popular and well researched method for discovering interesting relations between variables in large databases. Piatetsky Shapiro[1] describes analyzing and presenting strong rules discovered in… …   Wikipedia

  • Data analysis — Analysis of data is a process of inspecting, cleaning, transforming, and modeling data with the goal of highlighting useful information, suggesting conclusions, and supporting decision making. Data analysis has multiple facets and approaches,… …   Wikipedia

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”