Modeler Scripting Automation
Modeler Scripting Automation
IBM
Nota
Antes de utilizar esta información y el producto al que da soporte, lea la información del apartado
“Avisos” en la página 483.
iii
Establecimiento de propiedades......................................................................................................... 30
Creación de nodos y modificación de rutas.............................................................................................. 31
Creación de nodos................................................................................................................................31
Enlazar y desenlazar nodos..................................................................................................................32
Importar, sustituir y eliminar nodos.................................................................................................... 33
Atravesar los nodos de una ruta.......................................................................................................... 34
Borrado o eliminación de elementos........................................................................................................ 35
Obtener información sobre los nodos....................................................................................................... 35
iv
Propiedades comunes de nodos de origen............................................................................................... 83
Propiedades de asimport...........................................................................................................................90
Propiedades del nodo cognosimport........................................................................................................ 91
propiedades de databasenode..................................................................................................................95
Propiedades de datacollectionimportnode...............................................................................................96
Propiedades de excelimportnode........................................................................................................... 100
Propiedades de extensionimportnode....................................................................................................101
Propiedades de fixedfilenode..................................................................................................................103
Propiedades del nodo gsdata_import.....................................................................................................108
Propiedades jsonimportnode.................................................................................................................. 108
Propiedades de sasimportnode.............................................................................................................. 109
propiedades de simgennode................................................................................................................... 109
Propiedades de statisticsimportnode..................................................................................................... 111
Propiedades del nodo tm1odataimport..................................................................................................111
Propiedades del nodo tm1import (en desuso)....................................................................................... 112
Propiedades del nodo twcimport............................................................................................................ 113
propiedades de userinputnode............................................................................................................... 114
Propiedades de variablefilenode.............................................................................................................115
Propiedades de xmlimportnode..............................................................................................................121
v
Capítulo 12. Propiedades de nodos Gráfico.........................................................195
Propiedades comunes del nodo Gráfico................................................................................................. 195
Propiedades de collectionnode...............................................................................................................196
Propiedades de distributionnode............................................................................................................197
Propiedades de evaluationnode..............................................................................................................198
Propiedades de graphboardnode............................................................................................................200
Propiedades de histogramnode.............................................................................................................. 205
Propiedades de mapvisualization........................................................................................................... 206
Propiedades de multiplotnode................................................................................................................211
Propiedades de plotnode........................................................................................................................ 212
Propiedades de timeplotnode.................................................................................................................215
Propiedades eplotnode........................................................................................................................... 216
Propiedades tsnenode.............................................................................................................................217
Propiedades de webnode........................................................................................................................219
vi
Propiedades de tcmnode........................................................................................................................ 318
propiedades ts......................................................................................................................................... 323
propiedades de treeas.............................................................................................................................334
Propiedades de twostepnode................................................................................................................. 337
Propiedades de twostepAS..................................................................................................................... 338
vii
Propiedades de nodos de modelado de Microsoft................................................................................. 363
Propiedades de nodos de modelado de Microsoft............................................................................363
Propiedades de nugget de modelo de Microsoft ..............................................................................365
Propiedades de nodos de modelado de Oracle......................................................................................368
Propiedades de nodos de modelado de Oracle ............................................................................... 368
Propiedades de nugget de modelo de Oracle .................................................................................. 374
Propiedades de nodos de modelado de IBM Netezza Analytics............................................................375
Propiedades de nodos de modelado de Netezza..............................................................................375
Propiedades de nugget de modelo de Netezza.................................................................................392
viii
Propiedades de smotenode.................................................................................................................... 452
Propiedades tsnenode.............................................................................................................................453
Propiedades xgboostlinearnode............................................................................................................. 455
Propiedades de xgboosttreenode........................................................................................................... 456
Avisos............................................................................................................... 483
Marcas comerciales................................................................................................................................. 484
Términos y condiciones para la documentación del producto...............................................................484
Índice............................................................................................................... 487
ix
x
Capítulo 1. Scripts y lenguaje de scripts
Tipos de scripts
IBM SPSS Modeler utiliza tres tipos de scripts:
• Los scripts de la ruta se guardan como una propiedad de ruta y se guardan y se cargan con una ruta
específica. Por ejemplo, puede escribir un script de ruta que automatice el proceso de entrenamiento
y aplicación de un nugget de modelo. También puede especificar que cuando se ejecute una ruta
particular, se ejecute el script, en lugar del contenido del lienzo de la ruta.
• Los scripts autónomos no están asociados a ninguna ruta en particular y se guardan en archivos de
texto externos. Puede utilizar un script autónomo, por ejemplo, para manipular varias rutas a la vez.
• Los scripts Supernodos se guardan como una propiedad de ruta de supernodo. Los scripts Supernodos
sólo están disponibles en supernodos terminales. Puede utilizar un script de supernodo para controlar
la secuencia de ejecución del contenido del supernodo. En supernodos no terminales (origen o
proceso), puede definir propiedades del supernodo o los nodos que contiene en su script de ruta
directamente.
Scripts de ruta
Los scripts se pueden utilizar para personalizar operaciones dentro de una ruta particular y se guardan
con esa ruta. Los scripts de la ruta se pueden utilizar para especificar un orden de ejecución particular
para los nodos terminales de una ruta. El cuadro de diálogo del script de ruta se utiliza para editar el
script que está guardado con la ruta actual.
Para acceder a la pestaña de scripts de ruta en el cuadro de diálogo propiedades de ruta:
1. Desde el menú Herramientas, elija:
Propiedades de la ruta > Ejecución.
2. Pulse en la pestaña Ejecución para trabajar con scripts en la ruta actual.
Utilice los iconos de barra de herramientas en la parte superior del recuadro de diálogo del script de ruta
para las operaciones siguientes:
• Importar el contenido de un script autónomo preexistente en la ventana.
• Guardar un script como archivo de texto.
• Imprimir un script.
• Añadir script predeterminado.
• Editar un script (deshacer, cortar, copiar, pegar y otras funciones de edición comunes).
• Ejecutar el script completo actual.
• Ejecutar líneas concretas de un script.
• Detener un script durante la ejecución. (Este icono sólo está habilitado cuando un script se está
ejecutando).
• Comprobar la sintaxis del script y, si se encuentra algún error, mostrarlos para la revisión en el panel
inferior del recuadro de diálogo.
Nota: A partir de la versión 16.0, SPSS Modeler utiliza el lenguaje de scripts Python. Todas las versiones
anteriores a la 16.0 utilizaban un lenguaje de script exclusivo para SPSS Modeler, al que ahora se
denomina como script de herencia. Según el tipo de script con el que trabaje, en la pestaña Ejecución
seleccione la modalidad de ejecución Predeterminada (script opcional) y, a continuación, seleccione
Python o Legacy.
Puede especificar si un script se va a ejecutar o no cuando se ejecuta la ruta. Para ejecutar el script cada
vez que se ejecuta la ruta, respectando el orden de ejecución del script, seleccione Ejecutar este script.
De este modo se proporciona una automatización a nivel de ruta para acelerar la generación del modelo.
Sin embargo, la configuración predeterminada es omitir el script durante la ejecución de la ruta. Incluso si
selecciona la opción Omitir este script, siempre puede ejecutar la ruta directamente desde este cuadro
de diálogo.
El editor de scripts incluye las siguientes características que ayudan a crear scripts:
• Resaltado de sintaxis. Se resaltan las palabras claves, los valores literales (tales como cadenas y
números) y los comentarios.
• Numeración de líneas.
• Coincidencia de bloques. Cuando se coloca el cursor al inicio de un bloque de programa, también se
resalta el bloque final correspondiente.
• Finalización automática sugerida.
Los colores y los estilos de texto que utiliza la función de resaltado de la sintaxis se pueden personalizar
utilizando las preferencias de visualización de IBM SPSS Modeler. Para acceder a las preferencia de
visualización, elija Herramientas > Opciones > Opciones de usuario y seleccione la pestaña Sintaxis.
Se puede acceder a una lista de finalizaciones de sintaxis sugeridas seleccionando la Sugerencia
automática en el menú de contexto o pulsando Ctrl más espacio. Utilice las teclas de cursor para
desplazarse hacia arriba y hacia abajo por la lista y, a continuación, pulse Intro para insertar el texto
seleccionado. Para salir de la modalidad de sugerencia automática sin modificar el texto existente, pulse
Esc.
La pestaña Depurar muestra mensajes de depuración y se puede utilizar para evaluar el estado del script
una vez que se haya ejecutado. La pestaña Depurar está formada por un área de texto de solo lectura y
un campo de texto de entrada de una sola línea. El área de texto muestra el texto que se envía a la salida
estándar o un error estándar mediante los scripts, por ejemplo, a través del texto del mensaje de error.
El campo de texto de entrada toma la entrada del usuario. Esta entrada se evalúa dentro del contexto del
script que se ha ejecutado más recientemente en el diálogo (conocido como el contexto de los scripts).
El área de texto contiene el comando y la salida resultante, de modo que el usuario puede ver un rastreo
ruta = modeler.script.stream()
neuralnetnode = stream.findByType("neuralnetwork", None)
results = []
neuralnetnode.run(results)
appliernode = stream.createModelApplierAt(results[0], "Drug", 594, 187)
analysisnode = stream.createAt("analysis", "Drug", 688, 187)
typenode = stream.findByType("type", None)
stream.linkBetween(appliernode, typenode, analysisnode)
analysisnode.run([])
Scripts autónomos
El cuadro de diálogo script autónomo se usa para crear o editar un script que se ha guardado como
archivo de texto. En él se muestra el nombre del archivo y se proporcionan recursos para la carga,
almacenamiento, importación y ejecución de scripts.
Para acceder al cuadro de diálogo del script autónomo:
En el menú principal, elija:
Herramientas > Script autónomo
Los scripts autónomos y los de ruta comparten las mismas opciones de comprobación de sintaxis de
scripts y barra de herramientas. Consulte el tema “Scripts de ruta” en la página 1 para obtener más
información.
taskrunner = modeler.script.session().getTaskRunner()
# First load the model builder stream from file and build a model
druglearn_stream = taskrunner.openStreamFromFile(installation + "streams/druglearn.str", True)
results = []
druglearn_stream.findByType("c50", None).run(results)
# Now load the plot stream, read the model from file and insert it into the stream
drugplot_stream = taskrunner.openStreamFromFile(installation + "streams/drugplot.str", True)
model = taskrunner.openModelFromFile("rule.gm", True)
modelapplier = drugplot_stream.createModelApplier(model, "Drug")
Nota: Para obtener más información sobre el lenguaje de scripts en general, consulte “Conceptos básicos
de lenguaje de script” en la página 15.
stream = modeler.script.session().createProcessorStream("featureselection",
True)
stream.link(statisticsimportnode, typenode)
stream.link(typenode, featureselectionnode)
models = []
featureselectionnode.run(models)
# Assumes the stream automatically places model apply nodes in the stream
applynode = stream.findByType("applyfeatureselection", None)
tablenode = stream.createAt("table", "Table", applynode.getXPosition() + 96,
applynode.getYPosition())
stream.link(applynode, tablenode)
tablenode.run([])
El script crea un nodo de origen para leer en los datos, utiliza un nodo Tipo para definir el rol del campo
response_01 hacia Destino y, a continuación, crea y ejecuta un nodo Selección de características.
Este script también conecta cada nodo y posiciones en el lienzo de la ruta para producir un diseño
legible. El nugget de modelo resultante se conecta al nodo Tabla, que indica los 15 campos más
importantes, tal y como determinan las propiedades selection_mode y top_n. Consulte “propiedades
de featureselectionnode” en la página 257 para obtener más información.
Scripts de Supernodo
Puede crear y guardar scripts en cualquier supernodo de terminal utilizando el lenguaje de script
de IBM SPSS Modeler. Estos scripts sólo están disponibles para supernodos terminales y se suelen
utilizar cuando crea rutas de plantilla o para imponer un orden de ejecución especial del contenido del
supernodo. Los scripts de supernodo también permiten ejecutar más de un script en una ruta.
Por ejemplo, supongamos que necesita especificar el orden de ejecución de una ruta compleja y su
supernodo contiene varios nodos, incluyendo un nodo Val. globales, que se debe ejecutar antes de derivar
un nuevo campo utilizado en un nodo Gráfico. En este caso, puede crear un script de supernodo que
ejecute el nodo Val. globales en primer lugar. Los valores calculados por este nodo, como la media o la
desviación estándar, se pueden usar posteriormente cuando se ejecute el nodo Gráfico.
En un script de Supernodo, puede especificar las propiedades del nodo de la misma manera que
otros scripts. También puede cambiar y definir las propiedades de cualquier supernodo o sus nodos
encapsulados directamente desde un script de ruta. Consulte Capítulo 21, “Propiedades de supernodo”,
ruta = modeler.script.stream()
superNode=stream.findByID('id854RNTSD5MB')
# desbloquear un supernodo
print 'unlock the super node with password abcd'
if superNode.unlock('abcd'):
print 'unlocked.'
else:
print 'invalid password.'
# bloquear un supernodo
print 'lock the super node with password abcd'
superNode.lock('abcd')
Bucles en rutas
Con la creación de bucles puede automatizar las tareas repetitivas en las rutas, por ejemplo:
• Ejecutar la ruta un determinado número de veces y cambiar el origen cada vez.
• Ejecutar la ruta un determinado número de veces cambiando el valor de una variable cada vez.
• Ejecutar la ruta un determinado número de veces especificando un campo adicional en cada ejecución.
• Construir un modelo un determinado número de veces y cambiar la configuración del modelo cada vez.
Configurar las condiciones que deben cumplirse en la subpestaña Bucle de la pestaña Ejecución de la
ruta. Para visualizar la subpestaña, seleccione el modo de ejecución Ejecución en bucle/condicional.
Los requisitos de bucle que defina entrarán en vigor cuando se ejecute la ruta, si se ha establecido la
modalidad de ejecución Ejecución en bucle/condicional. De forma opcional, puede generar el código
de script para los requisitos de bucle y pegarlo en el editor de scripts pulsando Pegar... en el ángulo
inferior derecho de la subpestaña Bucle y la visualización de la pestaña Ejecución principal cambiará para
para abrir el cuadro de diálogo Añadir sentencia de ejecución condicional. En este diálogo
especifica la condición que se debe cumplir para que se ejecute el nodo.
2. En el cuadro de diálogo Sentencia de ejecución condicional, especifique lo siguiente:
a. Nodo. Seleccione el nodo para el que desee configurar una ejecución condicional. Pulse el botón
Examinar para abrir el diálogo Seleccionar nodo y elija el nodo que desee. Si hay demasiados nodos
en la lista, puede filtrar la visualización para que únicamente se muestren los nodos de una de las
siguientes categorías: Exportar, Gráfico, Modelado o Resultados.
b. Condición basada en. Especifique la condición que se debe cumplir para que se ejecute el
nodo. Puede elegir una de estas cuatro opciones: Parámetro de ruta, Variable global, Casilla
de resultados de tabla o Siempre verdadero. Los detalles que especifique en la mitad inferior del
cuadro de diálogo están controlados por la condición que elija.
• Parámetro de ruta. Seleccione el parámetro de la lista disponible y, a continuación, seleccione
el Operador para ese parámetro; por ejemplo, el operador puede ser Más, Igual, Menor que,
Entre, etc. A continuación especifique el Valor, o los valores mínimos o máximos, dependiendo
del operador seleccionado.
• Variable global. Seleccione la variable de la lista disponible; por ejemplo, esto podría incluir:
Media, Suma, Valor mínimo, Valor máximo o Desviación estándar. A continuación, seleccione
Operador y los valores necesarios.
• Casilla de resultados de tabla. Seleccione el nodo de tabla de la lista disponible y, a
continuación, seleccione la Fila y la Columna en la tabla. A continuación, seleccione Operador y
los valores necesarios.
• Siempre verdadero. Seleccione esta opción si siempre se ha de ejecutar el nodo. Si selecciona
esta opción, no hay parámetros adicionales que seleccionar.
3. Repita los pasos 1 y 2 tantas veces como sea necesario hasta que haya configurado todas las
condiciones que requiere. El nodo que ha seleccionado y la condición que se debe cumplir antes de
que se ejecute el nodo se muestran en el cuerpo principal de la subpestaña de las columnas Ejecutar
nodo y Si esta condición es verdadera respectivamente.
4. De forma predeterminada, los nodos y las condiciones se ejecutan en el orden en que aparecen. Para
subir o bajar un nodo y condición en la lista, pulse el nodo para seleccionarlo y, a continuación, utilice
la flecha arriba o la flecha abajo en la columna de la derecha de la subpestaña para cambiar el orden.
Además, puede establecer las siguientes opciones en la parte inferior de la subpestaña Condicional:
• Evaluar todo en orden. Seleccione esta opción para evaluar cada condición en el orden en que se
muestra en la subpestaña. Los nodos para los que se han encontrado condiciones que son "True" se
ejecutarán una vez evaluadas todas las condiciones.
• Ejecutar uno por uno. Sólo está disponible si se selecciona Evaluar todo en orden. Si se selecciona
significa que si la condición se evalúa como "True", el nodo asociado con esa condición se ejecutará
antes de que se evalúe la siguiente condición.
• Evaluar hasta primer acierto. Si se selecciona, significa que solo se ejecutará el primer nodo cuya
evaluación de las condiciones devuelva el valor "True".
El botón "Ejecutar líneas seleccionadas" ejecuta una única línea, o un bloque de líneas adyacentes, que
ha seleccionado en el script:
Buscar y reemplazar
El cuadro de diálogo Buscar/reemplazar está disponible en lugares donde edita texto de script o de
expresión, incluido el editor de scripts, el generador de expresiones CLEM o cuando define una plantilla
en el nodo Informe. Cuando edite texto en cualquiera de estas áreas, pulse Ctrl para acceder al cuadro
de diálogo, asegurándose de que el cursor está centrado en un área de texto. Por ejemplo, si trabaja en un
nodo Rellenar, puede acceder al cuadro de diálogo desde cualquiera de las áreas de texto de la pestaña
Configuración o desde el campo de texto del generador de expresiones.
1. Con el cursor en un área de texto, pulse Ctrl+F para acceder al cuadro de diálogo Buscar/reemplazar.
2. Introduzca el texto que desee buscar o selecciónelo de la lista desplegable de elementos buscados
recientemente.
3. Introduzca el texto de reemplazo, si lo tiene.
4. Pulse en Buscar siguiente para iniciar la búsqueda.
5. Pulse en Reemplazar para reemplazar la sección actual o en Reemplazar todos para actualizar todas
las instancias o sólo las seleccionadas.
6. El cuadro de diálogo se cierra después de cada operación. Pulse F3 desde cualquier área de texto
para repetir la operación de búsqueda más reciente o pulse Ctrl+F para volver a acceder al cuadro de
diálogo.
Opciones de búsqueda
Python y Jython
Jython es una implementación del lenguaje de scripts Python, escrito en el lenguaje Java e integrado
con la plataforma Java. Python es un potente lenguaje de script orientado a objetos. Jython es útil
porque proporciona las características de productividad de un lenguaje de script maduro y, a diferencia
de Python, se ejecuta en cualquier entorno que soporte una máquina virtual Java (JVM). Esto significa
que las bibliotecas Java de la máquina virtual Java están disponibles para utilizarlas cuando se escriben
programas. Con Jython, puede beneficiarse de esta diferencia y utilizar la sintaxis y la mayoría de las
características del lenguaje Python.
Como lenguaje de script, Python (y su implementación Jython) es fácil de aprender y ofrece una
codificación eficaz con la estructura mínima necesaria para crear un programa de ejecución. El código
se puede entrar de forma interactiva, es decir, una línea cada vez. Python es un lenguaje de script
interpretado; no hay ningún paso de precompilación, tal como existe en Java. Los programas de Python
simplemente son archivos de texto que se interpretan a medida que se entran (después de analizar los
errores de sintaxis). Las expresiones simples, tales como los valores definidos, y también las acciones
más complejas, tales como las definiciones de función, se ejecutan y están disponibles para su uso de
forma inmediata. Los cambios realizados en el código se pueden probar fácilmente. Sin embargo, la
interpretación del script tiene algunas desventajas. Por ejemplo, utilizar una variable no definida no es un
error del compilador, por lo tanto solo se detecta si (y cuando) se ejecuta la sentencia en la que se utiliza
la variable. En este caso, se puede editar y ejecutar el programa para depurar el error.
Python lo ve todo como un objeto, incluidos todos los datos y el código. Por lo tanto, puede manipular
estos objetos con líneas de código. Algunos tipos de selección, tales como los números y cadenas, se
consideran valores y no objetos, lo cual resulta más práctico, y Python da soporte a todo ello. Se da
soporte a un valor nulo. Este valor nulo tiene el nombre reservado de None.
Para obtener una introducción más detallada del lenguaje de script Python y Jython y algunos scripts de
ejemplo, consulte el tema http://www.ibm.com/developerworks/java/tutorials/j-jython1/j-jython1.html y
el tema http://www.ibm.com/developerworks/java/tutorials/j-jython2/j-jython2.html.
Scripts de Python
Esta guía del lenguaje de script de Python es una introducción a los componentes que tienen más
probabilidad de ser utilizados cuando se ejecutan scripts en IBM SPSS Modeler, incluidos conceptos
y principios básicos de programación. Le proporcionará los conocimientos suficientes para comenzar a
desarrollar sus propios scripts Python y utilizarlos en IBM SPSS Modeler.
Operaciones
a asignación se realiza mediante un signo de igual (=). Por ejemplo, para asignar el valor "3" a una variable
llamada "x" debe utilizar la siguiente sentencia:
x = 3
El signo igual también se utiliza para asignar datos de tipo de cadena a una variable. Por ejemplo, para
asignar el valor "a string value" a la variable "y" utilice la sentencia siguiente:
La tabla siguiente enumera algunas de las operaciones numéricas y de comparación utilizadas con más
frecuencia y sus descripciones.
Listas
Las listas son secuencias de elementos. Una lista puede contener cualquier número de elementos, y los
elementos de la lista pueden ser cualquier tipo de objeto. Las listas también se pueden considerar como
matrices. El número de elementos de una lista puede aumentar o disminuir a medida que se añaden,
eliminan o sustituyen elementos.
Ejemplos
mylist[0]
one
El número entre corchetes ([]) se considera un index y hace referencia a un elemento concreto de la lista.
Los elementos de una lista se indexan a partir de 0.
También puede seleccionar un rango de elementos de una lista; esto se denomina porciones. Por ejemplo,
x[1:3] selecciona el segundo y el tercer elemento de x. El índice final es uno más allá de la selección.
Cadenas
Una cadena es una secuencia inmutable de caracteres que se trata como un valor. Las cadenas dan
soporte a todas las funciones de secuencias inmutables y operadores que generan como resultado una
nueva serie. Por ejemplo, "abcdef"[1:4] da como resultado la salida "bcd".
En Python, los caracteres se representan mediante cadenas de caracteres de longitud uno.
Los literales de cadenas se definen mediante comillas simples o triples. Las cadenas definidas mediante
comillas simples no pueden abarcar líneas, mientras que las series definidas mediante comillas triples sí
que pueden. Una cadena puede estar entre comillas simples (') o entre comillas dobles ("). Un carácter
entrecomillado puede contener el otro carácter entrecomillado o el carácter entrecomillado de escape,
que es el carácter de barra invertida (\).
Ejemplos
El analizador de Python automáticamente concatena varias cadenas separadas por un espacio en blanco.
Esto facilita la entrada se cadenas largas y la combinación de tipos de comillas en una sola cadena, por
ejemplo:
Las cadenas dan soporte a varios métodos útiles. Algunos de estos métodos se proporcionan en la tabla
siguiente.
Observaciones
Los comentarios se introducen con el signo de almohadilla (#) o hash. Todo el texto que sigue al signo
de almohadilla en la misma línea se considera parte del comentario y se omite. Un comentario puede
comenzar en cualquier columna. El ejemplo siguiente muestra el uso de los comentarios:
Cuando una estructura está encerrada entre paréntesis (()), corchetes ([]) o llaves ({}), la sentencia
puede continuar en una línea nueva después de cualquier coma, sin tener que insertar una barra
invertida, por ejemplo:
x = (1, 2, 3, "hello",
"goodbye", 4, 5, 6)
Identificadores
Los identificadores se utilizan para el nombre de las variables, funciones, clases y palabras clave.
Los identificadores pueden tener cualquier longitud, pero debe empezar con un carácter alfabético en
mayúsculas o minúsculas o el carácter de subrayado (_). Los nombres que empiezan con un carácter
de subrayado están generalmente reservados para los nombres internos o privados. Después del primer
carácter, el identificador puede contener cualquier número y combinación de caracteres alfabéticos, los
números del 0-9, y el carácter de subrayado.
Existen algunas palabras reservadas en Jython que no se pueden utilizar para el nombre de variables,
funciones o clases. Estas palabras entran en las siguientes categorías:
• Introducciones de sentencias: assert, break, class, continue, def, del, elif, else, except,
exec, finally, for, from, global, if, import, pass, print, raise, return, try y while
• Introducciones de parámetros: as, import y in
Bloques de código
Bloques de código son grupos de sentencias que se utilizan donde se esperan sentencias individuales.
Los bloques de código pueden seguir a cualquiera de las sentencias siguientes: if, elif, else, for,
while, try, except, def y class. Estas sentencias introducen el bloque de código con el carácter de
dos puntos (:), por ejemplo:
if x == 1:
y = 2
z = 3
elif:
y = 4
z = 5
Se utiliza la indentación para delimitar los bloques de código (en lugar de las llaves que se utilizan en
Java). Todas las líneas de un bloque han de indentarse en la misma posición. Esto es debido a que un
cambio en la indentación indica el final de un bloque de código. Normalmente la indentación es de cuatro
espacios por nivel. Se recomienda utilizar espacios para la indentación, en lugar de tabulaciones. No se
deben combinar espacios y tabulaciones. Las líneas del bloque de un módulo situado más al extremo
deben comenzar en la columna uno, de lo contrario, se genera el error SyntaxError.
Las sentencias que componen un bloque de código (y siguen el signo de dos puntos) también deben estar
en una sola línea, separadas por signos de punto y coma, por ejemplo:
if x == 1: y = 2; z = 3;
import sys
print "test1"
print sys.argv[0]
print sys.argv[1]
print len(sys.argv)
En este ejemplo, el comando import importa toda la clase sys, por lo que se pueden utilizar los métodos
existentes para esta clase, tales como argv.
El script de este ejemplo se puede invocar utilizando la línea siguiente:
Ejemplos
La palabra clave print imprime los argumentos situados inmediatamente después de la misma. Si la
sentencia va seguida de una coma, no se incluye una línea nueva en los resultados. Por ejemplo:
La sentencia for se utiliza para la iteración por un bloque de código. Por ejemplo:
En este ejemplo, se asignan tres cadenas a la lista mylist1. Los elementos de la lista se imprimen a
continuación, con un elemento de cada línea. Esto genera el resultado siguiente:
uno
two
tres
En este ejemplo, el iterador lv toma el valor de cada elemento de la lista mylist1 por orden, mientras el
bucle for implementa el bloque de código de cada elemento. Un iterador puede ser cualquier identificador
válido de cualquier longitud.
La sentencia if es una sentencia condicional. Evalúa la condición y devuelve true o false, en función del
resultado de la evaluación. Por ejemplo:
En este ejemplo, se evalúa el valor del iterador lv. Si el valor de lv es two se devuelve una cadena
diferente a la cadena que se devuelve si el valor de lv no es two. Esto resulta en la siguiente salida:
Métodos matemáticos
Desde el módulo matemáticas puede acceder a métodos matemáticos útiles. Algunos de estos métodos
se proporcionan en la tabla siguiente. A menos que se especifique lo contrario, todos los valores se
devuelven como valores flotantes.
Además de las funciones matemáticas, hay algunos métodos trigonométricos útiles. Estos métodos se
muestran en la siguiente tabla.
También hay constantes matemáticas. El valor de math.pi es la constante matemática pi. El valor de
math.e es la constante matemática e.
Figura 3. Etiqueta del nodo que contiene caracteres no ASCII, visualiza incorrectamente
La etiqueta es incorrecta porque Python ha convertido el propio literal de serie en una cadena ASCII.
Python permite que los literales de cadenas Unicode se especifiquen añadiendo un prefijo con el carácter
u antes del literal de cadena:
La utilización de Python y Unicode es un tema de gran volumen que no entra dentro del ámbito de este
documento. Existen muchas publicaciones y recursos en línea disponibles que describen detalladamente
este tema.
Cuando define una clase tiene la opción de proporcionar cero o más sentencias assignment. Estos crean
atributos de clase que comparten todas las instancias de la clase. Puede proporcionar cero o más
definiciones de function. Estas definiciones de función crean métodos. La lista de superclases es opcional.
class MyClass:
pass
Aquí, se utiliza la sentencia pass por que se requiere una sentencia para completar la clase, pero no se
requiere ninguna acción de programación.
La sentencia siguiente crea una instancia de la clase MyClass:
x = MyClass()
x.attr1 = 1
x.attr2 = 2
.
.
x.attrN = n
class MyClass
attr1 = 10 #class attributes
attr2 = "hello"
def method1(self):
print MyClass.attr1 #reference the class attribute
def method2(self):
print MyClass.attr2 #reference the class attribute
Dentro de una clase, debe cualificar todas las referencias a los atributos de clase con el nombre de clase;
por ejemplo, MyClass.attr1. Todas las referencias a los atributos de la instancia deben cualificarse con
la variable self, por ejemplo, self.text. Fuera de la clase, debe cualificar todas las referencias a los
atributos de clase con el nombre de clase (por ejemplo, MyClass.attr1) o con una instancia de la clase
(por ejemplo, x.attr1, donde x es una instancia de la clase). Fuera de la clase, todas las referencias a
las variables de la instancia deben cualificarse con una instancia de la clase, por ejemplo, x.text.
class MyClass:
__attr = 10 #private class attribute
def method1(self):
pass
A diferencia de Java, en Python todas las referencias a variables de instancia deben estar calificadas con
self; no existe un uso implícito de this.
Heredado
La posibilidad de herencia de las clases es fundamental en la programación orientada a objetos. Python
da soporte a la herencia individual y múltiple. Herencia individual significa que solo puede haber una
superclase. Herencia múltiple significa que puede haber más de una superclase.
La herencia se implementa generando subclases de otras clases. Cualquier número de clases Python
pueden ser superclases. En la implementación de Jython en Python, solo se puede heredar directa o
indirectamente de una clase Java. No es necesario suministrar una superclase.
Cualquier atributo o método de una superclase también está en cualquier subclase y lo puede utilizar
la propia clase o cualquier cliente, siempre que el atributo o método no esté oculto. Se puede utilizar
cualquier instancia de una subclase; esto se denomina polimorfismo. Estas características permiten la
reutilización y facilitan la extensión.
Ejemplo
Tipos de scripts
En IBM SPSS Modeler existen tres tipos de scripts:
• Los scripts de ruta se utilizan para controlar la ejecución de una sola ruta y se almacenan dentro de la
ruta.
• Los scripts Supernodo se utilizan para controlar el comportamiento de los supernodos.
• Los scripts autónomos o de sesión se pueden utilizar para coordinar la ejecución entre un número de
rutas diferentes.
Existen diferentes métodos disponibles que puede utilizar en scripts en IBM SPSS Modeler lo que le
permite acceder a una amplia gama de funciones de SPSS Modeler. Estos métodos se utilizan también en
Capítulo 4, “API de scripts”, en la página 39 para crear funciones más avanzadas.
Rutas
Una ruta es el principal tipo de documento de IBM SPSS Modeler. Se puede guardar, cargar, editar
y ejecutar. Las rutas también pueden tener parámetros, valores globales, un script y otra información
asociada a ellos.
Rutas de Supernodo
Una ruta de Supernodo es el tipo de ruta que se utiliza en un Supernodo. Al igual que una ruta normal,
contiene nodos enlazados entre sí. Las rutas de Supernodo tienen una serie de diferencias respecto de
una ruta normal.
• Los parámetros y scripts están asociados al Supernodo propietario de la ruta de Supernodo en lugar de
a la propia ruta de Supernodo.
• Las rutas de Supernodo tienen nodos de conector de entrada y salida adicionales dependiendo del tipo
de Supernodo. Estos nodos de conector se utilizan en los flujos de información entrantes y salientes de
la ruta de Supernodo y se crean automáticamente cuando se crea el Supernodo.
Diagramas
El término diagrama abarca las funciones soportadas en rutas normales y en rutas de supernodo como,
por ejemplo, la adición y eliminación de nodos y la modificación de conexiones entre nodos.
modeler.script.stream().runAll(None)
El ejemplo siguiente también se ejecuta todos los nodos ejecutables de la ruta:
ruta = modeler.script.stream()
stream.runAll(None)
En este ejemplo, la ruta se almacena en una variable denominada stream. Almacenar la ruta en una
variable resulta útil ya que un script se utiliza generalmente para modificar la ruta o los nodos contenidos
en una ruta. Si se crea una variable que almacena los resultados de la ruta, el script resultará más
conciso.
El módulo modeler.script también define un modo de finalizar el script con un código de salida.
La función exit(exit-code) detiene la ejecución del script y devuelve el código de salida de entero
suministrado.
Uno de los métodos que se define para una ruta es runAll(List). Este método ejecuta todos los nodos
ejecutables. Los modelos o resultados que se generan mediante la ejecución de los nodos se añaden a la
lista suministrada.
ruta = modeler.script.stream()
results = []
stream.runAll(results)
Cuando se completa la ejecución, se puede acceder a todos los objetos generados por la ejecución en la
lista results.
Buscar nodos
Las rutas proporcionan varios modos de localizar un nodo existente. Estos métodos se resumen en la
siguiente tabla.
Por ejemplo, si una ruta contiene un nodo Filtro único que el script necesita para acceso, el nodo Filtro se
puede encontrar utilizando el siguiente script:
ruta = modeler.script.stream()
node = stream.findByType("filter", None)
...
Como alternativa, si se conoce el ID del nodo (tal como se muestra en la pestaña Anotaciones del cuadro
de diálogo del nodo) se puede utilizar el ID para buscar el nodo, por ejemplo:
ruta = modeler.script.stream()
node = stream.findByID("id32FJT71G2") # the filter node ID
...
Establecimiento de propiedades
Los nodos, rutas, modelos y resultados tienen propiedades a las que se puede acceder y que, en la mayor
parte de los casos, se pueden establecer. Las propiedades suelen utilizarse para modificar el aspecto o el
comportamiento del objeto. En la tabla siguiente se resumen los métodos disponibles para establecer y
acceder a las propiedades de los objetos.
Tabla 11. Métodos para establecer y acceder a las propiedades de los objetos
Método Tipo devuelto Descripción
p.getPropertyValue(proper Objeto Devuelve el valor de la propiedad
tyName) con nombre, o None si no existe
tal propiedad.
p.setPropertyValue(proper No es aplicable Establece el valor de la
tyName, value) propiedad con nombre.
Por ejemplo, si desea establecer el valor de un nodo Archivo variable al comienzo de una ruta, puede
utilizar el siguiente script:
ruta = modeler.script.stream()
node = stream.findByType("variablefile", None)
node.setPropertyValue("full_filename", "$CLEO/DEMOS/DRUG1n")
...
Como alternativa, puede que desee filtrar un campo desde un nodo Filtrar. En este caso, el valor es con
clave en el nombre de campo, por ejemplo:
ruta = modeler.script.stream()
# Locate the filter node ...
node = stream.findByType("filter", None)
# ... and filter out the "Na" field
node.setKeyedPropertyValue("include", "Na", False)
Creación de nodos
Las rutas proporcionan varios modos de crear nodos. Estos métodos se resumen en la siguiente tabla.
Por ejemplo, para crear un tipo de nodo nuevo en una ruta puede utilizar el siguiente script:
ruta = modeler.script.stream()
# Create a new type node
node = stream.create("type", "My Type")
ruta = modeler.script.stream()
filenode = stream.createAt("variablefile", "My File Input ", 96, 64)
filternode = stream.createAt("filter", "Filter", 192, 64)
tablenode = stream.createAt("table", "Table", 288, 64)
stream.link(filenode, filternode)
stream.link(filternode, tablenode)
filenode.setPropertyValue("full_filename", "$CLEO_DEMOS/DRUG1n")
filternode.setKeyedPropertyValue("include", "Drug", False)
results = []
tablenode.run(results)
Tabla 15. Métodos para identificar los nodos en sentido ascendente y descendente
Método Tipo devuelto Descripción
s.iterator() Iterator Devuelve un iterador de
los objetos de nodo que
están contenidos en la
ruta especificada. Si la ruta
se modifica entre llamadas
a la función next(), el
comportamiento del iterador no
está definido.
session = modeler.script.session()
session.getStreamManager.removeAll()
session = modeler.script.session()
session.getDocumentOutputManager().removeAll()
session = modeler.script.session()
session.getModelOutputManager().removeAll()
Los métodos que se pueden utilizar para obtener información acerca de un nodo se resumen en la tabla
siguiente.
import modeler.api
Esta sentencia import es necesaria para muchos de los ejemplos de la API de scripts.
Se puede encontrar una guía completa de las clases, los métodos y parámetros que están disponibles a
través de la API de scripts en el documento Guía de referencia de la API de scripts Python de IBM SPSS
Modeler.
import modeler.api
class CacheFilter(modeler.api.NodeFilter):
"""A node filter for nodes with caching enabled"""
def accept(this, node):
return node.isCacheEnabled()
import modeler.api
ruta = modeler.script.stream()
sourceNode = stream.findByID('')
session = modeler.script.session()
fileSystem = session.getServerFileSystem()
parameter = stream.getParameterValue('VPATH')
serverDirectory = fileSystem.getServerFile(parameter)
files = fileSystem.getFiles(serverDirectory)
for f in files:
if f.isDirectory():
print 'Directory:'
else:
print 'File:'
sourceNode.setPropertyValue('full_filename',f.getPath())
break
print f.getName(),f.getPath()
stream.execute()
import modeler.api
ruta = modeler.script.stream()
filternode = stream.findByType("filter", None)
typenode = stream.findByType("type", None)
c50node = stream.findByType("c50", None)
# Usar siempre un nombre de modelo personalizado
c50node.setPropertyValue("use_model_name", True)
lastRemoved = None
fields = typenode.getOutputDataModel()
for field in fields:
# Si este es el campo de destino, se hace caso omiso del mismo
if field.getModelingRole() == modeler.api.ModelingRole.OUT:
continue
# Se elimina el campo
lastRemoved = field.getColumnName()
filternode.setKeyedPropertyValue("include", lastRemoved, False)
El objeto DataModel (modelo de datos) proporciona una serie de métodos de acceso a la información
relativa a los campos y columnas del modelo de datos. Estos métodos se resumen en la siguiente tabla.
Cada campo (objeto Column) incluye una serie de métodos de acceso a la información de la columna. La
tabla que se muestra a continuación muestra una selección de los mismos.
Tabla 19. Métodos del objeto Column de acceso a la información de una columna
Método Tipo devuelto Descripción
c.getColumnName() cadena Devuelve el nombre de la
columna.
c.getColumnLabel() cadena Devuelve la etiqueta de la
columna o una cadena vacía si no
hay ninguna etiqueta asociada a
la columna.
c.getMeasureType() MeasureType Devuelve el tipo de medición de
la columna.
c.getStorageType() StorageType Devuelve el tipo de
almacenamiento de la columna.
dataModel.getColumn("unNombre").getModelingRole()
dataModel.getModelingRole("unNombre")
import modeler.api
ruta = modeler.script.stream()
label = model.getLabel()
algorithm = model.getModelDetail().getAlgorithmName()
La clase taskrunner proporciona un modo práctico de ejecutar diferentes tareas comunes. Los métodos
que están disponibles en esta clase se resumen en la tabla siguiente.
Manejo de errores
El lenguaje Python proporciona manejo de errores mediante el bloque de código try...except. Se
puede utilizar en los scripts para capturar excepciones y manejar los problemas que podrían ocasionar la
finalización del script.
En el script de ejemplo siguiente, se realiza un intento para recuperar un modelo desde el Repositorio
de IBM SPSS Collaboration and Deployment Services. Esta operación puede hacer que se genere una
excepción, por ejemplo, es posible que las credenciales de inicio de sesión en el repositorio no se hayan
configurado correctamente o que la ruta del repositorio sea errónea. En el script, esto puede generar
una excepción ModelerException (todas las excepciones que genera IBM SPSS Modeler se derivan de
modeler.api.ModelerException).
import modeler.api
session = modeler.script.session()
try:
tepo = session.getRepository()
m = repo.retrieveModel("/some-non-existent-path", None, None, True)
# print goes to the Modeler UI script panel Debug tab
print "Everything OK"
except modeler.api.ModelerException, e:
print "An error occurred:", e.getMessage()
import modeler.api
session = modeler.script.session()
try:
tepo = session.getRepository()
m = repo.retrieveModel("/some-non-existent-path", None, None, True)
# print goes to the Modeler UI script panel Debug tab
print "Everything OK"
except modeler.api.ModelerException, e:
print "An error occurred:", e.getMessage()
except java.lang.Exception, e:
print "A Java exception occurred:", e.getMessage()
En el ejemplo siguiente, el script agrega algunos datos Telco para averiguar qué región tiene los datos de
promedio de ingresos más bajos. A continuación, se establece un parámetro de ruta con esta región. Este
parámetro de ruta se utiliza en un nodo Seleccionar para excluir dicha región de los datos, antes de que
se cree un modelo de abandono en el resto.
El ejemplo es artificial porque el script genera el propio nodo Seleccionar y, por lo tanto, podría haber
generado el valor correcto directamente en la expresión del nodo Seleccionar. Sin embargo, las rutas
se suelen construir previamente, de modo que establecer los parámetros de este modo proporciona un
ejemplo útil.
La primera parte del script de ejemplo crea el parámetro de ruta que contendrá la región con el promedio
de ingresos más bajo. El script también crea los nodos de la rama de agregación y la rama de creación de
modelos y los conecta.
import modeler.api
ruta = modeler.script.stream()
# Crear primero la rama de agregación para calcular el promedio de ingresos por región
statisticsimportnode = stream.createAt("statisticsimport", "SPSS File", 114, 142)
statisticsimportnode.setPropertyValue("full_filename", "$CLEO_DEMOS/telco.sav")
statisticsimportnode.setPropertyValue("use_field_format_for_storage", True)
stream.link(statisticsimportnode, aggregatenode)
stream.link(aggregatenode, tablenode)
stream.link(statisticsimportnode, selectnode)
stream.link(selectnode, typenode)
stream.link(typenode, c50node)
La parte siguiente del script de ejemplo ejecuta el nodo Tabla al final de la rama de agregación.
La parte siguiente del script de ejemplo accede a la salida de la tabla que ha generado la ejecución del
nodo Tabla. A continuación, el script itera por las filas de la tabla, buscando la región con el promedio de
ingresos más bajo.
# Ejecutar el nodo tabla para generar una sola tabla como salida
table = results[0]
# la salida de la tabla contiene un RowSet que permite acceder a valores como filas y columnas
rowset = table.getRowSet()
min_income = 1000000.0
min_region = None
La parte siguiente del script utiliza la región con el promedio de ingresos más bajo para establecer el
parámetro de ruta "LowestRegion" creado anteriormente. El script ejecuta el constructor de modelos
excluyendo la región especificada de los datos de formación.
import modeler.api
ruta = modeler.script.stream()
# Crear primero la rama de agregación para calcular el promedio de ingresos por región
statisticsimportnode = stream.createAt("statisticsimport", "SPSS File", 114, 142)
statisticsimportnode.setPropertyValue("full_filename", "$CLEO_DEMOS/telco.sav")
stream.link(statisticsimportnode, aggregatenode)
stream.link(aggregatenode, tablenode)
stream.link(statisticsimportnode, selectnode)
stream.link(selectnode, typenode)
stream.link(typenode, c50node)
# Ejecutar el nodo tabla para generar una sola tabla como salida
table = results[0]
# la salida de la tabla contiene un RowSet que permite acceder a valores como filas y columnas
rowset = table.getRowSet()
min_income = 1000000.0
min_region = None
Valores globales
Los valores globales se utilizan para calcular diferentes estadísticas de resumen para los campos
especificados. Se puede acceder a estos valores de resumen desde cualquier lugar de la ruta. Los valores
globales son similares a los parámetros de ruta, ya que se puede acceder a los mismos por nombre a
través de la ruta. Se diferencian de los parámetros de ruta en que los valores asociados se actualizan
automáticamente cuando se ejecuta uno nodo Establecer globales, en lugar de asignarlos mediante
script o desde la línea de comandos. Se accede a los valores globales de una ruta invocando el método
getGlobalValues() de la ruta.
El objeto GlobalValues define las funciones que se muestran en la tabla siguiente.
import modeler.api
globals = modeler.script.stream().getGlobalValues()
mean_income = globals.getValue(modeler.api.GlobalValues.Type.MEAN, "income")
session = modeler.script.session()
tasks = session.getTaskRunner()
# Open the model build stream, locate the C5.0 node and run it
buildstream = tasks.openStreamFromFile(demosDir + "druglearn.str", True)
c50node = buildstream.findByType("c50", None)
results = []
c50node.run(results)
# Now open the plot stream, find the Na_to_K derive and the histogram
plotstream = tasks.openStreamFromFile(demosDir + "drugplot.str", True)
# Create a model applier node, insert it between the derive and histogram nodes
# then run the histgram
applyc50 = plotstream.createModelApplier(results[0], results[0].getName())
applyc50.setPositionBetween(derivenode, histogramnode)
plotstream.linkBetween(applyc50, derivenode, histogramnode)
histogramnode.setPropertyValue("color_field", "$C-Drug")
histogramnode.run([])
El ejemplos siguiente muestra cómo también puede iterar en las rutas abiertas (todas las rutas abiertas
en la pestaña Rutas). Tenga en cuenta que esto solo está soportado en scripts autónomos.
Esta sección proporciona una visión general de las técnicas y sugerencias para utilizar scripts, incluida la
modificación de la ejecución de la ruta, la utilización de una contraseña codificada en un script y el acceso
a objetos en el Repositorio de IBM SPSS Collaboration and Deployment Services.
El script recorre en bucle los nodos de la ruta actual y comprueba cada nodo para ver si es un
Filtro. Si es así, el script recorre en bucle cada campo del nodo y utiliza la función field.upper() o
field.getColumnName().upper() para cambiar el nombre a mayúsculas.
repo = modeler.script.session().getRepository()
Por ejemplo, puede recuperar una ruta del repositorio con la función siguiente:
Nota: Si ambos parámetros, el de versión y el de etiqueta, son None,se devuelve la última versión.
Por ejemplo, puede almacenar una nueva versión de la ruta risk_score.str con la función siguiente:
versionId = repo.storeStream(stream,
"/projects/retention/risk_score.str", "test")
Este ejemplo almacena una nueva versión de la ruta, asocia la etiqueta "test" a la misma y devuelve el
marcador de la versión para la versión recién creada.
Nota: Si no desea asociar una etiqueta a la nueva versión, pase None para la etiqueta.
Este ejemplo crea una carpeta nueva que se llama "cross-sell" en la carpeta "/projects". La
función devuelve la vía de acceso completa de la carpeta nueva.
Para cambiar el nombre de una carpeta, utilice la función renameFolder():
repo.renameFolder("/projects/cross-sell", "cross-sell-Q1")
El primer parámetro es la vía de acceso completa que se va a renombrar, y el segundo es el nombre nuevo
que se va a proporcionar a dicha carpeta.
Para suprimir una carpeta vacía, utilice la función deleteFolder():
repo.deleteFolder("/projects/cross-sell")
repo.lockFile(REPOSITORY_PATH)
repo.lockFile(URI)
repo.unlockFile(REPOSITORY_PATH)
repo.unlockFile(URI)
repo.lockFile("/myfolder/Stream1.str")
repo.unlockFile("/myfolder/Stream1.str")
repo.lockFile("spsscr:///myfolder/Stream1.str")
repo.unlockFile("spsscr:///myfolder/Stream1.str")
Tenga en cuenta que el bloqueo de objetos se aplica a todas las versiones de un objeto: no puede
bloquear o desbloquear versiones por separado.
Comprobación de script
Puede comprobar rápidamente la sintaxis de todos los tipos de scripts pulsando en el botón de
comprobación de la barra de herramientas del cuadro de diálogo Script de ruta.
En la comprobación por script se avisa de cualquier error que se detecte en el código y se sugieren
recomendaciones de mejora. Para ver la línea con errores, pulse en los comentarios, en la mitad inferior
del cuadro de diálogo. Los errores se señalan en rojo.
ruta = modeler.script.stream()
# Suponga que la ruta contiene un nodo generador de modelos C5.0
# y que el origen de datos, los predictores y los destinos ya se han
# configurado
modelbuilder = stream.findByType("c50", None)
results = []
modelbuilder.run(results)
modeloutput = results[0]
# Ahora que tenemos el objeto de salida del modelo C5.0, acceda al modelo
# de contenido pertinente
cm = modeloutput.getContentModel("PMML")
IBM SPSS Modeler es compatible con los modelos de contenido siguientes en los scripts:
• El Modelo de contenido de tabla proporciona acceso a los datos tabulares sencillos representados
como filas y columnas.
API
Tabla 25. API
Resultado devuelto Método Descripción
int getRowCount() Devuelve el número de filas en
esta tabla.
int getColumnCount() Devuelve el número de columnas
en esta tabla.
Serie de caracteres getColumnName(int Devuelve el nombre de la
columnIndex) columna en el índice de
columna especificado. El índice
de columna comienza en el 0.
StorageType getStorageType(int Devuelve el tipo de
columnIndex) almacenamiento de la columna
en el índice especificado. El
índice de columna comienza en
el 0.
Object getValueAt(int rowIndex, Devuelve el valor en los índices
int columnIndex) de fila y columna especificados.
Los índices de fila y columna
comienzan en el 0.
void reset() Desecha cualquier
almacenamiento interno
asociado con este modelo de
contenido.
Script de ejemplo
ruta = modeler.script.stream()
from modeler.api import StorageType
Age_Min Integer 15
Age_Max Integer 74
Na_Mean Real 0.730851098901
Na_SDev Real 0.116669731242
Drug String drugY
Record_Count Integer 91
API
Tabla 27. API
Resultado devuelto Método Descripción
Serie de caracteres getXMLAsString() Devuelve el XML en forma de
serie de caracteres.
Número getNumericValue(String Devuelve un resultado de tipo
xpath) numérico al analizar la vía de
acceso (por ejemplo, contar
el número de elementos que
coinciden con la expresión de vía
de acceso).
Booleano getBooleanValue(String Devuelve un resultado de tipo
xpath) booleano al evaluar la expresión
de vía de acceso especificada.
Serie de caracteres getStringValue(String Devuelve el valor de atributo o
xpath, String attribute) valor de nodo XML que coincide
con la vía de acceso especificada.
Lista de series de getStringValues(String Devuelve una lista de todos los
caracteres xpath, String attribute) valores de atributo o valores de
nodo XML que coinciden con la
vía de acceso especificada.
Lista de series de getValuesList(String Devuelve una lista de todos los
caracteres xpath, <Lista de cadenas> valores de atributo que coinciden
attributes, boolean con la vía de acceso especificada
includeValue) junto con el valor de nodo XML si
es necesario.
Hash table (key:string, getValuesMap(String Devuelve una tabla hash que
value:list of string) xpath, String utiliza el atributo de clave o
keyAttribute, <Lista valor de nodo XML como clave
de cadenas> attributes, y la lista de valores de atributo
boolean includeValue) especificados como valores de la
tabla.
Booleano isNamespaceAware() Indica si los analizadores XML
deben tener en cuenta los
espacios de nombres. El valor
predeterminado es False.
Script de ejemplo
El código del script Python para acceder al contenido puede tener este aspecto:
results = []
modelbuilder.run(results)
modeloutput = results[0]
cm = modeloutput.getContentModel("PMML")
API
Tabla 29. API
Resultado devuelto Método Descripción
Serie de caracteres getJSONAsString() Devuelve el contenido JSON
como serie de caracteres.
Script de ejemplo
Si existe un nodo generador de salida que crea salida en formato JSON, se puede utilizar lo siguiente para
acceder a información sobre un conjunto de libros:
results = []
outputbuilder.run(results)
output = results[0]
cm = output.getContentModel("jsonContent")
La API ColumnStatsContentModel
Tabla 30. La API ColumnStatsContentModel
Resultado devuelto Método Descripción
Lista<StatisticType> getAvailableStatistics() Devuelve las estadísticas
disponibles en este modelo.
No todos los campos tendrán
necesariamente valores para
todas las estadísticas.
Lista<String> getAvailableColumns() Devuelve los nombres de
columna para los que se han
calculado estadísticas.
Número getStatistic(String Devuelve los valores estadísticos
column, StatisticType asociados a la columna.
statistic)
void reset() Desecha cualquier
almacenamiento interno
asociado con el modelo de
contenido.
La API PairwiseStatsContentModel
Tabla 31. La API PairwiseStatsContentModel
Resultado devuelto Método Descripción
Lista<StatisticType> getAvailableStatistics() Devuelve las estadísticas
disponibles en este modelo.
No todos los campos tendrán
necesariamente valores para
todas las estadísticas.
Lista<String> getAvailablePrimaryColumn Devuelve los nombres de
s() columna primaria para los que se
han calculado estadísticas.
Lista<Object> getAvailablePrimaryValue Devuelve los valores de la
s() columna primaria para la que se
han calculado estadísticas.
Lista<String> getAvailableSecondaryColu Devuelve los nombres de
mns() columna secundaria para los que
se han calculado estadísticas.
Número getStatistic(String Devuelve los valores estadísticos
primaryColumn, String asociados a las columnas.
secondaryColumn,
StatisticType statistic)
(nodo Medias)
"means" "means" "pairwiseStatistic
s"
(nodo Medias)
"dataaudit" "means" "columnStatistics"
(nodo Auditoría de
datos)
"statistics" "statistics" "columnStatistics" Sólo se genera cuando
se examinan campos
(nodo Estadísticas) determinados.
Script de ejemplo
from modeler.api import StatisticType
ruta = modeler.script.stream()
statscm = statsoutput.getContentModel("pairwiseStatistics")
if (statscm != None):
pcols = statscm.getAvailablePrimaryColumns()
scols = statscm.getAvailableSecondaryColumns()
stats = statscm.getAvailableStatistics()
corr = statscm.getStatistic(pcols[0], scols[0], StatisticType.Pearson)
print "Pairwise stats:", pcols[0], scols[0], " Pearson = ", corr
Los argumentos disponibles (modificadores) permiten conectar con un servidor, cargar rutas, ejecutar
scripts o especificar otros parámetros, según sea necesario.
Por ejemplo, se pueden utilizar las marcas -server, -stream y -execute para conectar con un servidor
y, a continuación, cargar y ejecutar una ruta, de la siguiente forma:
Tenga en cuenta que al ejecutarse en una instalación cliente local, no se necesitan argumentos de
conexión con el servidor.
Los valores de parámetros que contienen espacios se pueden poner entre comillas dobles, por ejemplo:
También puede ejecutar scripts y estados de IBM SPSS Modeler de esta forma, utilizando las marcas
-state y -script respectivamente.
Nota: Si utiliza un parámetro estructurado en un comando, delante de las comillas debe poner barras
invertidas. Así evitará que se quiten las comillas durante la interpretación de la serie.
Nota: Los directorios predeterminados también se pueden establecer en la interfaz de usuario. Para
acceder a las opciones en el menú Archivo, seleccione Definir directorio o Definir directorio de servidor.
Recuerde que en la línea de comandos debe utilizar un URI. El REPOSITORY_PATH más simple no
se admite. (Sólo funciona en scripts.) Para obtener más detalles sobre los URI para objetos en el
Repositorio de IBM SPSS Collaboration and Deployment Services, consulte el tema “Acceso a objetos
en el Repositorio de IBM SPSS Collaboration and Deployment Services ” en la página 51.
Argumentos de parámetros
Los parámetros se pueden utilizar como marcas durante la ejecución de la línea de comandos de IBM
SPSS Modeler. En los argumentos de la línea de comandos, la marca -P se utiliza para denotar un
parámetro del tipo -P <nombre>=<valor>.
Los parámetros pueden ser:
• Parámetros simples (o parámetros utilizados directamente en expresiones CLEM).
• Parámetros de intervalo, también denominados propiedades de nodos. Estos parámetros se utilizan
para modificar la configuración de los nodos en la ruta. Consulte el tema “Conceptos básicos de
propiedades de nodo” en la página 75 para obtener más información.
El formato es el mismo que el del parámetro datasource de la propiedad de nodo databasenode. Para
obtener más información, consulte: “propiedades de databasenode” en la página 95.
El último parámetro se debe establecer en true si está pasando una contraseña codificada. También
tenga en cuenta que no deben utilizarse espacios iniciales delante del nombre de usuario y de la
contraseña de la base de datos (a menos, por supuesto, que el nombre de usuario o la contraseña
realmente contenga un espacio inicial).
Nota: Si el nodo tiene nombre, debe encerrar el nombre del nodo entre comillas dobles y utilizar una
barra inclinada invertida como carácter de escape antes de las comillas. Por ejemplo, si el nodo de origen
de datos del ejemplo anterior tiene el nombre Source_ABC, la entrada sería la siguiente:
También se requiere una barra inclinada invertida delante de las comillas que identifican un parámetro
estructurado, como en el siguiente ejemplo de origen de datos de TM1:
Nota: Si el nombre de la base de datos (en la propiedad datasource) contiene uno o más espacios,
puntos (llamados también "punto y aparte") o subrayados, puede utilizar el formato de "barra inclinada
invertida y comillas dobles" para tratarlo como una cadena. Por ejemplo: "{\"db2v9.7.6_linux\"}"
o: "{\"TDATA 131\"}". Además, encierre siempre los valores de cadena de datasource entre dobles
comillas y llaves, como en el ejemplo siguiente: "{\"SQL Server\",spssuser,abcd1234,false}".
Ejemplos
Para conectarse con un servidor público:
Tenga en cuenta que para conectarse a un clúster de servidores necesita Coordinator of Processes a
través de IBM SPSS Collaboration and Deployment Services, de modo que debe utilizar el argumento
-epassword <cadena de Contraseña codificada con la que iniciar sesión en el servidor. Disponible
contraseña codificada> en el modo servidor solamente.
Nota: Se puede generar una contraseña codificada desde el menú
Herramientas de la aplicación IBM SPSS Modeler.
-domain <nombre> Dominio utilizado para iniciar sesión en el servidor. Disponible en el modo
servidor solamente.
-P <nombre>=<valor> Se utiliza para definir un parámetro de inicio. También se puede utilizar
para definir propiedades de nodos (parámetros de intervalo).
Tabla 36. Argumentos de conexión de Repositorio de IBM SPSS Collaboration and Deployment Services
Argumento Comportamiento/Descripción
-spsscr_hostname <nombre del El nombre del host o la dirección IP del servidor en que se ha
host o dirección IP> instalado Repositorio de IBM SPSS Collaboration and Deployment
Services.
-spsscr_port <número> Número de puerto en el que el Repositorio de IBM SPSS
Collaboration and Deployment Services acepta las conexiones
(normalmente 8080 de forma predeterminada).
-spsscr_use_ssl Especifica que la conexión debería utilizar SSL (secure socket
layer). La marca es opcional, el parámetro predeterminado no
utiliza SSL.
-spsscr_username <nombre> Nombre de usuario con el que iniciar la sesión en el Repositorio
de IBM SPSS Collaboration and Deployment Services.
-spsscr_password Contraseña con la que iniciar la sesión en el Repositorio de IBM
<contraseña> SPSS Collaboration and Deployment Services.
-spsscr_epassword Contraseña cifrada con la que iniciar la sesión en el Repositorio de
<contraseña codificada> IBM SPSS Collaboration and Deployment Services.
-spsscr_providername El proveedor de autenticación utilizado para iniciar la sesión en el
<nombre> Repositorio de IBM SPSS Collaboration and Deployment Services
(Active Directory o LDAP). Esto no resulta necesario si se utiliza el
proveedor nativo (repositorio local).
modelerclient @<commandFileName>
Ponga el nombre del archivo y la ruta del archivo de comandos entre comillas si hay que incluir espacios,
de la siguiente forma:
modelerclient @ "C:\Archivos de
programa\IBM\SPSS\Modeler\nn\scripts\my_command_file.txt"
El archivo de comandos puede contener todos los argumentos especificados previamente a nivel
individual en el inicio. Por ejemplo:
-stream report.str
-Porder.full_filename=APR_orders.dat
-Preport.filename=APR_report.txt
-execute
OBJECT.setPropertyValue(PROPERTY, VALUE)
o bien:
VARIABLE = OBJECT.getPropertyValue(PROPERTY)
o bien:
donde OBJECT es un nodo o salida, PROPERTY es el nombre de la propiedad de nodo al que la expresión
se refiere, y KEY es el valor de la clave para las propiedades clave. Por ejemplo, la siguiente sintaxis
se utiliza para buscar el nodo de filtro y, a continuación, establecer el valor predeterminado para incluir
todos los campos y filtrar el campo Age en los datos en sentido descendente:
Todos los nodos utilizados en IBM SPSS Modeler pueden encontrarse utilizando la función
findByType(TYPE, LABEL) de la ruta. Al menos debe especificarse TYPE o LABEL.
Propiedades estructuradas
Hay dos formas en las que los scripts utilizan propiedades estructuradas para mejorar la claridad durante
el análisis:
• Otorgando estructura a los nombres de las propiedades para los nodos complejos, como Tipo, Filtro o
Equilibrar.
• Proporcionando un formato para especificar varias propiedades a la vez.
Abreviaturas
Las abreviaturas estándar se utilizan en la sintaxis para las propiedades de nodos. El aprendizaje de las
abreviaturas le ayudará en la creación de scripts.
El ejemplo s:sample.max_size muestra que no es necesario deletrear los tipos de nodos al completo.
El ejemplo t.direction.Age muestra que algunos nombres de intervalo se pueden estructurar por
sí mismos, en aquellos casos en que los atributos de un nodo sean más complejos que los intervalos
individuales con valores individuales. Dichos intervalos se denominan estructurados o complejos.
Las propiedades específicas del Supernodo se tratan aparte como con los demás nodos. Consulte
Capítulo 21, “Propiedades de supernodo”, en la página 465 para obtener más información.
Los scripts pueden controlar una serie de propiedades de la ruta. Para hacer referencia a propiedades de
ruta, debe establecer el método de ejecución para que utilice scripts:
ruta = modeler.script.stream()
stream.setPropertyValue("execute_method", "Script")
Ejemplo
La propiedad de nodo se utiliza para hacer referencia a los nodos en la ruta actual. El siguiente script de
ruta muestra un ejemplo:
ruta = modeler.script.stream()
annotation = stream.getPropertyValue("annotation")
stream.setPropertyValue("annotation", annotation)
El ejemplo anterior utiliza la propiedad node para crear una lista con todos los nodos de la ruta y escribir
dicha lista en las anotaciones. La anotación generada tendrá el siguiente aspecto:
Script
Tabla 41. Propiedades de ruta (continuación)
Nombre de la propiedad Tipo de datos Descripción de la propiedad
date_format
"DDMMAA"
"MMDDYY"
"AAMMDD"
"YYMMDD"
"YYYYDDD"
DAY
MONTH
"DD-MM-YY"
"DD-MM-YYYY"
"MM-DD-YY"
"MM-DD-AAAA"
"DD-MES-YY"
"DD-MES-YYYY"
"YYYY-MM-DD"
"DD.MM.YY"
"DD.MM.AAAA"
"MM.DD.YYYY"
"DD.MES.YY"
"DD.MES.YYYY"
"DD/MM/YY"
"DD/MM/AAAA"
"MM/DD/YY"
"MM/DD/YYYY"
"DD/MES/YY"
"DD/MES/YYYY"
MON YYYY
q Q YYYY
ww WK YYYY
date_baseline number
date_2digit_baseline number
time_format
"HHMMSS"
"HHMM"
"MMSS"
"HH:MM:SS"
"HH:MM"
"MM:SS"
"(H)H:(M)M:(S)S"
"(H)H:(M)M"
"(M)M:(S)S"
"HH.MM.SS"
"HH.MM"
"MM.SS"
"(H)H.(M)M.(S)S"
"(H)H.(M)M"
"(M)M.(S)S"
time_rollover marca
import_datetime_as_string marca
decimal_places number
decimal_symbol Predeterminado
Period
Comma
angles_in_radians marca
use_max_set_size marca
max_set_size number
FirstHit
refresh_source_nodes marca Se utiliza para actualizar los
nodos de origen de forma
automática al realizar la
ejecución de la ruta.
script string
annotation string
name string Nota: Esta propiedad es de
sólo lectura. Si desea cambiar
el nombre de una ruta, debe
guardarla con un nombre
diferente.
"UTF-8"
stream_rewriting booleano
stream_rewriting_maximise booleano
_sql
booleano
stream_rewriting_optimise_cl
em_
ejecución
booleano
stream_rewriting_optimise_sy
ntax_
ejecución
enable_parallelism booleano
sql_generation booleano
database_caching booleano
sql_logging booleano
sql_generation_logging booleano
sql_log_native booleano
sql_log_prettyprint booleano
record_count_suppress_inp booleano
ut
Ejemplo 1
varfilenode = modeler.script.stream().create("variablefile", "Var. File")
varfilenode.setPropertyValue("full_filename", "$CLEO_DEMOS/DRUG1n")
varfilenode.setKeyedPropertyValue("check", "Age", "None")
varfilenode.setKeyedPropertyValue("values", "Age", [1, 100])
varfilenode.setKeyedPropertyValue("type", "Age", "Range")
varfilenode.setKeyedPropertyValue("direction", "Age", "Input")
Ejemplo 2
Este script presupone que el archivo de datos especificado contiene un campo Region que representa
una cadena de varias líneas.
# Cree un nodo Archivo de variables que lee el conjunto de datos que contiene
# el campo "Region"
varfilenode = modeler.script.stream().create("variablefile", "My Geo Data")
varfilenode.setPropertyValue("full_filename", "C:/mydata/mygeodata.csv")
varfilenode.setPropertyValue("treat_square_brackets_as_lists", True)
Both NODO.direction.NOMBRECAMPO
Split
Frequency
RecordID
type Range Tipo de campo. Si se establece esta propiedad
como Default, se borrará cualquier configuración
Flag del parámetro values y si value_mode tiene
el valor Specify, se restablecerá a Read. Si
value_mode se establece en Pass o Read, la
Set configuración de type no le afectará.
Discrete NODO.type.NOMBRECAMPO
Conjunto ordenado
Predeterminado
storage Desconocido Propiedad con clave de solamente lectura para el
tipo de almacenamiento de campos.
Cadena
Formato de uso:
Entero
NODO.storage.NOMBRECAMPO
Real
Hora
Fecha
Marca de tiempo
Warn
Abort
values [value value] Para un campo continuo (rango), el primer valor
es el mínimo y el último valor es el máximo.
Para campos nominales (conjunto), especifique
todos los valores. Para los campos marca, el
primer valor representa falso y el último, verdadero.
La configuración de esta propiedad establece
de forma automática la propiedad value_mode
en Specify. El almacenamiento se determina en
función del primer valor de la lista, por ejemplo, si
el primer valor es una cadena, el almacenamiento
se establece en Cadena.
Formato de uso:
NODO.values.NOMBRECAMPO
value_mode Leer Determina la forma en que se han establecido los
valores para un campo en la siguiente lectura de
Pasar datos.
Actual NODO.value_mode.NOMBRECAMPO
NODO.default_value_mode
Formato de uso:
NODO.extend_values.NOMBRECAMPO
value_labels cadena Se utiliza para especificar una etiqueta de valor.
Tenga en cuenta que estos valores se deben
especificar primero.
enable_missing tag Cuando está definida como T, activa el seguimiento
de los valores perdidos para el campo.
Formato de uso:
NODO.enable_missing.NOMBRECAMPO
missing_values [value value ...] Especifica los valores de datos que denotan los
datos perdidos.
Formato de uso:
NODO.missing_values.NOMBRECAMPO
range_missing tag Cuando esta propiedad se establece como T,
especifica si se define un rango de valores perdidos
(en blanco) para un campo.
Formato de uso:
NODO.range_missing.NOMBRECAMPO
missing_lower cadena Si range_missing es verdadero, especifica el
límite inferior del rango de valores perdidos.
Formato de uso:
NODO.missing_lower.NOMBRECAMPO
missing_upper cadena Si range_missing es verdadero, especifica el
límite superior del rango de valores perdidos.
Formato de uso:
NODO.missing_upper.NOMBRECAMPO
Formato de uso:
NODO.null_missing.NOMBRECAMPO
whitespace_missing tag Cuando esta propiedad está definida como T, los
valores que solamente contienen un espacio en
blanco (espacios, tabulaciones y líneas nuevas) se
consideran valores perdidos.
Formato de uso:
NODO.whitespace_missing.NOMBRECAMPO
description cadena Se utiliza para especificar la descripción o etiqueta
de un campo.
default_include tag Propiedad con clave para especificar si el
comportamiento predeterminado es para pasar o
filtrar los campos:
NODO.default_include
Ejemplo:
set minodo:filternode.default_include
= false
include tag Propiedad con clave que se utiliza para determinar
si los campos individuales se han incluido o se han
filtrado:
NODO.include.NOMBRECAMPO.
new_name string
Set /
MeasureType.SET
OrderedSet /
MeasureType.ORDER
ED_SET
Typeless /
MeasureType.TYPEL
ESS
Collection /
MeasureType.COLLE
CTION
Geospatial /
MeasureType.GEOSP
ATIAL
collection_measure Range / Para campos de recopilación (listas con
MeasureType.RANGE profundidad 0), esta propiedad con clave define
el tipo de medición asociado con los valores
Flag / subyacentes.
MeasureType.FLAG
Set /
MeasureType.SET
OrderedSet /
MeasureType.ORDER
ED_SET
Typeless /
MeasureType.TYPEL
ESS
Cadena multilínea
Polígono
Multipolígono
has_coordinate_syst booleano En campos geoespaciales, esta propiedad define si
em este campo tiene un sistema de coordenadas
coordinate_system string En campos geoespaciales, esta propiedad con
clave define el sistema de coordenadas para este
campo.
custom_storage_type Unknown / Esta propiedad con clave es similar a
MeasureType.UNKNO custom_storage en cuanto a que puede
WN utilizarse para definir el almacenamiento de
alteración temporal para el campo. La diferencia
String / es que, en los scripts Python, la función de
MeasureType.STRIN establecimiento puede pasar también uno de los
G valores StorageType, mientras que la función
de obtención siempre devolverá los valores
StorageType.
Integer /
MeasureType.INTEG
ER
Real /
MeasureType.REAL
Time /
MeasureType.TIME
Date /
MeasureType.DATE
Timestamp /
MeasureType.TIMES
TAMP
List /
MeasureType.LIST
Integer /
MeasureType.INTEG
ER
Real /
MeasureType.REAL
Time /
MeasureType.TIME
Date /
MeasureType.DATE
Timestamp /
MeasureType.TIMES
TAMP
custom_list_depth entero Para campos de lista, esta propiedad con clave
especifica la profundidad del campo.
max_list_length entero Solo está disponible para datos con un nivel de
medición de Geoespacial o Colección. Establezca
la longitud máxima de la lista especificando el
número de elementos que puede contener la lista.
max_string_length entero Solo está disponible para datos sin tipos y se utiliza
al generar SQL para crear una tabla. Entre el valor
de la serie más larga en los datos; esto genera
una columna en la tabla que es lo suficientemente
grande para contener la serie.
Propiedades de asimport
El origen de Analytic Server permite ejecutar una ruta en un sistema de archivos distribuido de Hadoop
(HDFS en sus siglas inglesas).
Ejemplo
node.setPropertyValue("use_default_as", False)
node.setPropertyValue("connection",
["false","9.119.141.141","9080","analyticserver","ibm","admin","admin","false
","","","",""])
Ejemplo
donde:
Donde stored_credential_name
es el nombre de una credencial de
Cognos del repositorio.
/Public Folders/GOSALES
Formato:
[["param1", "valor"],…,["paramN",
"valor"]]
cognos_report_direc campo La ruta de Cognos de una carpeta o
tory paquete de la que importar informes,
por ejemplo:
/Public Folders/GOSALES
Formato:
[["param1", "valor"],…,["paramN",
"valor"]]
Ejemplo
import modeler.api
ruta = modeler.script.stream()
node = stream.create("database", "My node")
node.setPropertyValue("mode", "Table")
node.setPropertyValue("query", "SELECT * FROM drug1n")
node.setPropertyValue("datasource", "Drug1n_db")
node.setPropertyValue("username", "spss")
node.setPropertyValue("password", "spss")
node.setPropertyValue("tablename", ".Drug1n")
Right
Both
use_quotes AsNeeded Especifica si los nombres de columna y
tabla aparecen entre comillas cuando las
Always consultas se envían a la base de datos (en
el caso, por ejemplo, de que contengan
espacios o signos de puntuación).
Nunca
consulta string Especifica el código SQL para la consulta
que desea enviar.
Nota: Si el nombre de la base de datos (en la propiedad datasource) contiene espacios, entonces en
vez de las propiedades individuales para datasource, username y password, utilice un único origen de
datos en el siguiente formato:
[database_name,username,passwor
d[,true | false]]
Utilice este formato también si está cambiando el origen de datos, sin embargo, si tan sólo desea cambiar
el nombre de usuario o contraseña, puede usar las propiedades username o password.
Propiedades de datacollectionimportnode
El nodo Importación de datos de Data Collection importa datos de encuesta
basándose en el modelo de datos de Data Collection utilizado por productos de
investigación de mercado. Se debe instalar la biblioteca de datos de Data Collection
para utilizar este nodo.
Ejemplo
mrADODsc
mrI2dDsc
mrLogDsc
mrQdiDrsDsc
mrQvDsc
mrSampleReportingMDSC
mrSavDsc
mrSCDsc
mrScriptMDSC
mrADODsc
mrI2dDsc
mrLogDsc
mrPunchDSC
mrQdiDrsDsc
mrQvDsc
mrRdbDsc2
mrSavDsc
mrScDSC
mrXmlDsc
File
Folder
UDL
DSN
casedata_file string Cuando casedata_source_type es
File, especifica el archivo que contiene los
datos de casos.
casedata_folder string Cuando casedata_source_type es
Folder, especifica la carpeta que contiene
los datos de casos.
casedata_udl_string string Cuando casedata_source_type es
UDL, especifica la cadena de conexión
OLD-DB del origen de datos que contiene
los datos de casos.
Especifica
specific_version string Cuando version_import_mode es
Specify, define la versión de los datos de
casos que se van a importar.
use_language string Determina si deben usarse las etiquetas
de un idioma concreto.
language string Si use_language es verdadero, define el
código de idioma que se va a usar en la
importación. Este código de idioma debe
incluirse entre aquellos disponibles en los
datos de casos.
use_context string Determina si se debe importar un
contexto específico. Los contextos se
utilizan para modificar la descripción
asociada con las respuestas.
context string Cuando use_context es verdadero,
define el contexto de la importación. Este
contexto debe encontrarse entre aquellos
disponibles en los datos de casos.
use_label_type string Determina si se debe importar un tipo de
etiqueta específico.
label_type string Cuando use_label_type es verdadero,
define el tipo de etiqueta de la
importación. Este tipo de etiqueta debe
encontrarse entre aquellos disponibles en
los datos de casos.
user_id string En el caso de las bases de datos que
requieren un inicio de sesión explícito,
puede proporcionar un ID de usuario y
una contraseña para acceder al origen de
datos.
password string
Todos
import_codes_variables marca
import_sourcefile_variabl marca
es
import_multi_response MultipleFlags
Single
Propiedades de excelimportnode
El nodo de importación Excel importa datos de Microsoft Excel en el formato de
archivo .xlsx. No es necesario un origen de datos ODBC.
Ejemplos
Propiedades de extensionimportnode
python_script = """
import spss.pyspark
from pyspark.sql.types import *
cxt = spss.pyspark.runtime.getContext()
if cxt.isComputeDataModelOnly():
cxt.setSparkOutputSchema(_schema)
else:
df = cxt.getSparkInputData()
if df is None:
drugList=[(1,23,'F','HIGH','HIGH',0.792535,0.031258,'drugY'), \
(2,47,'M','LOW','HIGH',0.739309,0.056468,'drugC'),\
(3,47,'M','LOW','HIGH',0.697269,0.068944,'drugC'),\
(4,28,'F','NORMAL','HIGH',0.563682,0.072289,'drugX'),\
(5,61,'F','LOW','HIGH',0.559294,0.030998,'drugY'),\
(6,22,'F','NORMAL','HIGH',0.676901,0.078647,'drugX'),\
(7,49,'F','NORMAL','HIGH',0.789637,0.048518,'drugY'),\
(8,41,'M','LOW','HIGH',0.766635,0.069461,'drugC'),\
(9,60,'M','NORMAL','HIGH',0.777205,0.05123,'drugY'),\
(10,43,'M','LOW','NORMAL',0.526102,0.027164,'drugY')]
sqlcxt = cxt.getSparkSQLContext()
rdd = cxt.getSparkContext().parallelize(drugList)
print 'pyspark read data count = '+str(rdd.count())
df = sqlcxt.createDataFrame(rdd, _schema)
cxt.setSparkOutputData(df)
"""
node.setPropertyValue("python_syntax", python_script)
Ejemplo de R
#### Ejemplo de script de R
node.setPropertyValue("syntax_type", "R")
R_script = """# 'JSON Import' Node v1.0 for IBM SPSS Modeler
# Paquete 'RJSONIO' creado por Duncan Temple Lang - http://cran.r-project.org/web/packages/
RJSONIO
# Paquete 'plyr' creado por Hadley Wickham http://cran.r-project.org/web/packages/plyr
# Desarrollador de nodo: Danil Savine - IBM Extreme Blue 2014
# Descripción: Este nodo le permite importar a SPSS datos de una tabla de un JSON.
# Instalar función para paquetes
packages <- function(x){
x <- as.character(match.call()[[2]])
if (!require(x,character.only=TRUE)){
install.packages(pkgs=x,repos="http://cran.r-project.org")
require(x,character.only=TRUE)
}
}
# paquetes
packages(RJSONIO)
packages(plyr)
### Esta función se utiliza para generar automáticamente el dataModel
getMetaData <- function (data) {
if (dim(data)[1]<=0) {
} else {
"""
node.setPropertyValue("r_syntax", R_script)
Propiedades de fixedfilenode
El nodo Archivo fijo importa datos desde archivos de texto de campo fijo; esto es,
archivos cuyos campos no están delimitados pero empiezan en la misma posición y
tienen una longitud fija. Los datos heredados o generados por la máquina se suelen
almacenar en formato de campo fijo.
Period
skip_header number Especifica el número de líneas que se
ignorarán al principio del primer registro.
Esto resulta útil para ignorar las cabeceras
de columna.
auto_recognize_datetime marca Especifica si las fechas o las horas se
identifican automáticamente en los datos
de origen.
lines_to_scan number
campos list Propiedad estructurada.
full_filename string Nombre completo del archivo que se va a
leer, incluido el directorio.
strip_spaces Ninguno Descarta los espacios iniciales y finales en
las cadenas de importación.
Left
Right
Both
invalid_char_mode Descartar Elimina los caracteres no válidos (nulo, 0
o cualquier carácter que no exista en la
Replace codificación actual) de la entrada de datos
o sustituye los caracteres no válidos con
el símbolo especificado de un carácter.
invalid_char_replacement string
use_custom_values marca
Cadena
Entero
Real
Hora
Fecha
Marca de tiempo
"YYMMDD"
"YYMMDD"
"YYYYDDD"
DAY
MONTH
"DD-MM-YY"
"DD-MM-YYYY"
"MM-DD-YY"
"MM-DD-YYYY"
"DD-MES-YY"
"DD-MES-YYYY"
"YYYY-MM-DD"
"DD.MM.YY"
"DD.MM.YYYY"
"MM.DD.YY"
"MM.DD.YYYY"
"DD.MES.YY"
"DD.MES.YYYY"
"DD/MM/YYYY"
"MM/DD/YY"
"MM/DD/YYYY"
"DD/MES/YY"
"DD/MES/YYYY"
MON YYYY
q Q YYYY
ww WK YYYY
custom_time_format "HHMMSS" Aplicable solamente si ha especificado un
almacenamiento personalizado.
"HHMM"
"MMSS"
"HH:MM:SS"
"HH:MM"
"MM:SS"
"(H)H:(M)M:(S)S"
"(H)H:(M)M"
"(M)M:(S)S"
"HH.MM.SS"
"HH.MM"
"MM.SS"
"(H)H.(M)M.(S)S"
"(H)H.(M)M"
"(M)M.(S)S"
"UTF-8"
Propiedades jsonimportnode
El nodo de origen JSON importa datos de un archivo JSON.
Ejemplo
UNIX
Transport
SAS7
SAS8
SAS9
full_filename cadena El nombre completo del archivo
introducido, incluyendo su ruta.
member_name cadena Especifique el miembro para importar
desde el archivo de transporte SAS
especificado.
read_formats tag Lee formatos de datos (como etiquetas
de variables) del archivo de formatos
especificado.
full_format_filename cadena
import_names NamesAndLabels Especifica el método para la correlación
de nombres y etiquetas de variables en la
LabelsasNames importación.
propiedades de simgennode
El nodo Generar simulación permite, de forma sencilla, generar datos simulados —ya
sea a partir de cero utilizando distribuciones estadísticas especificadas por el usuario
o de forma automática utilizando las distribuciones obtenidas de la ejecución de un
nodo Ajustar simulación sobre datos históricos existentes. Esto es útil cuando se desea
evaluar el resultado de un modelo predictivo en presencia de incertidumbre en las
entradas de modelo.
Ejemplo de fields
Este es un parámetro de ranura estructurado con la sintaxis siguiente:
simgennode.setPropertyValue("fields", [
[field1, storage, locked, [distribution1], min, max],
[field2, storage, locked, [distribution2], min, max],
[field3, storage, locked, [distribution3], min, max]
])
distribution es una declaración del nombre de distribución seguido de una lista que contiene pares
de nombres y valores de atributo. Cada distribución se define de la siguiente forma:
Por ejemplo, para crear un nodo que genere un solo campo con una distribución binomial puede utilizar el
siguiente script:
La distribución binomial tiene 2 parámetros: n y prob. Puesto que binomial no admite los valores mínimo
y máximo, éstos se suministran como una serie vacía.
Nota: No se puede establecer distribution directamente; utilícelo en combinación con la propiedad
fields.
Los ejemplos siguientes muestran todos los tipos de distribución posibles. Tenga en cuenta
que el umbral se especifica como thresh tanto en NegativeBinomialFailures como en
NegativeBinomialTrial.
ruta = modeler.script.stream()
simgennode.setPropertyValue("fields", [\
beta_dist, \
binomial_dist, \
categorical_dist, \
dice_dist, \
exponential_dist, \
fixed_dist, \
gamma_dist, \
lognormal_dist, \
negbinomialfailures_dist, \
negbinomialtrial_dist, \
normal_dist, \
poisson_dist, \
range_dist, \
triangular_dist, \
uniform_dist, \
weibull_dist
])
Ejemplo de correlations
Este es un parámetro de ranura estructurado con la sintaxis siguiente:
simgennode.setPropertyValue("correlations", [
[field1, field2, correlation],
[field1, field3, correlation],
[field2, field3, correlation]
])
La correlación puede ser cualquier número entre +1 y -1. Puede especificar tantas correlaciones como
desee. Las correlaciones no especificadas se establecen en cero. Si alguno de los campos se desconocen,
el valor de la correlación debe establecerse en la matriz de correlación (o tabla) y se muestra en texto
rojo. Cuando hay campos desconocidos, no es posible ejecutar el nodo.
Propiedades de statisticsimportnode
El nodo Archivo de IBM SPSS Statistics lee los datos desde un formato de
archivo .sav que utiliza IBM SPSS Statistics y archivos caché guardados en IBM
SPSS Modeler, que también puede utilizar el mismo formato.
Nota: Este nodo estaba en desuso en Modeler 18.0. El nombre del script del nodo de sustitución es
tm1odataimport.
Por ejemplo:
TM1_import.setPropertyValue("tm1_c
onnection", ['Planning Sample',
"admin", "apple"])
selected_view ["campo" "campo"] Una propiedad de la lista que contiene los
detalles del cubo TM1 seleccionado y el
nombre de la vista de cubo donde los datos se
importarán en SPSS. Por ejemplo:
TM1_import.setPropertyValue("selec
ted_view", ['plan_BudgetPlan',
'Goal Input'])
selected_column ["field" ] Especifique la columna seleccionada; solo se
puede especificar un elemento.
Por ejemplo:
setPropertyValue("selected_columns
", ["Measures"])
selected_rows ["campo" "campo"] Especifique las filas seleccionadas:
Por ejemplo:
setPropertyValue("selected_rows",
["Dimension_1_1", "Dimension_2_1",
"Dimension_3_1", "Periods"])
Híbrido
TWCDataImport.dataT Historical Especifica el tipo de datos
ype meteorológicos para la entrada. Los
Forecast valores posibles son Historical o
Prediction. Histórico es el valor
predeterminado.
TWCDataImport.start Entero Si se especifica Histórico
Date para TWCDataImport.dataType,
especifique una fecha de inicio con el
formato aaaaMMdd.
TWCDataImport.endDa Entero Si se especifica Histórico
te para TWCDataImport.dataType,
especifique una fecha de finalización
con el formato aaaaMMdd.
TWCDataImport.forec 6 Si se especifica Predicción
astHour para TWCDataImport.dataType,
12 especifique 6, 12, 24 o 48 para la hora.
24
48
propiedades de userinputnode
El nodo Datos de usuario proporciona una manera fácil de crear datos sintéticos,
ya sea partiendo de cero o modificando los datos existentes. Esto resulta útil,
por ejemplo, cuando desee crear un conjunto de datos de comprobación para el
modelado.
Ejemplo
Entero
Real
Hora
Fecha
Marca de tiempo
data_mode Combined Si se especifica Combined, los registros
se generarán para cada combinación de
Ordered valores del conjunto y valores mínimos
y máximos. El número de registros
generados será igual al producto del
número de valores de cada campo. Si se
especifica Ordered, se tomará un valor
de cada columna para cada registro con el
fin de generar una fila de datos. El número
de registros generados será igual al
número más grande de valores asociados
a un campo. Los campos que tengan
menos valores de datos se rellenarán con
valores nulos.
values Nota: Esta propiedad ya no se utiliza,
y no debe usarse; en su lugar, se usa
userinputnode.data.
Propiedades de variablefilenode
El nodo Archivo variable lee datos desde los archivos de texto de campo libre, es
decir, campos cuyos registros contienen un número constante de campos, pero un
número variado de caracteres. Este nodo resulta también útil para los archivos con
texto de cabecera de longitud fija y determinados tipos de anotaciones.
Ejemplo
Period
multi_blank marca Trata varios caracteres delimitadores
vacíos adyacentes como un único
delimitador.
read_field_names marca Trata la primera fila del archivo de datos
como etiquetas para la columna.
Right
Both
invalid_char_mode Descartar Elimina los caracteres no válidos (nulo,
0 o cualquier carácter que no exista
Replace en la codificación actual) de la entrada
de datos o sustituye los caracteres no
válidos con el símbolo especificado de un
carácter.
invalid_char_replacement string
break_case_by_newline marca Especifica que el delimitador de línea es
el carácter de nueva línea.
lines_to_scan number Especifica cuántas líneas se van a
explorar para los tipos de datos
especificados.
auto_recognize_datetime marca Especifica si las fechas o las horas se
identifican automáticamente en los datos
de origen.
quotes_1 Descartar Especifica cómo se tratarán las comillas
simples en la importación.
PairAndDiscard
IncludeAsText
quotes_2 Descartar Especifica cómo se tratarán las comillas
dobles en la importación.
PairAndDiscard
IncludeAsText
full_filename string Nombre completo del archivo que se va a
leer, incluido el directorio.
use_custom_values marca
Cadena
Entero
Real
Hora
Fecha
Marca de tiempo
"YYMMDD"
"YYMMDD"
"YYYYDDD"
DAY
MONTH
"DD-MM-YY"
"DD-MM-YYYY"
"MM-DD-YY"
"MM-DD-YYYY"
"DD-MES-YY"
"DD-MES-YYYY"
"YYYY-MM-DD"
"DD.MM.YY"
"DD.MM.YYYY"
"MM.DD.YY"
"MM.DD.YYYY"
"DD.MES.YY"
"DD.MES.YYYY"
"DD/MM/YYYY"
"MM/DD/YY"
"MM/DD/YYYY"
"DD/MES/YY"
"DD/MES/YYYY"
MON YYYY
q Q YYYY
ww WK YYYY
"MMSS"
"HH:MM:SS"
"HH:MM"
"MM:SS"
"(H)H:(M)M:(S)S"
"(H)H:(M)M"
"(M)M:(S)S"
"HH.MM.SS"
"HH.MM"
"MM.SS"
"(H)H.(M)M.(S)S"
"(H)H.(M)M"
"(M)M.(S)S"
custom_decimal_symbol campo Aplicable solamente si ha especificado un
almacenamiento personalizado.
codificación StreamDefault Especifica el método de codificación de
textos.
SystemDefault
"UTF-8"
Propiedades de xmlimportnode
El nodo de origen XML importa datos en formato XML en la ruta. Puede importar un
único archivo o todos los archivos en un directorio. Puede especificar opcionalmente un
archivo de esquema para leer la estructura XML.
propiedades de appendnode
El nodo Añadir concatena conjuntos de registros. Es útil para combinar conjuntos de
datos con estructuras parecidas, pero con datos diferentes.
Ejemplo
Todos
create_tag_field tag
tag_field_name cadena
propiedades de aggregatenode
El nodo Agregar reemplaza una secuencia de registros de entrada con registros de
salida agregados y resumidos.
Ejemplo
aggregatenode.setKeyedPropertyValue
("aggregate_exprs", "Na_MAX",
"MAX('Na')")
Prefix
inc_record_count tag Crea un campo adicional que indica la
cantidad de registros de entrada agregados
para conformar cada registro agregado.
count_field cadena Especifica el nombre del campo de recuento
de registros.
allow_approximation Booleana Permite la aproximación de estadísticas de
ordenación cuando se realiza la agregación
en Analytic Server
bin_count entero Especifica el número de intervalos a utilizar
en la aproximación
Ejemplo
Propiedades cplexoptnode
El nodo Optimización de CPLEX proporciona la capacidad de utilizar la optimización
basada en CPLEX (matemática compleja) a través de un archivo de modelo OPL
(Optimization Programming Language - Lenguaje de programación de optimización).
Esta funcionalidad estaba disponible en el producto IBM Analytical Decision
Management, que ya no está soportado. Pero también puede utilizar el nodo CPLEX
en SPSS Modeler sin necesidad de IBM Analytical Decision Management.
[[0,0,'Product','Type','Products',
'prod_id_tup','int','prod_id'],
[0,0,'Product','Type','Products',
'prod_name_tup','string',
'prod_name'],
[1,1,'Components','Type','Components'
,
'comp_id_tup','int','comp_id'],
[1,1,'Components','Type',
'Components',
'comp_name_tup','string','comp_name']
]
[['Production','int','res'],
['Remark','string','res_1']
['Cost',
'float','res_2']]
Propiedades derive_stbnode
El nodo Cajas-espacio-tiempo deriva Cajas-espacio-tiempo de los campos latitud,
longitud e indicación de fecha y hora. Las Cajas-espacio-tiempo también pueden
identificarse como lugares comunes.
Ejemplo
# Modalidad Hangouts
node.setPropertyValue("mode", "Hangouts")
node.setPropertyValue("hangout_density", "STB_GH7_30MINS")
node.setPropertyValue("id_field", "Event")
node.setPropertyValue("qualifying_duration", "30MINUTES")
node.setPropertyValue("min_events", 4)
node.setPropertyValue("qualifying_pct", 65)
latitude_field campo
longitude_field campo
timestamp_field campo
hangout_density densidad Una sola densidad. Consulte en densities
los valores de densidad válidos.
densities [densidad,densidad,..., Cada densidad es una cadena, por ejemplo,
densidad] STB_GH8_1DAY.
Nota: Existen límites para que las
densidades sean válidas. En geohash, se
pueden utilizar los valores de GH1 a GH15.
Para la parte temporal, se pueden utilizar
los valores siguientes:
EVER
1YEAR
1MONTH
1DAY
12HOURS
8HOURS
6HOURS
4HOURS
3HOURS
2HOURS
1HOUR
30MINS
15MINS
10MINS
5MINS
2MINS
1MIN
30SECS
15SECS
10SECS
5SECS
2SECS
1SEC
id_field campo
name_extension cadena
propiedades de distinctnode
El nodo Distinguir se puede usar para eliminar registros duplicados pasando el
primero de los registros distintos a la ruta de datos o descartando el primer registro
y pasando cualquier duplicado a la ruta de datos en su lugar.
Ejemplo
default_ascending marca
low_distinct_key_count tag Especifica que sólo tiene un pequeño
número de registros y/o un pequeño número
de valores exclusivos del campo(s) clave.
keys_pre_sorted tag Especifica que todos los registros con los
mismos valores clave se agrupan en la
entrada.
disable_sql_generation tag
Las opciones personalizadas requieren más de un argumento, añadidos como una lista, por ejemplo:
node.setPropertyValue("composite_values", [
[FIELD1, [FILLOPTION1]],
[FIELD2, [FILLOPTION2]],
.
.
])
Ejemplo:
node.setPropertyValue("composite_values", [
["Age", ["First"]],
["Name", ["MostFrequent", "First"]],
["Pending", ["IncludesValue", "T"]],
["Marital", ["FirstMatch", "Married", "Divorced", "Separated"]],
["Code", ["Concatenate", "Comma"]]
])
Propiedades de extensionprocessnode
process_script = """
import spss.pyspark.runtime
from pyspark.sql.types import *
cxt = spss.pyspark.runtime.getContext()
if cxt.isComputeDataModelOnly():
_schema = StructType([StructField("Age", LongType(), nullable=True), \
StructField("Sex", StringType(), nullable=True), \
StructField("BP", StringType(), nullable=True), \
StructField("Na", DoubleType(), nullable=True), \
StructField("K", DoubleType(), nullable=True), \
StructField("Drug", StringType(), nullable=True)])
cxt.setSparkOutputSchema(_schema)
else:
df = cxt.getSparkInputData()
print df.dtypes[:]
_newDF = df.select("Age","Sex","BP","Na","K","Drug")
print _newDF.dtypes[:]
cxt.setSparkOutputData(_newDF)
"""
node.setPropertyValue("python_syntax", process_script)
Ejemplo de R
#### Ejemplo de script de R
node.setPropertyValue("syntax_type", "R")
node.setPropertyValue("r_syntax", """day<-as.Date(modelerData$dob, format="%Y-%m-%d")
next_day<-day + 1
modelerData<-cbind(modelerData,next_day)
propiedades de mergenode
El nodo Fundir toma varios registros de entrada y crea un registro de salida único
que contiene todos o algunos de los campos de entrada. Es útil para fusionar datos
desde diferentes orígenes, como datos de clientes internos y datos demográficos
adquiridos.
Ejemplo
FullOuter
PartialOuter
Anti
outer_join_tag.n marca En esta propiedad, n es el nombre de
etiqueta tal y como recoge el cuadro de
diálogo Seleccionar conjunto de datos.
Tenga en cuenta que es posible que existan
varios nombres de etiquetas especificados,
ya que pueden ser varios los conjuntos de
datos que aporten registros incompletos.
single_large_input marca Determina si se va a usar la optimización
para tener una entrada relativamente
grande en comparación con el resto de
entradas.
single_large_input_tag string Especifica el nombre de etiqueta tal y
como se muestra en el cuadro de diálogo
Seleccionar conjunto de datos grande.
Tenga en cuenta que el uso de esta
propiedad es ligeramente distinto que el
de la propiedad outer_join_tag (marca
frente a cadena), ya que solamente se
puede especificar un único conjunto de
datos de entrada.
use_existing_sort_keys marca Determina si las entradas ya se han
ordenado en función de uno o varios
campos clave.
propiedades rfmaggregatenode
El nodo Adición de RFM (actualidad, frecuencia, monetario) permite tomar datos
de transacciones históricas de clientes, deshacerse de los datos no utilizados y
combinar todos los datos de transacciones restantes en una única fila que indica
cuándo hizo negociaciones con los clientes por última vez, cuántas transacciones
hicieron y el valor monetario total de dichas transacciones.
Ejemplo
Años
save_r2 marca Muestra la fecha de la segunda transacción
más reciente para cada cliente.
save_r3 marca Sólo está disponible si selecciona save_r2.
Muestra la fecha de la tercera transacción
más reciente para cada cliente.
Propiedades de Rprocessnode
El nodo Transformación R le permite tomar
datos de una ruta de IBM(r) SPSS(r) Modeler y
modificar los datos utilizando su propio script R
personalizado. Una vez modificados los datos, se
devuelven a la cadena.
Ejemplo
convert_datetime marca
convert_datetime_class
POSIXct
POSIXlt
convert_missing marca
propiedades de samplenode
El nodo Muestrear selecciona un subconjunto de registros. Se admite una variedad
de tipos de muestras, entre las que se incluyen las muestras estratificadas,
agrupadas en clústeres y no aleatorias (estructuradas). El muestreo puede ser de
gran utilidad para mejorar el rendimiento y para seleccionar grupos de registros o
transacciones relacionadas para un análisis.
Ejemplo
Complex
mode Incluir Incluye o descarta los registros que reúnan
la condición especificada.
Descartar
sample_type Primero Especifica el método de muestreo.
OneInN
RandomPct
first_n entero Se incluirán o descartarán los registros
hasta el punto de corte especificado.
Systematic
sample_units Proportions
Counts
sample_size_proportion Fixed
s
Custom
Variable
sample_size_counts Fixed
Custom
Variable
fixed_proportions number
fixed_counts entero
variable_proportions campo
variable_counts campo
use_min_stratum_size marca
minimum_stratum_size entero Esta opción sólo se aplica cuando se
toma una muestra compleja con Sample
units=Proportions.
use_max_stratum_size marca
maximum_stratum_size entero Esta opción sólo se aplica cuando se
toma una muestra compleja con Sample
units=Proportions.
propiedades de selectnode
El nodo Seleccionar selecciona o descarta un subconjunto de registros de la ruta de
datos en función de una condición específica. Por ejemplo, podría seleccionar los
registros que pertenezcan a una región de ventas determinada.
Ejemplo
propiedades de sortnode
Los nodos Ordenar organizan registros en orden ascendente o descendente
atendiendo a los valores de uno o varios campos.
Propiedades de spacetimeboxes
Las cajas-espacio-tiempo (STB) son una extensión de las ubicaciones espaciales
demarcadas mediante Geohash. En concreto, una STB es una cadena alfanumérica
que representa una región de forma regular de espacio y tiempo.
latitude_field campo
longitude_field campo
timestamp_field campo
EVER
1YEAR
1MONTH
1DAY
12HOURS
8HOURS
6HOURS
4HOURS
3HOURS
2HOURS
1HOUR
30MINS
15MINS
10MINS
5MINS
2 MINS
1 MIN
30SECS
15SECS
10SECS
5 SECS
2 SECS
1SEC
field_name_extension cadena
add_extension_as Prefix
Suffix
Propiedades streamingtimeseries
El nodo Serie temporal de modalidad continua crea y puntúa modelos de serie
temporal en un solo paso.
Nota: Este nodo Serie temporal de modalidad continua sustituye el nodo Resolución
de TS original que estaba en desuso en la versión 18 de SPSS Modeler.
Desconocido
Año
Trimestre
Mes
Semana
Día
Hora
Hour_nonperiod
Minuto
Minute_nonperiod
Segundo
Second_nonperiod
period_field campo
period_start_value entero
num_days_per_week entero
start_day_of_week Sunday
Monday
Martes
Miércoles
Jueves
Viernes
Saturday
num_hours_per_day entero
start_hour_of_day entero
Año
Trimestre
Mes
Semana
Día
Hora
Minuto
Segundo
is_same_interval marca
cross_hour marca
aggregate_and_distribute list
aggregate_default Media
Sum
Mode
Mín
Máx
distribute_default Media
Sum
Sum
Mode
Mín
Máx
missing_imput Linear_interp
Series_mean
K_mean
K_median
Linear_trend
k_span_points entero
use_estimation_period marca
estimation_period Observaciones
Times
date_estimation list Solo está disponible
si se utiliza
date_time_field
period_estimation list Solo está disponible si se
utiliza use_period
observations_type Latest
Más antiguo
observations_num entero
observations_exclude entero
method ExpertModeler
Exsmooth
Arima
Exsmooth
Arima
consider_seasonal marca
detect_outliers marca
expert_outlier_additive marca
expert_outlier_level_shift marca
expert_outlier_innovational marca
expert_outlier_level_shift marca
expert_outlier_transient marca
expert_outlier_seasonal_additive marca
expert_outlier_local_trend marca
expert_outlier_additive_patch marca
consider_newesmodels marca
HoltsLinearTrend
BrownsLinearTrend
DampedTrend
SimpleSeasonal
WintersAdditive
WintersMultiplicativ
e
DampedTrendAdditive
DampedTrendMultiplic
ative
MultiplicativeTrendA
dditive
MultiplicativeSeason
al
MultiplicativeTrend
Multiplicative
MultiplicativeTrend
futureValue_type_method Compute
specify
exsmooth_transformation_type Ninguno
SquareRoot
NaturalLog
arima.p entero
arima.d entero
arima.q entero
arima.sp entero
arima.sd entero
SquareRoot
NaturalLog
arima_include_constant marca
tf_arima.p. nombrecampo entero Para funciones de
transferencia.
tf_arima.d. nombrecampo entero Para funciones de
transferencia.
tf_arima.q. nombrecampo entero Para funciones de
transferencia.
tf_arima.sp. nombrecampo entero Para funciones de
transferencia.
tf_arima.sd. nombrecampo entero Para funciones de
transferencia.
tf_arima.sq. nombrecampo entero Para funciones de
transferencia.
tf_arima.delay. nombrecampo entero Para funciones de
transferencia.
tf_arima.transformation_type. Ninguno Para funciones de
nombrecampo transferencia.
SquareRoot
NaturalLog
arima_detect_outliers marca
arima_outlier_additive marca
arima_outlier_level_shift marca
arima_outlier_innovational marca
arima_outlier_transient marca
arima_outlier_seasonal_additive marca
arima_outlier_local_trend marca
arima_outlier_additive_patch marca
conf_limit_pct real
events campos
forecastperiods entero
extend_records_into_future marca
Ejemplo
calculate_conf marca
conf_limit_pct real
use_time_intervals_node marca Si use_time_intervals_node=true,
se utilizarán los valores de un
nodo Intervalos de tiempo situado
en un punto anterior de la ruta.
Si use_time_intervals_node=false,
deberán especificarse
interval_offset_position,
interval_offset e interval_type.
interval_offset_position LastObservation se refiere a la Última
LastObservation
LastRecord observación válida. LastRecord se
refiere a la Cuenta hacia atrás a partir del
último registro.
eventos campos
expert_modeler_method
AllModels
Exsmooth
Arima
consider_seasonal marca
detect_outliers marca
expert_outlier_additive marca
expert_outlier_level_shi marca
ft
expert_outlier_innovatio marca
nal
expert_outlier_transient marca
expert_outlier_seasonal_ marca
additive
expert_outlier_local_tre marca
nd
expert_outlier_additive_ marca
patch
exsmooth_model_type
Simple
HoltsLinearTrend
BrownsLinearTrend
DampedTrend
SimpleSeasonal
WintersAdditive
WintersMultiplicativ
e
exsmooth_transformation_
Ninguno
type SquareRoot
NaturalLog
tf_arima_transformation_typ Ninguno
e. SquareRoot
nombredecampo NaturalLog
arima_detect_outlier_mod
Ninguno
e Automatic
arima_outlier_additive marca
arima_outlier_level_shif marca
t
arima_outlier_innovation marca
al
deployment_rebuild_count número
deployment_rebuild_pct número
deployment_rebuild_field <campo>
propiedades de anonymizenode
El nodo Anonimizar transforma la manera en que se representan los nombres y los
valores de los campos a partir de ese punto de la ruta, lo que permite disfrazar los
datos originales. Puede resultar útil si desea permitir que otros usuarios generen
modelos utilizando datos confidenciales, como los nombres de los clientes u otros
detalles.
Ejemplo
ruta = modeler.script.stream()
varfilenode = stream.createAt("variablefile", "File", 96, 96)
varfilenode.setPropertyValue("full_filename", "$CLEO/DEMOS/DRUG1n")
node = stream.createAt("anonymize", "My node", 192, 96)
# Anonimizar nodo requiere los campos de entrada al establecer los valores
stream.link(varfilenode, node)
node.setKeyedPropertyValue("enable_anonymize", "Age", True)
node.setKeyedPropertyValue("transformation", "Age", "Random")
node.setKeyedPropertyValue("set_random_seed", "Age", True)
node.setKeyedPropertyValue("random_seed", "Age", 123)
node.setKeyedPropertyValue("enable_anonymize", "Drug", True)
node.setKeyedPropertyValue("use_prefix", "Drug", True)
node.setKeyedPropertyValue("prefix", "Drug", "myprefix")
properties autodataprepnode
El nodo de preparación automática de datos (ADP) puede analizar sus datos
e identificar los valores fijos, cribar los campos problemáticos o que no serán
útiles y derivar nuevos atributos cuando sea necesario y mejorar el rendimiento
mediante técnicas de cribado y muestreo inteligente. Puede utilizar el nodo de
forma totalmente automática, permitiendo que el nodo seleccione y aplique valores
fijos, o bien puede tener una vista previa de los cambios antes de que se apliquen y
aceptarlos o rechazarlos.
Ejemplo
Speed
Accuracy
Custom
custom_fields marca Si es verdadero, le permite especificar
el objetivo, la entrada y otros campos
del nodo actual. Si es falso, se utiliza
la configuración actual de un nodo Tipo
situado en un punto anterior de la ruta.
objetivo campo Especifica un campo de objetivo único.
Ninguno
if_fields_do_not_match StopExecution
ClearAnalysis
prepare_dates_and_times marca Controla el acceso a todos los campos de
fecha y hora
compute_time_until_date marca
reference_date Today
Fixed
fixed_date date
units_for_date_durations Automatic
Fixed
fixed_date_units Años
Meses
Days
compute_time_until_time marca
reference_time CurrentTime
Fixed
fixed_time hora
units_for_time_durations Automatic
Fixed
fixed_date_units Hours
Minutes
Seconds
Eliminar
rescale_continuous_inputs marca
rescaling_method MinMax
ZScore
min_max_minimum number
min_max_maximum number
z_score_final_mean number
z_score_final_sd number
rescale_continuous_target marca
target_final_mean number
target_final_sd number
transform_select_input_fi marca
elds
maximize_association_with marca
_target
p_value_for_merging number
merge_ordinal_features marca
merge_nominal_features marca
minimum_cases_in_category number
bin_continuous_fields marca
p_value_for_binning number
perform_feature_selection marca
p_value_for_selection number
perform_feature_construct marca
ion
transformed_target_name_e string
xtension
transformed_inputs_name_e string
xtension
constructed_features_root string
_name
propiedades de astimeintervalsnode
Utilice el nodo Intervalos de tiempo para especificar intervalos y derivar un nuevo
campo de tiempo para la estimación o predicción. Se da soporte a un rango
completo de intervalos de tiempo, desde segundos a años.
propiedades de binningnode
El nodo Intervalos crea automáticamente nuevos campos nominales (conjunto) en
función de los valores de uno o más campos continuos (rango numérico) existentes.
Por ejemplo, puede transformar un campo de ingresos continuo en un campo
categórico nuevo que contenga grupos de ingresos como desviaciones desde la
media. Una vez creados los intervalos para el campo nuevo, puede generar un nodo
Derivar en función de los puntos de corte.
Ejemplo
Rank
SDev
Optimal
rcalculate_bins Always Especifica si se vuelven a calcular los
intervalos y los datos se colocan en
IfNecessary el intervalo adecuado cada vez que se
ejecuta el nodo o si los datos sólo
se añaden a los intervalos existentes y
cualquier nuevo intervalo que se haya
añadido.
Count
fixed_bin_count entero Especifica un número entero para
determinar el número de intervalos de
anchura fija (categorías) para los nuevos
campos.
fixed_bin_width real Valor (entero o real) para calcular el
ancho del intervalo.
equal_count_name_ string La extensión predeterminada es _TILE.
extensión
equal_count_add_as Suffix Especifica una extensión, sufijo o prefijo,
utilizada para el nombre de los campos
Prefix generados con p-tiles estándar. La
extensión predeterminada es _TILE más
N, donde N es el número de cuantil.
tile4 marca Genera cuatro intervalos de cuantiles,
cada uno con el 25% de los casos.
tile5 marca Genera cinco intervalos de quintiles.
tile10 marca Genera 10 intervalos de deciles.
tile20 marca Genera 20 intervalos de veintiles.
tile100 marca Genera 100 intervalos de percentiles.
use_custom_tile marca
custom_tile_name_extension string La extensión predeterminada es _TILEN.
custom_tile_add_as Suffix
Prefix
custom_tile entero
equal_count_method RecordCount El método RecordCount trata de asignar
el mismo número de registros a cada
ValueSum intervalo, mientras que ValueSum asigna
registros de manera que la suma de los
valores de cada intervalo sea la misma.
Random
rank_order Ascending Esta propiedad incluye Ascending (el
valor más bajo se marca con 1) o
Descending Descending (el valor más alto se marca
con 1).
rank_add_as Suffix Esta opción se aplica al rango, rango
fraccional y rango como porcentaje.
Prefix
rank marca
rank_name_extension string La extensión predeterminada es _RANK.
rank_fractional marca Establece rangos de casos en los que
el valor del campo nuevo es igual
al rango dividido por la suma de las
ponderaciones de los casos que no están
perdidos. Los rangos fraccionales están
dentro del rango de 0–1.
rank_fractional_name_ string La extensión predeterminada es
_F_RANK.
extensión
rank_pct marca Cada rango se divide por el número
de registros con valores válidos y
se multiplica por 100. Los rangos
fraccionales de porcentaje están dentro
del rango de 1–100.
rank_pct_name_extension string La extensión predeterminada es
_P_RANK.
sdev_name_extension string
sdev_add_as Suffix
Prefix
sdev_count One
Two
Tres
optimal_name_extension string La extensión predeterminada es
_OPTIMAL.
optimal_add_as Suffix
Prefix
Exclusive
optimal_first_bin Unbounded
Bounded
optimal_last_bin Unbounded
Bounded
propiedades de derivenode
El nodo Derivar modifica los valores de datos o crea campos nuevos desde uno
o más campos existentes. Crea campos del tipo fórmula, marca, nominal, estado,
recuento y condicional.
Ejemplo 1
# Crear y configurar un nodo de campo Derivar marca
node = stream.create("derive", "My node")
node.setPropertyValue("new_name", "DrugX_Flag")
node.setPropertyValue("result_type", "Flag")
node.setPropertyValue("flag_true", "1")
node.setPropertyValue("flag_false", "0")
node.setPropertyValue("flag_expr", "'Drug' == \"drugX\"")
ruta = modeler.script.stream()
# Otro código de configuración de ruta
node = stream.createAt("derive", "Location", 192, 96)
node.setPropertyValue("new_name", "Location")
node.setPropertyValue("formula_expr", "['XPos', 'YPos']")
node.setPropertyValue("formula_type", "Geospatial")
# Ahora que hemos definido el tipo de medición general, defina los
# detalles del objeto geoespacial
node.setPropertyValue("geo_type", "Point")
node.setPropertyValue("has_coordinate_system", True)
node.setPropertyValue("coordinate_system", "ETRS_1989_EPSG_Arctic_zone_5-47")
Set
State
Count
Conditional
formula_expr string Expresión para calcular un nuevo
valor de campo en el nodo Derivar.
flag_expr string
flag_true string
flag_false string
OrderedSet /
MeasureType.ORDERED_SET
Typeless /
MeasureType.TYPELESS
Collection /
MeasureType.COLLECTION
Geospatial /
MeasureType.GEOSPATIAL
collection_measure Range / MeasureType.RANGE Para campos de recopilación (listas
con profundidad 0), esta propiedad
Flag / MeasureType.FLAG define el tipo de medición asociado
con los valores subyacentes.
Set / MeasureType.SET
OrderedSet /
MeasureType.ORDERED_SET
Typeless /
MeasureType.TYPELESS
geo_type Point En campos geoespaciales, esta
propiedad define el tipo del objeto
Multipunto geoespacial representado por este
campo. Debería ser coherente con la
profundidad de lista de los valores
Cadena lineal
Cadena multilínea
Polígono
Multipolígono
has_coordinate_syste booleano En campos geoespaciales, esta
m propiedad define si este campo
tiene un sistema de coordenadas
propiedades de ensemblenode
El nodo Conjunto combina dos o más nugget de modelo para obtener predicciones
más precisas que pueden conseguirse de cualquier modelo.
Ejemplo
AdjustedPropensityWeighte
dVoting
HighestConfidence
AverageRawPropensity
AverageAdjustedPropensity
AdjustedPropensity
set_voting_tie_selection Random Si se selecciona un método de
votación, especifica cómo se
HighestConfidence resolverán los empates. Este
conjunto sólo se aplica si el
objetivo seleccionado es un
campo nominal.
calculate_standard_error marca Si el campo objetivo es continuo,
se ejecuta un error estándar
de forma predeterminada para
calcular la diferencia entre los
valores medidos o estimados y
los valores true; y para mostrar
si las estimaciones coinciden.
propiedades de fillernode
El nodo Rellenar sustituye valores de campos y cambia el almacenamiento. Puede
sustituir los valores en función de una condición CLEM, como @BLANK(@FIELD).
También puede sustituir todos los espacios vacíos o valores nulos por un valor
específico. Un nodo Rellenar suelen utilizarse junto con un nodo Tipo para sustituir
valores perdidos.
Ejemplo
Vacío
Null
BlankAndNull
condition string
replace_with string
propiedades de filternode
El nodo Filtrar filtra (descarta) campos, vuelve a nombrar campos y correlaciona
campos de nodo de origen a otro.
Ejemplo:
Esto hará que el nodo pase los campos Edad y Sexo y descarte el resto. Después de ejecutar el script
anterior, suponga que añade las líneas siguientes al script para nombrar dos campos más:
node.setPropertyValue("default_include", False)
# Incluir estos dos campos en la lista
for f in ["BP", "Na"]:
node.setKeyedPropertyValue("include", f, True)
De esta forma, se añadirán dos campos más al filtro, de manera que pasan un total de cuatro campos
(Edad, Sexo, PS y Na). En otras palabras, al volver a establecer el valor de default_include en False
no se restablecen automáticamente todos los campos.
Si lo desea, si ahora cambia default_include a True (ya sea usando un script o en el cuadro de
diálogo del nodo Filtrar), cambiará el comportamiento de forma que los cuatro campos enumerados
propiedades de historynode
El nodo Historial se utiliza para crear campos nuevos que contienen datos de
los campos de registros anteriores. Los nodos Historial se suelen utilizar para los
datos secuenciales, como los datos de series temporales. Antes de utilizar un nodo
Historial, puede desear ordenar los datos utilizando un nodo Ordenar.
Ejemplo
propiedades de partitionnode
El nodo Partición genera un campo de partición, que divide los datos en
subconjuntos diferentes para las fases de entrenamiento, comprobación y
validación en la generación del modelo.
Ejemplo
propiedades de reclassifynode
El nodo Reclasificar transforma un conjunto de valores categóricos en otro. La
reclasificación es útil para contraer categorías o reagrupar datos para su análisis.
Ejemplo
Prefix
reclasificar string Propiedad estructurada para valores de
campos.
use_default marca Utiliza el valor predeterminado.
valor predeterminado string Especifica un valor predeterminado.
pick_list [string string … Permite al usuario importar una lista de
string] valores nuevos conocidos para rellenar la
lista desplegable de la tabla.
propiedades de reordernode
El nodo Reorg. campos define el orden natural utilizado para mostrar los campos
en la parte posterior de la ruta. Este orden afecta a la visualización de los campos
en diversas ubicaciones, como las tablas, las listas y el selector de campos. Esta
operación resulta útil al trabajar con conjuntos de datos amplios que hacen más
visibles los campos de interés.
Ejemplo
sort_by Name
Tipo
Storage
ascending marca
start_fields [campo1 campo2 … Los campos nuevos se han insertado
campon] después de estos campos.
propiedades de reprojectnode
En SPSS Modeler, elementos como las funciones espaciales Creador de
expresiones, el nodo de Predicción espacio-temporal (STP) y el nodo Visualización
de mapas utilizan el sistema de coordenadas proyectado. Utilice el nodo
Reproyectar para cambiar el sistema de coordenadas de los datos que importa y
que utilizan un sistema de coordenadas geográficas.
Especifica
coordinate_system string El nombre del sistema de coordenadas
que se aplicará a los campos. Ejemplo:
set
reprojectnode.coordinate_system
= “WGS_1984_World_Mercator”
propiedades de restructurenode
El nodo Reestructurar convierte un campo nominal o marca en un grupo de campos
que se puede rellenar con los valores todavía de otro campo. Por ejemplo, para un
campo determinado llamado tipo de pago, con valores de crédito, efectivo, y débito,
se crearían tres campos nuevos (crédito, efectivo, débito), que contendría cada uno
el valor del pago real realizado.
Ejemplo
all
propiedades de rfmanalysisnode
El nodo Análisis de RFM (actualidad, frecuencia, monetario) permite determinar
cuantitativamente qué clientes son los mejores examinando cuándo ha sido la
compra más reciente de un cliente (actualidad), cuántas veces suele comprar
(frecuencia) y cuánto gasta el cliente en todas las transacciones (valor monetario).
Ejemplo
recalculate_bins Always
IfNecessary
add_outliers marca Sólo está disponible si
recalculate_bins se define como
IfNecessary. Si se selecciona, los
registros por debajo del intervalo más
inferior se añaden al intervalo inferior y los
registros por encima, se añaden al intervalo
superior.
binned_field Recency
Frequency
Monetary
recency_thresholds valor valor Sólo está disponible si
recalculate_bins se define como
Siempre. Especifica los umbrales superior
e inferior de los intervalos de actividades
recientes. El umbral superior de un
intervalo se utiliza como el umbral inferior
del siguiente, por ejemplo, [10 30 60]
definiría dos intervalos, el primer intervalo
con los umbrales superior e inferior de 10 y
30, con los umbrales del segundo intervalo
de 30 y 60.
frequency_thresholds valor valor Sólo está disponible si
recalculate_bins se define como
Siempre.
monetary_thresholds valor valor Sólo está disponible si
recalculate_bins se define como
Siempre.
Ejemplo
all
true_value string Especifica el valor para verdadero
utilizado por el nodo al configurar una
marca. El valor predeterminado es T (del
inglés 'True').
false_value string Especifica el valor para falso utilizado por
el nodo al configurar una marca. El valor
predeterminado es F (del inglés 'False').
use_extension marca Utiliza una extensión como sufijo o prefijo
para el nuevo campo de marca.
extensión string
add_as Suffix Especifica si la extensión es un sufijo o un
prefijo.
Prefix
aggregate marca Agrupa registros en función de campos
clave. Si algún registro se establece como
verdadero, se activarán todos los campos
de marca de un grupo.
keys lista Campos clave.
propiedades de statisticstransformnode
El nodo Transformación Statistics ejecuta una selección de comandos de sintaxis
de IBM SPSS Statistics en los orígenes de datos de IBM SPSS Modeler. Este nodo
requiere una copia de IBM SPSS Statistics con licencia.
Ejemplo
Períodos
CyclicPeriods
Años
Trimestres
Meses
DaysPerWeek
DaysNonPeriodic
HoursPerDay
HoursNonPeriodic
MinutesPerDay
MinutesNonPeriodic
SecondsPerDay
SecondsNonPeriodic
mode Label Determina si desea etiquetar los
registros de manera consecutiva o crear
Create la serie según una fecha, marca de
tiempo o campo de tiempo concretos.
campo campo Al crear la serie a partir de los datos,
especifica el campo que informa de la
fecha u hora de cada registro.
period_start entero Especifica el intervalo de inicio para
períodos o períodos cíclicos.
cycle_start entero Ciclo de inicio de los períodos cíclicos.
year_start entero En el caso de los tipos de intervalo
que procedan, el año en que el primer
intervalo tiene lugar.
quarter_start entero En el caso de los tipos de intervalo que
procedan, el trimestre en que el primer
intervalo tiene lugar.
day_start entero
hour_start entero
minute_start entero
second_start entero
periods_per_cycle entero En el caso de los períodos cíclicos,
número en cada ciclo.
fiscal_year_begins En el caso de los intervalos trimestrales,
Enero
Febrero especifica el mes en el que comienza el
Marzo año fiscal.
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre
Tuesday
Wednesday
Thursday
Friday
Saturday
Sunday
10
15
20
30
time_format
"HHMMSS"
"HHMM"
"MMSS"
"HH:MM:SS"
"HH:MM"
"MM:SS"
"(H)H:(M)M:(S)S"
"(H)H:(M)M"
"(M)M:(S)S"
"HH.MM.SS"
"HH.MM"
"MM.SS"
"(H)H.(M)M.(S)S"
"(H)H.(M)M"
"(M)M.(S)S"
Mode
Mín
Máx
Primero
Last
TrueIfAnyTrue
pad Vacío Especifica el método de relleno para un
campo.
MeanOfRecentPoints
True
False
agg_mode Todos Determina si se agregan o rellenan
todos los campos con las funciones
Especifica predeterminadas según sea necesario o
bien si se especifican los campos y las
funciones que deben usarse.
agg_range_default Media Especifica la función predeterminada
que se va a usar al agregar campos
Sum continuos.
Mode
Mín
Máx
agg_set_default Mode Especifica la función predeterminada
que se va a usar al agregar campos
Primero nominales.
Last
Mode
Primero
Last
pad_range_default Vacío Especifica la función predeterminada
que se va a usar al agregar campos
MeanOfRecentPoints continuos.
pad_set_default Vacío
MostRecentValue
pad_flag_default Vacío
True
False
max_records_to_create entero Especifica el número máximo de
registros que se van a crear al rellenar
la serie.
estimation_from_beginning tag
estimation_to_end tag
estimation_start_offset entero
estimation_num_holdouts entero
create_future_records tag
num_future_records entero
create_future_field tag
future_field_name cadena
propiedades de transposenode
El nodo Transponer intercambia los datos en filas y columnas de manera que los
registros se conviertan en campos y los campos en registros.
Ejemplo
propiedades de typenode
El nodo Tipo especifica propiedades y metadatos de campo. Por ejemplo, puede
especificar un nivel de medición (continuo, nominal, ordinal o marca) para cada
campo, establecer las opciones para gestionar valores perdidos y nulos del sistema,
establecer el rol de un campo con fines de modelado, especificar las etiquetas de
valor y campo y especificar los valores de un campo.
Ejemplo
Ninguno
Partition
Split
Frequency
RecordID
type Range El nivel de medición del campo
(anteriormente denominado el "tipo" de
Flag campo). Si se establece type en
Default, se borrará cualquier
Set valor del parámetro values,
y si value_mode tiene el valor
Specify, se restablecerá en Read.
Sin tipo Si value_mode se establece en Pass
o Read,
Discrete el establecimiento de type
no afectará a value_mode.
OrderedSet
Nota: Los tipos de datos utilizados
Predeterminado internamente difieren de los que
son visibles en el nodo tipo. La
correspondencia es la siguiente: Range ->
Continuous Set - > Nominal OrderedSet
-> Ordinal Discrete- > Categorical
Entero
Real
Hora
Fecha
Marca de tiempo
check Ninguno Propiedad con clave para la
comprobación del rango y el tipo de
Nullify campo.
Coerce
Descartar
Warn
Abort
values [value value] Para un campo continuos, el primer valor
es el mínimo y el último es el máximo.
Para campos nominales, especifique
todos los valores. Para los campos
marca, el primer valor representa falso
y el último, verdadero. La configuración
de esta propiedad establece de forma
automática la propiedad value_mode en
Specify.
value_mode Leer Determina la forma en la que se
establecen los valores. Tenga en cuenta
Pasar que no puede establecer esta propiedad
directamente en Specify. Para utilizar
valores específicos, establezca la
Leer+ propiedad values.
Actual
Especifica
COMMA
date_format Establece el formato de fecha
"DDMMAA"
"MMDDYY" para el campo (sólo se aplica a
"AAMMDD" campos con almacenamiento FECHA o
"YYMMDD"
"YYYYDDD" MARCADETIEMPO).
DAY
MONTH
"DD-MM-YY"
"DD-MM-YYYY"
"MM-DD-YY"
"MM-DD-AAAA"
"DD-MES-YY"
"DD-MES-YYYY"
"YYYY-MM-DD"
"DD.MM.YY"
"DD.MM.AAAA"
"MM.DD.YYYY"
"DD.MES.YY"
"DD.MES.YYYY"
"DD/MM/YY"
"DD/MM/AAAA"
"MM/DD/YY"
"MM/DD/YYYY"
"DD/MES/YY"
"DD/MES/YYYY"
MON YYYY
q Q YYYY
ww WK YYYY
SCIENTIFIC
CURRENCY
LOCALE
PERIOD
COMMA
SPACE
column_widt entero Establece el ancho de columna para el
h campo. Un valor de 1 establecerá el
ancho de columna en Auto.
justify AUTO Establece la justificación de columna para
el campo.
CENTER
LEFT
RIGHT
Typeless / MeasureType.TYPELESS
Collection /
MeasureType.COLLECTION
Geospatial /
MeasureType.GEOSPATIAL
collection_ Range / MeasureType.RANGE Para campos de recopilación (listas con
measure profundidad 0), esta propiedad con clave
Flag / MeasureType.FLAG define el tipo de medición asociado con
los valores subyacentes.
Set / MeasureType.SET
OrderedSet /
MeasureType.ORDERED_SET
Typeless / MeasureType.TYPELESS
geo_type Point En campos geoespaciales, esta propiedad
con clave define el tipo del objeto
Multipunto geoespacial representado por este
campo. Debería ser coherente con la
profundidad de lista de los valores.
Cadena lineal
Cadena multilínea
Polígono
Multipolígono
has_coordin booleano Para campos geoespaciales, esta
ate_ system propiedad define si este campo tiene una
coordenada sistema
coordinate_ string En campos geoespaciales, esta propiedad
system con clave define el sistema de
coordenadas para este campo.
Date / MeasureType.DATE
Timestamp /
MeasureType.TIMESTAMP
List / MeasureType.LIST
custom_list String / MeasureType.STRING Para campos de lista, esta propiedad
_ con clave especifica el tipo de
storage_typ Integer / MeasureType.INTEGER almacenamiento de los valores
e subyacentes.
Real / MeasureType.REAL
Time / MeasureType.TIME
Date / MeasureType.DATE
Timestamp /
MeasureType.TIMESTAMP
custom_list entero Para campos de lista, esta propiedad
_depth con clave especifica la profundidad del
campo.
max_list_le entero Solo está disponible para datos con
ngth un nivel de medición de Geoespacial o
Colección. Establezca la longitud máxima
de la lista especificando el número de
elementos que puede contener la lista.
max_string_ entero Solo está disponible para datos sin tipos
length y se utiliza al generar SQL para crear una
tabla. Entre el valor de la serie más larga
en los datos; esto genera una columna en
la tabla que es lo suficientemente grande
para contener la serie.
PNG
HTML
output (.cou)
full_filename string Especifica la ruta de destino y el nombre de
archivo del resultado generado por el nodo de
gráficos.
use_graph_size marca Controla si el tamaño del gráfico se ha
establecido de manera explícita mediante las
propiedades de ancho y altura a continuación.
Afecta solamente a los gráficos que tienen
salida a pantalla. No disponible para el nodo
Distribución.
graph_width number Cuando use_graph_size es True, establece el
ancho del gráfico en píxeles.
graph_height number Cuando use_graph_size es True, establece la
altura del gráfico en píxeles.
plotnode.setPropertyValue("color_field", "")
Especificación de colores
Los colores de los títulos, pies, fondos y etiquetas se pueden especificar mediante las cadenas
hexadecimales que comiencen con el símbolo almohadilla (#). Por ejemplo, para establecer el fondo
del gráfico en cielo azul, debe utilizar la siguiente instrucción:
mygraphnode.setPropertyValue("graph_background", "#87CEEB")
Aquí, los dos primeros dígitos, 87, especifican el contenido rojo, los dos del medio, CE, especifican el
contenido verde y los dos últimos, EB, el contenido azul. Cada dígito puede tomar un valor del rango 0-9 o
A-F. Juntos, estos valores pueden especificar red-green-blue, o RGB o color.
Nota: Al especificar colores en RVA, puede utilizar el selector de campos en la interfaz de usuario para
determinar el código de color correcto. Basta con colocarse sobre el color para ver un texto con la
información deseada.
Propiedades de collectionnode
El nodo Colección muestra la distribución de valores de un campo numérico relativo
a los valores de otro. (Crea gráficos parecidos a los histogramas.) Es útil para ilustrar
una variable o un campo cuyos valores cambian con el tiempo. Con los gráficos 3D
también puede incluir un eje simbólico que muestra las distribuciones por categoría.
Ejemplo
Media
Mín
Máx
SDev
color_field string
panel_field string
animation_field string
range_mode Automatic
UserDefined
range_min number
range_max number
bins ByNumber
ByWidth
num_bins number
bin_width number
use_grid marca
graph_background color Al principio de esta sección se describen los
colores de gráficos estándar.
page_background color Al principio de esta sección se describen los
colores de gráficos estándar.
Propiedades de distributionnode
El nodo Distribución muestra las instancias de valores simbólicos (categóricos),
como el tipo de hipoteca o el género. Normalmente, podría usar el nodo Distribución
para mostrar los desequilibrios de los datos, que pueden rectificarse mediante el
nodo Equilibrar antes de crear un modelo.
Ejemplo
Flags
x_field campo
color_field campo Campo de superposición.
normalize marca
sort_mode ByOccurence
Alphabetic
use_proportional_scale marca
Propiedades de evaluationnode
El nodo Evaluación ayuda a evaluar y comparar modelos predictivos. El diagrama de
evaluación muestra la calidad con que los modelos predicen resultados particulares.
Ordena registros en función del valor predicho y la confianza de la predicción. Divide
el registro en grupos de igual tamaño (cuantiles) y, a continuación, representa
el valor del criterio de negocio de cada cuantil de mayor a menor. Los diversos
modelos se muestran como líneas separadas en el gráfico.
Ejemplo
inc_baseline tag
field_detection_method Metadata
Name
use_fixed_cost tag
cost_value number
cost_field cadena
use_fixed_revenue tag
revenue_value number
revenue_field cadena
use_fixed_weight tag
weight_value number
weight_field campo
n_tile Quartiles
Quintles
Deciles
Vingtiles
Percentiles
1000-tiles
cumulative tag
style Line
Point
export_data marca
data_filename string
delimiter string
new_line marca
inc_field_names marca
inc_best_line tag
inc_business_rule tag
business_rule_condition cadena
plot_score_fields tag
score_fields [field1 ... campoN]
target_field campo
use_hit_condition tag
hit_condition cadena
use_score_expression tag
score_expression cadena
caption_auto tag
Propiedades de graphboardnode
El nodo Tablero ofrece muchos tipos diferentes de gráficos en un único nodo.
Con este nodo puede seleccionar los campos de datos que desee explorar y
seleccionar un gráfico de los disponibles para los datos seleccionados. El nodo
filtra automáticamente cualquier tipo de gráfico que no sea compatible con las
selecciones de campo.
Nota: Si establece una propiedad que no es válida para el tipo de gráfico (por ejemplo, si especifica
y_field para un histograma), se ignora dicha propiedad.
3DArea
3DBar
3DDensity
3DHistogram
3DPie
3DScatterplot
Área
ArrowMap
Bar
BarCounts
BarCountsMap
BarMap
BinnedScatter
Diagramas de caja
Bubble
ChoroplethMeans
ChoroplethMedians
ChoroplethSums
ChoroplethValues
CoordinateMap
CoordinateChoroplethMeans
CoordinateChoroplethMedians
CoordinateChoroplethSums
CoordinateChoroplethValues
CoordinateChoroplethCounts
Dotplot
Heatmap
HexBinScatter
Histograma
Line
LineChartMap
LineOverlayMap
Parallel
Path
Pie
PieCountMap
PieCounts
PieMap
PolygonOverlayMap
Ribbon
Scatterplot
SPLOM
Surface
x_field campo Especifica una etiqueta
personalizada para el eje x.
Disponible solamente para etiquetas.
y_field campo Especifica una etiqueta
personalizada para el eje y.
Disponible solamente para etiquetas.
z_field campo Se utiliza en algunos gráficos 3D.
color_field campo Se utiliza en mapas de calor.
size_field campo Se utiliza en gráficos de burbujas.
categories_fiel campo
d
values_field campo
rows_field campo
columns_field campo
campos campo
start_longitude campo Se utiliza con flechas en un mapa de
_field referencia.
end_longitude_f campo
ield
start_latitude_ campo
field
end_latitude_fi campo
eld
data_key_field campo Se utiliza en diversos mapas.
panelrow_field string
panelcol_field string
animation_field string
Propiedades de histogramnode
El nodo Histograma muestra las instancias de valores de los campos numéricos. Se
suele utilizar para explorar los datos antes de las manipulaciones y la generación de
modelos. Al igual que con el nodo Distribución, con frecuencia el nodo Histograma
detecta desequilibrios en los datos.
Ejemplo
UserDefined
range_min number
range_max number
bins ByNumber
ByWidth
num_bins number
bin_width number
normalize marca
Propiedades de mapvisualization
El nodo Visualización de mapas puede aceptar varias conexiones de entrada y
visualizar datos geoespaciales en un mapa como una serie de capas. Cada capa
es un único campo geoespacial; por ejemplo, la capa base podría ser el mapa de un
país, y por encima puede tener una capa de carreteras, una capa de ríos y una capa
de ciudades.
Propiedades de multiplotnode
El nodo G. múltiple crea un gráfico que muestra varios campos Y sobre un campo
X único. Los campos Y están representados como líneas coloreadas; cada uno
equivale a un nodo Gráfico con el estilo establecido en Línea y el Modo para X
establecido en Ordenar. Los gráficos múltiples son útiles cuando quiere explorar la
fluctuación de varias variables a través del tiempo.
Ejemplo
PlotSample
PlotAll
x_label_auto marca
x_label string
y_label_auto marca
y_label string
use_grid marca
graph_background color Al principio de esta sección se describen los
colores de gráficos estándar.
page_background color Al principio de esta sección se describen los
colores de gráficos estándar.
Propiedades de plotnode
El nodo Gráfico muestra la relación entre los campos numéricos. Puede crear un
gráfico mediante puntos (un diagrama de dispersión) o líneas.
Ejemplo
Función
overlay_expression string Especifica la expresión utilizada cuando
overlay_type se establece en Function.
style Point
Line
x_mode Ordenar
Overlay
AsRead
x_range_mode Automatic
UserDefined
x_range_min number
x_range_max number
y_range_mode Automatic
UserDefined
y_range_min number
y_range_max number
z_range_mode Automatic
UserDefined
z_range_min number
z_range_max number
jitter marca
records_limit number
if_over_limit PlotBins
PlotSample
PlotAll
Propiedades de timeplotnode
El nodo Gráfico de tiempo muestra uno o más conjuntos de datos de series
temporales. Normalmente, primero se utilizaría un nodo Intervalos de tiempo para
crear un campo EtiquetaTiempo, que se utilizaría para etiquetar el eje x.
Ejemplo
Models
use_custom_x_field marca
x_field campo
y_fields lista
panel marca
normalize marca
line marca
Vertical
Propiedades eplotnode
El nodo Gráfico electrónico (Beta) muestra la relación entre campos numéricos. Es
similar al nodo Gráfico, pero sus opciones difieren y su salida utiliza una nueva
interfaz de gráficos específica a este nodo. Utilice el nodo de nivel beta para probar
las nuevas características de gráficos.
Propiedades tsnenode
Propiedades de webnode
El nodo Malla muestra la fuerza de las relaciones entre los valores de dos o más
campos simbólicos (categóricos). El gráfico utiliza líneas de varios anchos para
indicar la fuerza de la conexión. Podría utilizar un nodo Malla, por ejemplo, para
explorar las relaciones existentes entre la compra de un conjunto de elementos en
un sitio de comercio electrónico.
Ejemplo
OverallPct
PctLarger
PctSmaller
strong_links_heavier marca
num_links ShowMaximum
ShowLinksAbove
ShowAll
max_num_links number
links_above number
discard_links_min marca
links_min_records number
discard_links_max marca
links_max_records number
weak_below number
strong_above number
link_size_continuous marca
web_display Circular
Network
Directed
Cuadrícula
graph_background color Al principio de esta sección se describen los
colores de gráficos estándar.
symbol_size number Especifica el tamaño del símbolo.
Expert
propiedades de anomalydetectionnode
El nodo Detección de anomalías identifica casos extraños, o valores atípicos, que
no se ajustan a patrones de datos “normales”. Con este nodo, es posible identificar
valores atípicos aunque no se ajusten a ningún patrón previamente conocido o no se
realice una búsqueda exacta.
Ejemplo
Simple
anomaly_method IndexLevel Especifica el método utilizado para
determinar el valor de corte para
PerRecords marcar los registros como anómalos.
NumRecords
index_level number Especifica el valor de corte mínimo
con el que se van a marcar
anomalías.
percent_records number Establece el umbral para marcar
registros de acuerdo al porcentaje
de registros en los datos de
entrenamiento.
Propiedades de apriorinode
El nodo Apriori extrae un conjunto de reglas de los datos y destaca aquellas reglas
con un mayor contenido de información. Apriori ofrece cinco métodos diferentes
para la selección de reglas y utiliza un sofisticado esquema de indización para
procesar eficientemente grandes conjuntos de datos. En los problemas de mucho
volumen, Apriori se entrena más rápidamente, no tiene un límite arbitrario para el
número de reglas que puede retener y puede gestionar reglas que tengan hasta
32 precondiciones. Apriori requiere que todos los campos de entrada y salida sean
categóricos, pero ofrece un mejor rendimiento ya que está optimizado para este tipo
de datos.
Memory
use_transactional_data marca Cuando el valor es true, la puntuación
para cada ID de transacción es
independiente de otros ID de transacción.
Cuando los datos que se van a puntuar
son demasiado grandes para obtener un
rendimiento aceptable, se recomienda
separar los datos.
contiguous marca
Expert
evaluación RuleConfidence
DifferenceToPrior
ConfidenceRatio
InformationDifferenc
e
NormalizedChiSquare
lower_bound number
optimize Speed Se utiliza para especificar si la generación
del modelo se debe optimizar para la
Memory velocidad o la memoria.
propiedades associationrulesnode
El nodo Reglas de asociación es parecido al nodo Apriori; sin embargo, a diferencia
de Apriori, el nodo Reglas de asociación puede procesar datos de lista. Además,
el nodo Reglas de asociación se puede utilizar con IBM SPSS Analytic Server para
procesar big data y aprovechar el procesamiento paralelo.
Lift
Conditionsupport
Capacidad de
despliegue
true_flags Booleana Establecer en Y determina que sólo se
considerarán los valores verdaderos para
campos de distintivo durante la generación
de la regla.
rule_criterion Booleana Establecer en Y determina que los valores
del criterio de regla se utilizan para excluir
reglas durante la generación de modelos.
min_confidence number 0,1 a 100 - el valor de porcentaje para el
nivel de confianza mínimo necesario para
una regla producida por el modelo. Si el
modelo genera una regla con un nivel de
confianza inferior al valor especificado aquí,
la regla se descarta.
min_rule_support number 0,1 a 100 - el valor de porcentaje para el
soporte de regla mínimo necesario para una
regla producida por el modelo. Si el modelo
genera una regla con un nivel de soporte de
regla inferior al valor especificado, la regla
se descarta.
min_condition_support number 0,1 a 100 - el valor de porcentaje para
el soporte de condición mínima necesaria
para una regla producida por el modelo. Si
el modelo genera una regla con un nivel
de soporte de condición inferior al valor
especificado, la regla se descarta.
min_lift entero 1 a 10 – representa la elevación mínima
necesaria para una regla producida por el
modelo. Si el modelo genera una regla
con un nivel de elevación inferior al valor
especificado, la regla se descarta.
Rulesupport
Lift
Conditionsupport
Capacidad de
despliegue
word_cloud_display entero Mínimo 1, máximo 20.
max_predictions entero El número máximo de reglas que se pueden
aplicar a cada entrada de la puntuación.
criterio Confianza Seleccione la medida utilizada para
determinar la fuerza de las reglas.
Rulesupport
Lift
Conditionsupport
Capacidad de
despliegue
allow_repeats Booleana Determine si las reglas con la misma
predicción se incluyen en la puntuación.
check_input NoPredictions
Predictions
NoCheck
propiedades de autoclassifiernode
El nodo Clasificador automático crea y compara varios modelos diferentes para
obtener resultados binarios (sí o no, abandono o no de clientes, etc.), lo que
le permite seleccionar el mejor enfoque para un análisis determinado. Son
compatibles varios algoritmos de modelado, por lo que es posible seleccionar los
métodos que desee utilizar, las opciones específicas para cada uno y los criterios
para comparar los resultados. El nodo genera un conjunto de modelos basado en las
opciones especificadas y clasifica los mejores candidatos en función de los criterios
que especifique.
Ejemplo
Area_under_curve
Profit
Lift
Num_variables
ranking_dataset Entrenamiento
Test
number_of_models entero Número de modelos que se
incluirán en el nugget de modelo.
Especifique un entero entre 1 y
100.
calculate_variable_importance marca
enable_accuracy_limit marca
accuracy_limit entero Entero entre 0 y 100.
enable_ area_under_curve marca
_limit
area_under_curve_limit number Número real entre 0,0 y 1,0.
enable_profit_limit marca
profit_limit number Entero mayor que 0.
enable_lift_limit marca
lift_limit number Número real mayor que 1,0.
enable_number_of_variables_lim marca
it
Por ejemplo:
node.setPropertyValue("chaid", True)
Nota: En los casos en los que determinadas opciones de algoritmos no están disponibles en el nodo
Clasificador automático o cuando sólo se puede especificar un único valor, en lugar de un intervalo de
valores, se aplican los mismos límites que tienen los scripts cuando se accede al nodo de la manera
estándar.
Ejemplo
ranking_measure Silhouette
Num_clusters
Size_smallest_cluster
Size_largest_cluster
Smallest_to_largest
Importance
ranking_dataset Entrenamiento
Test
summary_limit entero Número de modelos que se incluirán
en el informe. Especifique un entero
entre 1 y 100.
enable_silhouette_limit marca
silhouette_limit entero Entero entre 0 y 100.
enable_number_less_limit marca
number_less_limit number Número real entre 0,0 y 1,0.
enable_number_greater_li marca
mit
number_greater_limit number Entero mayor que 0.
enable_smallest_cluster_ marca
limit
smallest_cluster_units Percentage
Counts
smallest_cluster_limit_p number
ercentage
smallest_cluster_limit_c entero Entero mayor que 0.
ount
Counts
largest_cluster_limit_pe number
rcentage
largest_cluster_limit_co entero
unt
enable_smallest_largest_ marca
limit
smallest_largest_limit number
enable_importance_limit marca
importance_limit_conditi Greater_than
on
Less_than
importance_limit_greater number Entero entre 0 y 100.
_than
importance_limit_less_th number Entero entre 0 y 100.
an
<algorithm> marca Activa o desactiva el uso de un
determinado algoritmo.
<algorithm>.<property> string Define un valor de propiedad para un
algoritmo específico. Consulte el tema
“Propiedades de ajustes de algoritmo”
en la página 230 para obtener más
información.
propiedades de autonumericnode
El nodo Autonumérico calcula y compara modelos para resultados de rango
numérico continuo utilizando cierto número de métodos diferentes. El nodo
funciona de la misma manera que el nodo Clasificador automático, lo que le
permite seleccionar los algoritmos que desee utilizar y experimentar con varias
combinaciones de opciones en una única pasada de modelado. Los algoritmos
admitidos incluyen redes neuronales, C&RT, CHAID, regresión lineal, regresión lineal
generalizada y máquinas de vectores de soporte (SVM). Los modelos se pueden
comparar basándose en la correlación, el error relativo o el número de variables
utilizado.
Ejemplo
NumberOfFields
ranking_dataset Test
Entrenamiento
number_of_models entero Número de modelos que se incluirán
en el nugget de modelo. Especifique
un entero entre 1 y 100.
calculate_variable_impor marca
tance
enable_correlation_limit marca
correlation_limit entero
enable_number_of_fields_ marca
limit
number_of_fields_limit entero
Propiedades de bayesnetnode
El nodo Red bayesiana le permite crear un modelo de probabilidad combinando
pruebas observadas y registradas con conocimiento del mundo real para establecer
la probabilidad de instancias. El nodo se centra en las redes Naïve Bayes aumentado
a árbol (TAN) y de manto de Markov que se utilizan principalmente para la
clasificación.
Ejemplo
Simple
missing_values marca
all_probabilities marca
independence Likelihood Especifica el método utilizado para
determinar si las observaciones
Pearson relacionadas de dos variables son
independientes entre sí.
significance_level number Especifica el valor de corte para
determinar la independencia.
maximal_conditioning_set number Establece el número máximo de
variables de condición que se
utilizarán para la comprobación de la
independencia.
inputs_always_selected [field1 ... campoN] Especifica qué campos del conjunto
de datos se deben utilizar siempre al
generar la red bayesiana.
Ejemplo
propiedades de c50node
El nodo C5.0 genera un árbol de decisión o un conjunto de reglas. El modelo divide
la muestra basándose en el campo que ofrece la máxima ganancia de información
en cada nivel. El campo objetivo debe ser categórico. Se permiten varias divisiones
en más de dos subgrupos.
RuleSet
group_symbolics marca
use_boost marca
boost_num_trials number
use_xval marca
xval_num_folds number
mode Simple
Expert
favor Accuracy Generalización o precisión de favor.
Generality
expected_noise number
min_child_records number
pruning_severity number
use_costs marca
costes estructurado This is a structured property.
use_winnowing marca
use_global_pruning marca Activado (True) de forma
predeterminada.
propiedades de carmanode
El modelo CARMA extrae un conjunto de reglas de los datos sin necesidad de
especificar campos de entrada ni de objetivo. A diferencia de Apriori el nodo CARMA
ofrece configuraciones de generación basadas en el soporte de las reglas (soporte
tanto para el antecedente como el consecuente) en lugar de hacerlo sólo respecto al
soporte del antecedente. Esto significa que las reglas generadas se pueden utilizar
en una gama de aplicaciones más amplia, por ejemplo, para buscar una lista de
productos o servicios (antecedentes) cuyo consecuente es el elemento que se
desea promocionar durante esta temporada de vacaciones.
Ejemplo
Expert
exclude_multiple marca Excluye las reglas con varios
consecuentes. El valor predeterminado
es False.
use_pruning marca El valor predeterminado es False.
pruning_value number El valor predeterminado es 500.
vary_support marca
estimated_transactions entero
rules_without_antecedent marca
s
propiedades de cartnode
El nodo de árbol de clasificación y regresión (C&R) genera un árbol de decisión que
permite predecir o clasificar observaciones futuras. El método utiliza la partición
reiterada para dividir los registros de entrenamiento en segmentos minimizando las
impurezas en cada paso, donde un nodo se considera “puro” si el 100% de los
casos del nodo corresponden a una categoría específica del campo objetivo. Los
campos de entrada y objetivo pueden ser continuos (rango numérico) o categóricos
(nominal, ordinal o marca). Todas las divisiones son binarias (sólo se crean dos
subgrupos).
Agregación
autodocimante
psm
model_output_type Single
InteractiveBuilder
use_tree_directives marca
use_max_depth Predeterminado
Custom
max_depth entero Máxima profundidad del árbol, desde
0 a 1000. Sólo se utiliza si
use_max_depth = Custom.
prune_tree marca Poda del árbol para evitar
sobreajustes.
use_std_err marca Use la diferencia máxima en riesgos
(en errores estándar).
std_err_multiplier number Diferencia máxima.
max_surrogates number Número máximo de sustitutos.
use_percentage marca
min_parent_records_pc number
min_child_records_pc number
min_parent_records_abs number
min_child_records_abs number
use_costs marca
costes estructurado Propiedad estructurada.
priors Datos
Equal
Custom
custom_priors estructurado Propiedad estructurada.
adjust_priors marca
trails number Número de modelos de componente
para un aumento o agregación
autodocimante.
HighestMeanProbabilit
y
range_ensemble_method Media Regla de combinación predeterminada
para objetivos continuos.
Mediana
large_boost marca Aplicar aumento a conjunto de datos
muy grandes.
min_impurity number
impurity_measure Gini
Twoing
Ordered
train_pct number Conjunto de prevención sobreajustado.
set_random_seed marca Opción replicar resultados.
seed number
calculate_variable_impor marca
tance
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
adjusted_propensity_part Test
ition
Validation
propiedades de chaidnode
El nodo CHAID genera árboles de decisión utilizando estadísticos de chi-cuadrado
para identificar las divisiones óptimas. A diferencia de los nodos C&RT y Árbol
y QUEST, CHAID puede generar árboles no binarios, lo que significa que algunas
divisiones generarán más de dos ramas. Los campos de entrada y objetivo
pueden ser continuos (rango numérico) o categóricos. CHAID exhaustivo es una
modificación de CHAID que examina con mayor precisión todas las divisiones
posibles, aunque necesita más tiempo para realizar los cálculos.
Ejemplo
node.setPropertyValue("custom_fields", True)
node.setPropertyValue("target", "Drug")
node.setPropertyValue("inputs", ["Age", "Na", "K", "Cholesterol", "BP"])
node.setPropertyValue("use_model_name", True)
node.setPropertyValue("model_name", "CHAID")
node.setPropertyValue("method", "Chaid")
node.setPropertyValue("model_output_type", "InteractiveBuilder")
node.setPropertyValue("use_tree_directives", True)
node.setPropertyValue("tree_directives", "Test")
node.setPropertyValue("split_alpha", 0.03)
node.setPropertyValue("merge_alpha", 0.04)
node.setPropertyValue("chi_square", "Pearson")
node.setPropertyValue("use_percentage", False)
node.setPropertyValue("min_parent_records_abs", 40)
node.setPropertyValue("min_child_records_abs", 30)
node.setPropertyValue("epsilon", 0.003)
node.setPropertyValue("max_iterations", 75)
node.setPropertyValue("split_merged_categories", True)
node.setPropertyValue("bonferroni_adjustment", True)
Agregación
autodocimante
psm
model_output_type Single
InteractiveBuilder
use_tree_directives marca
tree_directives string
method Chaid
ExhaustiveChaid
use_max_depth Predeterminado
Custom
HighestMeanProbabilit
y
range_ensemble_method Media Regla de combinación predeterminada
para objetivos continuos.
Mediana
large_boost marca Aplicar aumento a conjunto de datos
muy grandes.
split_alpha number Nivel de significancia para división.
merge_alpha number Nivel de significancia para fusión.
bonferroni_adjustment marca Los valores de significancia de ajuste
utilizando el método de Bonferroni.
split_merged_categories marca Permitir segunda división de categorías
fusionadas.
chi_square Pearson Método usado para calcular la
estadística de chi cuadrado: Pearson o
LR Razón de verosimilitud
propiedades de coxregnode
El nodo Regresión de Cox le permite crear un modelo de supervivencia para datos
de tiempo hasta el evento en presencia de registros censurados. El modelo produce
una función de supervivencia que predice la probabilidad de que el evento de
interés se haya producido en el momento dado (t) para valores determinados de
las variables de entrada.
Ejemplo
Stepwise
BackwardsStepwise
grupos campo
Custom
custom_terms ["BP*Sexo" "BP*Edad"]
mode Expert
Simple
max_iterations number
p_converge 1.0E-4
1.0E-5
1.0E-6
1.0E-7
1.0E-8
0
p_converge 1.0E-4
1.0E-5
1.0E-6
1.0E-7
1.0E-8
0
l_converge 1.0E-1
1.0E-2
1.0E-3
1.0E-4
1.0E-5
Wald
Conditional
probability_entry number
probability_removal number
output_display EachStep
LastStep
ci_enable marca
ci_value 90
95
99
correlación marca
display_baseline marca
survival marca
hazard marca
log_minus_log marca
one_minus_survival marca
separate_line campo
value número o cadena Si no se especifica ningún valor para
un campo, se utilizará la opción
predeterminada "Mean" para dicho
campo.
Propiedades de decisionlistnode
El nodo Lista de decisiones identifica subgrupos, o segmentos, que muestran
una mayor o menor posibilidad de proporcionar un resultado binario relacionado
con la población global. Por ejemplo, puede buscar clientes que tengan menos
posibilidades de abandonar o más posibilidades de responder favorablemente a una
campaña. Puede incorporar su conocimiento empresarial al modelo añadiendo sus
propios segmentos personalizados y previsualizando modelos alternativos uno junto
a otro para comparar los resultados. Los modelos de listas de decisiones constan
de una lista de reglas en las que cada regla tiene una condición y un resultado. Las
reglas se aplican en orden, y la primera regla que coincide determina el resultado.
Ejemplo
InteractiveBuilder
search_direction Up Hace referencia a la localización
de segmentos, donde Up es el
Down equivalente a Alta probabilidad y Down
es el equivalente a Baja probabilidad.
target_value string Si no se especifica, se supondrá el
valor true para las marcas.
max_rules entero Número máximo de segmentos sin
incluir el resto.
min_group_size entero Tamaño mínimo del segmento.
min_group_size_pct number Tamaño mínimo del segmento como
porcentaje.
confidence_level number Umbral mínimo que un campo
de entrada tiene que mejorar
la probabilidad de la respuesta
(aumentar la elevación) para que
merezca la pena añadirlo a la
definición de un segmento.
max_segments_per_rule entero
mode Simple
Expert
bin_method EqualWidth
EqualCount
bin_count number
max_models_per_cycle entero Amplitud de búsqueda de las listas.
max_rules_per_cycle entero Amplitud de búsqueda de las reglas de
segmentación.
segment_growth number
propiedades de discriminantnode
El análisis discriminante realiza más supuestos rigurosos que regresiones logísticas,
pero puede ser una alternativa o un suplemento valioso al análisis de regresión
logística si se cumplen dichos supuestos.
Ejemplo
Stepwise
mode Simple
Expert
ComputeFromSizes
covariance_matrix WithinGroups
SeparateGroups
means marca Opciones de estadísticos del cuadro de
diálogo Salida avanzada.
univariate_anovas marca
box_m marca
within_group_covariance marca
within_groups_correlatio marca
n
separate_groups_covarian marca
ce
total_covariance marca
fishers marca
unstandardized marca
casewise_results marca Opciones de clasificación del cuadro
de diálogo Salida avanzada.
limit_to_first number El valor predeterminado es 10.
summary_table marca
leave_one_classification marca
combined_groups marca
separate_groups_covarian marca Opción de matrices Covarianza de
ce grupos separados.
territorial_map marca
combined_groups marca Opción de gráfico Grupos
combinados.
separate_groups marca Opción de gráfico Grupos separados.
summary_of_steps marca
F_pairwise marca
UnexplainedVariance
MahalanobisDistance
SmallestF
RaosV
V_to_enter number
criteria UseValue
UseProbability
F_value_entry number El valor predeterminado es 3.84.
F_value_removal number El valor predeterminado es 2.71.
probability_entry number El valor predeterminado es 0.05.
probability_removal number El valor predeterminado es 0,10.
calculate_variable_impor marca
tance
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
adjusted_propensity_part Test
ition
Validation
Propiedades de extensionmodelnode
build_script = """
import json
import spss.pyspark.runtime
cxt = spss.pyspark.runtime.getContext()
df = cxt.getSparkInputData()
schema = df.dtypes[:]
target = "Drug"
predictors = ["Age","BP","Sex","Cholesterol","Na","K"]
def metaMap(row,schema):
col = 0
meta = []
for (cname, ctype) in schema:
if ctype == 'string':
meta.append(set([row[col]]))
else:
meta.append((row[col],row[col]))
col += 1
return meta
def metaReduce(meta1,meta2,schema):
col = 0
meta = []
for (cname, ctype) in schema:
if ctype == 'string':
meta.append(meta1[col].union(meta2[col]))
else:
meta.append((min(meta1[col][0],meta2[col][0]),max(meta1[col][1],meta2[col][1])))
col += 1
return meta
def setToList(v):
if isinstance(v,set):
return list(v)
return v
lookup = {}
for i in range(0,len(schema)):
lookup[schema[i][0]] = i
def row2LabeledPoint(dm,lookup,target,predictors,row):
target_index = lookup[target]
tval = dm[target_index].index(row[target_index])
pvals = []
for predictor in predictors:
predictor_index = lookup[predictor]
if isinstance(dm[predictor_index],list):
pval = dm[predictor_index].index(row[predictor_index])
else:
pval = row[predictor_index]
pvals.append(pval)
return LabeledPoint(tval,DenseVector(pvals))
treeModel = DecisionTree.trainClassifier(
lps,
numClasses=predictorClassCount,
categoricalFeaturesInfo=getCategoricalFeatureInfo(metadata, lookup, predictors),
impurity='gini',
maxDepth=5,
_outputPath = cxt.createTemporaryFolder()
treeModel.save(cxt.getSparkContext(), _outputPath)
cxt.setModelContentFromPath("TreeModel", _outputPath)
cxt.setModelContentFromString("model.dm",json.dumps(metadata), mimeType="application/json")\
.setModelContentFromString("model.structure",treeModel.toDebugString())
"""
node.setPropertyValue("python_build_syntax", build_script)
Ejemplo de R
#### Ejemplo de script de R
node.setPropertyValue("syntax_type", "R")
node.setPropertyValue("r_build_syntax", """modelerModel <-
lm(modelerData$Na~modelerData$K,modelerData)
modelerDataModel
modelerModel
""")
Ejemplo
ULS
GLS
ML
PAF
Alpha
Image
mode Simple
Expert
max_iterations number
complete_records marca
matrix Correlation
Covariance
extract_factors ByEigenvalues
ByFactors
min_eigenvalue number
max_factor number
rotation Ninguno
Varimax
DirectOblimin
Equamax
Quartimax
Promax
delta number Si selecciona DirectOblimin como
el tipo de datos de rotación, podrá
especificar un valor para delta.
propiedades de featureselectionnode
El nodo Selección de características filtra los campos de entrada para su eliminación
en función de un conjunto de criterios (como el porcentaje de valores perdidos);
a continuación, clasifica el grado de importancia del resto de entradas de acuerdo
con un objetivo específico. Por ejemplo, a partir de un conjunto de datos dado con
cientos de entradas potenciales, ¿cuáles tienen mayor probabilidad de ser útiles
para el modelado de resultados de pacientes?
Ejemplo
Para obtener un ejemplo más detallado que cree y aplique un modelo de Selección de características,
consulte en.
Lambda
unimportant_below number Especifica los valores p de umbral
utilizados para clasificar las variables
como importantes, marginales o sin
importancia. Acepta valores de 0,0 a
1,0.
important_above number Acepta valores de 0,0 a 1,0.
ImportanceValue
TopN
select_important marca Si selection_mode se establece
en ImportanceLevel, determina
si se seleccionan los campos
importantes.
select_marginal marca Si selection_mode se establece
en ImportanceLevel, determina
si se seleccionan los campos
marginales.
select_unimportant marca Si selection_mode se establece
en ImportanceLevel, determina
si se seleccionan los campos sin
importancia.
importance_value number Si selection_mode se establece
en ImportanceValue, determina el
valor de corte que se va a usar.
Acepta valores de 0 a 100.
top_n entero Si selection_mode se establece
en TopN, determina el valor de corte
que se va a usar. Acepta valores de 0
a 1000.
propiedades de genlinnode
El modelo lineal generalizado amplía el modelo lineal general, de manera que la
variable dependiente está relacionada linealmente con los factores y las covariables
mediante una determinada función de enlace. Además, el modelo permite que la
variable dependiente tenga una distribución no normal. Cubre la funcionalidad de
un amplio número de modelo estadísticos, incluyendo regresión lineal, regresión
logística, modelos log lineales para recuento de datos y modelos de supervivencia
censurados por intervalos.
Ejemplo
FixedValue
trials_field campo El tipo de campo es continuo, marca u
ordinal.
trials_number number El valor predeterminado es 10.
model_type MainEffects
MainAndAllTwoWayEffec
ts
offset_type Variable
FixedValue
offset_field campo El tipo de campo es únicamente
continuo.
offset_value number Debe ser un número real.
base_category Last
Primero
include_intercept marca
mode Simple
Expert
IGAUSS
NEGBIN
NORMAL
POISSON
TWEEDIE
MULTINOMIAL
negbin_para_type Especifica
Estimate
negbin_parameter number El valor predeterminado es 1. Debe
contener un número real no negativo.
tweedie_parameter number
CUMCAUCHIT
CUMCLOGLOG
CUMLOGIT
CUMNLOGLOG
CUMPROBIT
power number El valor debe ser real y distinto de
cero.
method Hybrid
Fisher
NewtonRaphson
max_fisher_iterations number El valor predeterminado es 1; sólo se
admiten enteros positivos.
scale_method MaxLikelihoodEstimate
Deviance
PearsonChiSquare
FixedValue
RobustEstimator
max_iterations number El valor predeterminado es 100; sólo
enteros no negativos.
max_step_halving number El valor predeterminado es 5; sólo
enteros positivos.
check_separation marca
start_iteration number El valor predeterminado es 20; sólo se
admiten enteros positivos.
estimates_change marca
estimates_change_min number El valor predeterminado es 1E-006;
sólo se admiten números positivos.
estimates_change_type Absolute
Relative
loglikelihood_change marca
loglikelihood_change_min number Sólo se admiten números positivos.
loglikelihood_change_typ Absolute
e
Relative
hessian_convergence marca
hessian_convergence_min number Sólo se admiten números positivos.
hessian_convergence_type Absolute
Relative
case_summary marca
contrast_matrices marca
descriptive_statistics marca
estimable_functions marca
model_info marca
iteration_history marca
goodness_of_fit marca
print_interval number El valor predeterminado es 1; debe ser
un entero positivo.
model_summary marca
TypeIII
TypeIAndTypeIII
statistics Wald
LR
citype Wald
Profile
tolerancelevel number El valor predeterminado es 0.0001.
confidence_interval number El valor predeterminado es 95.
loglikelihood_function Completa
Kernel
singularity_tolerance 1E-007
1E-008
1E-009
1E-010
1E-011
1E-012
value_order Ascending
Descending
DataOrder
calculate_variable_impor marca
tance
calculate_raw_propensiti marca
es
Propiedades de glmmnode
Un modelo lineal mixto generalizado (GLMM) amplía el modelo lineal de modo que
el objetivo pueda tener una distribución no normal, esté linealmente relacionado
con los factores y covariables mediante una función de enlace especificada y las
observaciones se puedan correlacionar. Los modelos lineales mixtos generalizados
cubren una amplia variedad de modelos, desde modelos de regresión lineal simple
hasta modelos multinivel complejos para datos longitudinales no normales.
ARMA11
COMPOUND_SYMMETRY
IDENTITY
TOEPLITZ
UNSTRUCTURED
VARIANCE_COMPONENTS
custom_target marca Indica si se puede utilizar un objetivo
definido en el nodo anterior (false) o
un objetivo personalizado especificado
por target_field (true).
BinomialLogit
PoissonLog
BinomialProbit
NegbinLog
BinomialLogC
Custom
Multinomial
Gamma
Inverso
NegativeBinomial
Poisson
link_function_type Identity Función de enlace para relacionar
valores
LogC de objetivo a los predictores.
Si target_distribution es
Log Binomial podrá utilizarse cualquiera
de las funciones de enlace listadas.
Si target_distribution es
CLOGLOG Multinomial podrán utilizarse
CLOGLOG, CAUCHIT, LOGIT,
Logit NLOGLOG o PROBIT.
Si target_distribution es
NLOGLOG cualquier cosa distinta de Binomial o
Multinomial podrán utilizarse
IDENTITY, LOG o POWER.
PROBIT
POWER
CAUCHIT
link_function_param number Valor del parámetro de función de
enlace que hay que utilizar. Sólo es
aplicable si normal_link_function
o link_function_type es POWER.
use_predefined_inputs marca Indica si los campos de efectos
fijos deben ser aquellos definidos
anteriormente como campos de
entrada (true) o han de ser
los campos fixed_effects_list
(false). El valor predeterminado es
false.
fixed_effects_list estructurado Si use_predefined_inputs es
falso, especifica los campos de
entrada que se han de utilizar como
campos de efectos fijos.
offset_field
offset_value number El valor que se ha de utilizar para
desplazamiento si use_offset se
establece en offset_value.
offset_field campo El valor que se ha de utilizar para
desplazamiento si use_offset se
establece en offset_field.
target_category_order Ascending Orden de clasificación para objetivos
categóricos. El valor Data especifica
Descending que se utiliza el orden de clasificación
de los datos. El valor predeterminado
es Ascending.
Datos
inputs_category_order Ascending Orden de clasificación para predictores
categóricos. El valor Data especifica
Descending que se utiliza el orden de clasificación
de los datos. El valor predeterminado
es Ascending.
Datos
max_iterations entero Número máximo de iteraciones
que ejecutará el algoritmo. Un
número entero no negativo; el valor
predeterminado es 100.
confidence_level entero Nivel de confianza utilizado para
calcular estimaciones de intervalo
de los coeficientes del modelo.
Un número entero no negativo; el
valor máximo es 100, el valor
predeterminado es 95.
degrees_of_freedom_metho Fixed Especifica cómo se calculan los
d grados de libertad para la prueba de
Varied significación.
max_fisher_steps entero
singularity_tolerance número
use_model_name marca Indica si hay que especificar un
nombre personalizado para el modelo
(true) o si se ha de utilizar el nombre
generado por el sistema false). El
valor predeterminado es false.
model_name string Si use_model_name es true,
especifica el nombre de modelo que se
va a utilizar.
confidence onProbability Base para calcular el valor de confianza
de la puntuación: probabilidad más
onIncrease alta predicha, o la diferencia entre la
probabilidad más alta predicha y la
segunda probabilidad más alta.
score_category_probabili marca Si es true, genera las probabilidades
ties predichas para objetivos categóricos.
El valor predeterminado es false.
max_categories entero Si
score_category_probabilities
es true, especifica el número máximo
de categorías que se han de guardar.
score_propensity marca Si es true, produce puntuaciones de
propensión para campos de objetivo de
marca que indican la probabilidad del
resultado "true" para el campo.
SEQSIDAK
Propiedades de gle
Un GLE amplía el modelo lineal de forma que el objetivo puede tener una
distribución no normal, está relacionado de forma lineal con los factores y las
covariables a través de una función de enlace especificada y las observaciones se
pueden correlacionar. Los modelos lineales mixtos generalizados cubren una amplia
variedad de modelos, desde modelos de regresión lineal simple hasta modelos
multinivel complejos para datos longitudinales no normales.
NegbinLog
TweedieIdentity
NominalLogit
BinomialLogit
BinomialProbit
BinomialLogC
CUSTOM
Multinomial
Gamma
INVERSE_GAUSS
NEG_BINOMIAL
Poisson
TWEEDIE
UNKNOWN
LOG
UNKNOWN
LOGIT
IDENTITY
PROBIT
LOG
COMPL_LOG_LOG
LOGIT
POWER
PROBIT
LOG_COMPL
COMPL_LOG_LOG
NEG_LOG_LOG
POWER
ODDS_POWER
LOG_COMPL
NEG_BINOMIAL
NEG_LOG_LOG
GEN_LOGIT
ODDS_POWER
CUMUL_LOGIT
Si target_distribution es
NEG_BINOMIAL puede utilizar:
CUMUL_PROBIT
NEG_BINOMIAL.
CUMUL_COMPL_LOG_L
OG
Si target_distribution es UNKNOWN,
puede utilizar:
CUMUL_NEG_LOG_LOG
GEN_LOGIT
CUMUL_CAUCHIT
CUMUL_LOGIT
CUMUL_PROBIT
CUMUL_COMPL_LOG_LOG
CUMUL_NEG_LOG_LOG
CUMUL_CAUCHIT
Variable
offset_value número El valor que se ha de utilizar para
desplazamiento si use_offset se establece
en offset_value.
offset_field campo El valor que se ha de utilizar para
desplazamiento si use_offset se establece
en offset_field.
target_category_order Ascending Orden de clasificación para objetivos
categóricos. El valor predeterminado es
Descending Ascending.
HYBRID
max_fisher_iterations entero Si se utiliza FISHER_SCORING
estimation_method, el número máximo
de iteraciones. Mínimo 0, máximo 20.
scale_parameter_method Especifique el método que se va a utilizar
MLE
FIXED para la estimación del parámetro de escala.
DEVIANCE
PEARSON_CHISQUARE
propiedades de kmeansnode
El nodo K-medias agrupa conjuntos de datos en grupos distintos (o clústeres). El
método define un número fijo de clústeres, de forma iterativa asigna registros a los
clústeres y ajusta los centros de los clústeres hasta que no se pueda mejorar el
modelo. En lugar de intentar predecir un resultado, los modelos de k-medias utilizan
un proceso conocido como aprendizaje no supervisado para revelar los patrones del
conjunto de campos de entrada.
Ejemplo
Number
label_prefix string
Expert
stop_on Predeterminado
Custom
max_iterations number
tolerance number
encoding_value number
optimize Speed Se utiliza para especificar si la
generación del modelo se debe
Memory optimizar para la velocidad o la
memoria.
Propiedades kmeansasnode
k-medias es uno de los algoritmos de agrupación en clúster utilizado con más
frecuencia. Agrupa en clúster puntos de datos en un número predefinido de
clústeres. El nodo K-Medias-AS en SPSS Modeler se implementa en Spark. Si desea
más detalles sobre algoritmos de k-medias, consulte https://spark.apache.org/docs/
2.2.0/ml-clustering.html. Tenga en cuenta que el nodo K-Medias-AS realiza una
codificación "one-hot" automáticamente para variables categóricas.
propiedades de knnnode
El nodo k de modelado de vecino (KNN) asocia el nuevo caso con la categoría o valor
de los objetos k junto a él en el espacio de predictores, donde k es un entero. Los
casos parecidos están próximos y los que no lo son están alejados entre sí.
Ejemplo
IdentifyNeighbors
objective Balance
Speed
Accuracy
Custom
normalize_ranges marca
use_case_labels marca Seleccione esta casilla de verificación
para activar la siguiente opción.
case_labels_field campo
identify_focal_cases marca Seleccione esta casilla de verificación
para activar la siguiente opción.
focal_cases_field campo
automatic_k_selection marca
fixed_k entero Se activa únicamente si el valor de
automatic_k_selection es False.
minimum_k entero Se activa únicamente si el valor de
automatic_k_selection es True.
maximum_k entero
distance_computation Euclidean
CityBlock
weight_by_importance marca
range_predictions Media
Mediana
perform_feature_selectio marca
n
forced_entry_inputs [field1 ... fieldN]
stop_on_error_ratio marca
number_to_select entero
minimum_change number
validation_fold_assign_b marca
y_field
propiedades de kohonennode
El nodo Kohonen genera un tipo de red neuronal que se puede usar para agrupar
un conjunto de datos en grupos distintos. Cuando la red se termina de entrenar,
los registros que son similares se deberían cerrar juntos en el mapa de resultados,
mientras que los registros que son diferentes aparecerían aparte. Puede observar el
número de observaciones capturadas por cada unidad en el nugget de modelo para
identificar unidades fuertes. Esto le proporcionará una idea del número apropiado
de clústeres.
Ejemplo
Hora
time number
optimize Speed Se utiliza para especificar si la
generación del modelo se debe
Memory optimizar para la velocidad o la
memoria.
cluster_label marca
mode Simple
Expert
width number
length number
decay_style Lineal
Exponential
phase1_neighborhood number
phase1_eta number
phase1_cycles number
phase2_neighborhood number
phase2_eta number
phase2_cycles number
Propiedades de linearnode
Los modelos de regresión lineal predicen un objetivo continuo tomando como base
las relaciones lineales entre el destino y uno o más predictores.
Ejemplo
Aumento
psm
use_auto_data_preparatio marca
n
confidence_level number
model_selection ForwardStepwise
BestSubsets
Ninguno
criteria_forward_stepwis AICC
e
Estadísticas F
R cuadrado corregido
ASE
probability_entry number
probability_removal number
use_max_effects marca
max_effects number
use_max_steps marca
max_steps number
R cuadrado corregido
ASE
combining_rule_continuou Media
s
Mediana
component_models_n number
use_random_seed marca
random_seed number
use_custom_model_name marca
custom_model_name string
use_custom_name marca
custom_name string
tooltip string
palabras clave string
annotation string
Propiedades de linearasnode
Los modelos de regresión lineal predicen un objetivo continuo tomando como base
las relaciones lineales entre el destino y uno o más predictores.
ninguno
criteria_for_forward_ste AICC La estadística utilizada para determinar
pwise si un efecto debe añadirse o eliminarse
Estadísticas F del modelo. El valor predeterminado es
AdjustedRSquare.
R cuadrado corregido
ASE
pin number El efecto con el valor p más pequeño
con respecto a este umbral de pin
especificado se añade al modelo. El
valor predeterminado es 0.05.
pout number Cualquier efecto del modelo con un
valor p superior a este umbral de
pout especificado se eliminará. El
valor predeterminado es 0,10.
use_custom_max_effects marca Indica si debe utilizarse el número
máximo de efectos en el modelo final.
El valor predeterminado es FALSE.
max_effects number Número máximo de efectos por
usar en el modelo final. El valor
predeterminado es 1.
use_custom_max_steps marca Indica si debe utilizarse el
número máximo de pasos. El valor
predeterminado es FALSE.
max_steps number El número máximo de pasos antes
de que se detenga el algoritmo
escalonado. El valor predeterminado
es 1.
ASE
Propiedades de logregnode
La regresión logística es una técnica de estadístico para clasificar los registros en
función los valores de los campos de entrada. Es análoga a la regresión lineal pero
toma un campo objetivo categórico en lugar de uno numérico.
Ejemplo multinomial
Ejemplo binomial
Multinomial
include_constant marca
Expert
method Intro
Stepwise
Forwards
Backwards
BackwardsStepwise
binomial_method Intro
Forwards
Backwards
model_type MainEffects Si FullFactorial se especifica
como el tipo de modelo, no se
FullFactorial ejecutarán los métodos por pasos,
aunque así se indique. En su lugar, el
método utilizado será Enter.
Custom
Diferencia
Helmert
Repeated
Polinómico
Desviación
binomial_input_category Primero Propiedad con clave para la entrada
categórica que especifica cómo se
Last determina la categoría de referencia.
scale Ninguno
UserDefined
Pearson
Deviance
scale_value number
all_probabilities marca
tolerance 1.0E-5
1.0E-6
1.0E-7
1.0E-8
1.0E-9
1.0E-10
min_terms number
use_max_terms marca
max_terms number
entry_criterion Puntuación
LR
Wald
probability_entry number
probability_removal number
binomial_probability_ent number
ry
binomial_probability_rem number
oval
requirements HierarchyDiscrete
HierarchyAll
Containment
Ninguno
max_iterations number
max_steps number
p_converge 1.0E-4
1.0E-5
1.0E-6
1.0E-7
1.0E-8
0
l_converge 1.0E-1
1.0E-2
1.0E-3
1.0E-4
1.0E-5
0
delta number
iteration_history marca
history_steps number
at_last_step
binomial_goodness_of_fit marca
binomial_parameters marca
binomial_iteration_histo marca
ry
binomial_classification_ marca
plots
binomial_ci_enable marca
binomial_ci number
binomial_residual valores atípicos
all
binomial_residual_enable marca
binomial_outlier_thresho number
ld
binomial_classification_ number
cutoff
binomial_removal_criteri LR
on
Wald
Conditional
calculate_variable_impor marca
tance
propiedades de lsvmnode
El nodo Máquina de vectores de soporte lineal (LSVM) le permite clasificar datos en
uno o dos grupos sin que haya un ajuste por exceso. LSVM es lineal y funciona bien
con conjuntos de datos grandes, como aquellos con un gran número de registros.
propiedades de neuralnetnode
Importante: En este release está disponible una versión más reciente del nodo de modelado Red
neuronal, con características mejoradas, y se describe en la siguiente sección (red neuronal). Aunque
aún puede generar y puntuar un modelo con la versión anterior, recomendamos que actualice sus scripts
para que se use la nueva versión. Los detalles de la versión anterior se conservan aquí como referencia.
Ejemplo
Dynamic
Multiple
Prune
ExhaustivePrune
RBFN
prevent_overtrain marca
train_pct number
set_random_seed marca
random_seed number
mode Simple
Expert
stop_on Predeterminado Modo de parada.
Exactitud
Cycles
Hora
accuracy number Precisión de parada.
cycles number Ciclos para entrenar.
time number Tiempo para entrenar (minutos).
continue marca
show_feedback marca
binary_encode marca
use_last_model marca
gen_logfile marca
logfile_name string
Two
Tres
hl_units_one number
hl_units_two number
hl_units_three number
persistence number
m_topologies string
m_non_pyramids marca
m_persistence number
p_hid_layers One
Two
Tres
p_hl_units_one number
p_hl_units_two number
p_hl_units_three number
p_persistence number
p_hid_rate number
p_hid_pers number
p_inp_rate number
p_inp_pers number
p_overall_pers number
p_persistence number
r_num_clusters number
r_eta_auto marca
r_alpha number
r_eta number
Propiedades de neuralnetwork
El nodo Red neuronal utiliza un modelo simplificado que emula el modo en que
el cerebro humano procesa la información: Funciona simultaneando un número
elevado de unidades simples de procesamiento interconectadas que parecen
versiones abstractas de neuronas. Las redes neuronales son dispositivos eficaces
de cálculo de funciones generales y requieren un conocimiento matemático o
estadístico mínimo para entrenarlas o aplicarlas.
Ejemplo
Aumento
psm
method MultilayerPerceptron
RadialBasisFunction
use_custom_layers marca
first_layer_units number
second_layer_units number
use_max_time marca
tiempo_máx number
use_max_cycles marca
max_cycles number
use_min_accuracy marca
min_accuracy number
combining_rule_categoric Voting
al
HighestProbability
HighestMeanProbabilit
y
combining_rule_continuou Media
s
Mediana
component_models_n number
overfit_prevention_pct number
use_random_seed marca
missingValueImputatio
n
use_model_name booleano
model_name string
confidence onProbability
onIncrease
score_category_probabili marca
ties
max_categories number
score_propensity marca
use_custom_name marca
custom_name string
tooltip string
palabras clave string
annotation string
propiedades de questnode
El nodo QUEST proporciona un método de clasificación binario para generar árboles
de decisión; está diseñado para reducir el tiempo de procesamiento necesario para
realizar los análisis de C&RT y reducir la tendencia de los métodos de clasificación
de árboles para favorecer a las entradas que permitan realizar más divisiones. Los
campos de entrada pueden ser continuos (rango numérico), sin embargo el campo
objetivo debe ser categórico. Todas las divisiones son binarias.
Ejemplo
Agregación
autodocimante
psm
model_output_type Single
InteractiveBuilder
use_tree_directives marca
tree_directives string
use_max_depth Predeterminado
Custom
max_depth entero Máxima profundidad del árbol, desde
0 a 1000. Sólo se utiliza si
use_max_depth = Custom.
prune_tree marca Poda del árbol para evitar
sobreajustes.
use_std_err marca Use la diferencia máxima en riesgos
(en errores estándar).
std_err_multiplier number Diferencia máxima.
max_surrogates number Número máximo de sustitutos.
use_percentage marca
min_parent_records_pc number
min_child_records_pc number
min_parent_records_abs number
min_child_records_abs number
use_costs marca
costes estructurado Propiedad estructurada.
Equal
Custom
custom_priors estructurado Propiedad estructurada.
adjust_priors marca
trails number Número de modelos de componente
para un aumento o agregación
autodocimante.
set_ensemble_method Voting Regla de combinación predeterminada
para objetivos categóricos.
HighestProbability
HighestMeanProbabilit
y
range_ensemble_method Media Regla de combinación predeterminada
para objetivos continuos.
Mediana
large_boost marca Aplicar aumento a conjunto de datos
muy grandes.
split_alpha number Nivel de significancia para división.
train_pct number Conjunto de prevención sobreajustado.
set_random_seed marca Opción replicar resultados.
seed number
calculate_variable_impor marca
tance
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
adjusted_propensity_part Test
ition
Validation
tree.setPropertyValue("costs",
[["drugA", "drugB", 3.0], ["drugX",
"drugY", 4.0]])
default_cost_increase ninguno Nota: sólo se habilita para objetivos
ordinales.
lineal
Establece los valores predeterminados
cuadrado de la matriz de costes.
personalizada
max_pct_missing entero Si el porcentaje de valores faltantes
en cualquier entrada es mayor que el
valor especificado aquí, la entrada se
excluye. Mínimo 0, máximo 100.
exclude_single_cat_pct entero Si un valor de categoría representa un
porcentaje mayor de los registros que
el especificado aquí, todo el campo
se excluye de la creación de modelos.
Mínimo 1, máximo 99.
max_category_number entero Si el número de categorías de un
campo supera este valor, el campo se
excluye de la creación de modelos. El
mínimo es 2.
Propiedades de regressionnode
La regresión lineal es una técnica de estadístico común utilizada para resumir datos
y realizar predicciones ajustando una superficie o línea recta que minimice las
discrepancias existentes entre los valores de salida reales y los pronosticados.
Nota: El nodo Lineal reemplazará al nodo Regresión en una versión futura. Recomendamos que a partir de
ahora utilice modelos lineales para la regresión lineal.
Ejemplo
Stepwise
Backwards
Forwards
include_constant marca
use_weight marca
weight_field campo
mode Simple
Expert
complete_records marca
1.0E-3
1.0E-4
1.0E-5
1.0E-6
1.0E-7
1.0E-8
1.0E-9
1.0E-10
1.0E-11
1.0E-12
stepping_method useP useP : utilizar la probabilidad de F
propiedades de sequencenode
El nodo Secuencia encuentra reglas de asociación en datos secuenciales o en datos
ordenados en el tiempo. Una secuencia es una lista de conjuntos de elementos que
tiende a producirse en un orden previsible. Por ejemplo, si un cliente compra una
cuchilla y una loción para después del afeitado, probablemente comprará crema
para afeitar la próxima vez que vaya a comprar. El nodo Secuencia se basa en el
algoritmo de reglas de asociación de CARMA, que utiliza un método de dos pasos
para encontrar las secuencias.
Ejemplo
Expert
use_max_duration marca
max_duration number
use_gaps marca
min_item_gap number
max_item_gap number
use_pruning marca
pruning_value number
set_mem_sequences marca
mem_sequences entero
propiedades de slrmnode
El nodo Modelo de respuesta de autoaprendizaje (SLRM) permite crear un modelo
en el que un solo caso nuevo o un pequeño número de casos nuevos se pueden
utilizar para volver a calcular el modelo sin tener que entrenar de nuevo el modelo
utilizando todos los datos.
Ejemplo
model_reliability marca
calculate_variable_impor marca
tance
propiedades de statisticsmodelnode
El nodo Modelo Statistics permite analizar y trabajar con sus datos ejecutando los
procedimientos de IBM SPSS Statistics que producen PMML. Este nodo requiere una
copia de IBM SPSS Statistics con licencia.
propiedades de stpnode
El nodo Predicción espacio-temporal (STP) utiliza datos que contienen datos de
ubicación, campos de entrada para la predicción (predictores), un campo de hora
y un campo de objetivo. Cada ubicación tiene muchas filas en los datos que
representan los valores de cada predictor en cada tiempo de medición. Después
de analizar los datos, se puede utilizar para predecir los valores de objetivo en
cualquier ubicación dentro de los datos de forma que se utilizan en el análisis.
Trimestres
Meses
Weeks
Days
Hours
Minutes
Seconds
Trimestres
Meses
Weeks
Days
interval_type_time Hours Limita el número de días por
semana que se tienen en cuenta
Minutes al crear el índice de hora que
utiliza STP para el cálculo
Seconds
interval_type_integer Períodos Intervalo en el que se convertirá
el conjunto de datos. La selección
(Sólo campos de índice disponible depende del tipo
de hora, almacenamiento de almacenamiento del campo
Entero) elegido como time_field para
el modelo.
period_start entero
start_month Enero El mes desde el que el modelo
empezará a indexar (por ejemplo,
Febrero si se establece en March pero
el primer registro del conjunto
de datos es January, el modelo
Marzo omitirá los primeros dos registros
y comenzará a indexar en marzo.
Abril
Mayo
Junio
Julio
Agosto
Septiembre
Octubre
Noviembre
Diciembre
Tuesday
Wednesday
Jueves
Friday
Saturday
days_per_week entero Mínimo 1, máximo 7, con
incrementos de 1
hours_per_day entero El número de horas que el
modelo cuenta en un día. Si
se establece en 10, el modelo
empezará a indexar en la hora
day_begins_at y continuará
indexando durante 10 horas,
y luego saltará al siguiente
valor que coincida con el valor
day_begins_at, etc.
day_begins_at 00:00 Establece el valor de hora desde
el que el modelo inicia la
01:00 indexación.
02:00
03:00
...
23:00
10
12
15
20
30
data_matches_interval Boolean Si se establece en N, la conversión
de los datos al interval_type
normal se produce antes de que
se construya el modelo.
Si lo establece en Y, se inhabilitan
todos los controles de agregación.
Median
1stQuartile
3rdQuartile
custom_agg [[campo, método de Propiedad estructurada:
agregación],[]..]
Parámetro de script: custom_agg
Demo:
Por ejemplo:
[['x5'
'FirstQuartile']['x4' set :stpnode.custom_agg =
'Sum']] [
[campo1 función]
[campo2 función]
PoweredExponential
exponential_power número Nivel alimentación para el modelo
PoweredExponential. Mínimo
1, máximo 2.
Pestaña Avanzada
max_missing_values entero Porcentaje máximo de registros
con valores faltantes que se
permite en el modelo.
significación número Nivel de significación para
pruebas de hipótesis en
la construcción del modelo.
Especifica el valor de significación
para todas las pruebas en
la estimación del modelo STP,
incluidas dos pruebas de Bondad
de ajuste, pruebas F de efectos y
pruebas T de coeficiente.
Pestaña Salida
model_specifications marca
temporal_summary marca
location_summary marca Determina si la tabla Resumen de
ubicación se incluye en la salida
del modelo.
model_quality marca
test_mean_structure marca
mean_structure_coefficients marca
autoregressive_coefficients marca
test_decay_space marca
parametric_spatial_covarian marca
ce
correlations_heat_map marca
correlations_map marca
location_clusters marca
propiedades de svmnode
El nodo Máquina de vectores de soporte (SVM) le permite clasificar datos en uno o
dos grupos sin que haya un ajuste por exceso. SVM funciona bien con conjuntos de
datos grandes, como aquellos con un gran número de campos de entrada.
Ejemplo
1.0E-4
1.0E-5
1.0E-6
regularization number También se conoce como el
parámetro C.
precision number Sólo se utiliza si el nivel de
medición del campo objetivo es
Continuo.
kernel RBF (valor predeterminado) Tipo de función kernel utilizada
para la transformación.
Polinómico
Sigmoide
Lineal
rbf_gamma number Sólo se utiliza si kernel es RBF.
gamma number Sólo se utiliza si kernel es
Polinómico o Sigmoide.
bias number
grado number Sólo se utiliza si kernel es
Polinómico.
calculate_variable_im tag
portance
calculate_raw_propens tag
ities
tag
calculate_adjusted_
propensities
adjusted_propensity_p Test
artition
Validation
Single
metric_fields campos
both_target_and_input [f1 ... fN]
targets [f1 ... fN]
candidate_inputs [f1 ... fN]
forced_inputs [f1 ... fN]
use_timestamp Marca de tiempo
Period
Desconocido
Año
Trimestre
Mes
Semana
Día
Hora
Hour_nonperiod
Minuto
Minute_nonperiod
Segundo
Second_nonperiod
period_field string
period_start_value entero
num_days_per_week entero
start_day_of_week Sunday
Monday
Martes
Miércoles
Jueves
Viernes
Saturday
num_hours_per_day entero
start_hour_of_day entero
timestamp_increments entero
Año
Trimestre
Mes
Semana
Día
Hora
Minuto
Segundo
is_same_interval El mismo
Notsame
cross_hour Booleana
aggregate_and_distribute list
aggregate_default Media
Sum
Mode
Mín
Máx
distribute_default Media
Sum
Sum
Mode
Mín
Máx
missing_imput Linear_interp
Series_mean
K_mean
K_meridian
Linear_trend
Ninguno
k_mean_param entero
k_median_param entero
missing_value_threshold entero
conf_level entero
max_num_predictor entero
max_lag entero
epsilon number
threshold entero
is_re_est Booleana
num_targets entero
percent_targets entero
fields_display list
series_display list
network_graph_for_target Booleana
sign_level_for_target number
fit_and_outlier_for_targ Booleana
et
sum_and_para_for_target Booleana
impact_diag_for_target Booleana
Both
impact_diag_level_for_ta entero
rget
series_plot_for_target Booleana
res_plot_for_target Booleana
top_input_for_target Booleana
forecast_table_for_targe Booleana
t
same_as_for_target Booleana
network_graph_for_series Booleana
sign_level_for_series number
fit_and_outlier_for_seri Booleana
es
sum_and_para_for_series Booleana
impact_diagram_for_serie Booleana
s
impact_diagram_type_for_ Efecto
series
Cause
Both
impact_diagram_level_for entero
_series
series_plot_for_series Booleana
residual_plot_for_series Booleana
forecast_table_for_serie Booleana
s
outlier_root_cause_analy Booleana
sis
causal_levels entero
outlier_table Interactive
Lista dinámica
Both
rmsp_error Booleana
Observación
observations list
observations_type Latest
Más antiguo
observations_num entero
observations_exclude entero
extend_records_into_futu Booleana
re
forecastperiods entero
max_num_distinct_values entero
display_targets FIXEDNUMBER
PERCENTAGE
goodness_fit_measure ROOTMEAN
BIC
RSQUARE
top_input_for_series Booleana
aic Booleana
rmse Booleana
propiedades ts
El nodo Serie temporal estima modelos de suavizado exponencial, modelos
autorregresivos integrados de media móvil (ARIMA) univariados y modelos ARIMA
(o de función de transferencia) multivariados para series temporales y genera
previsiones. Este nodo Serie temporal es similar al nodo Serie temporal anterior
que estaba en desuso en SPSS Modeler versión 18. Sin embargo, este nodo Serie
temporal más reciente se ha diseñado para emplear la potencia de IBM SPSS
Analytic Server para procesar grandes cantidades de datos y mostrar el modelo
resultante en el visor de resultados que se ha añadido en SPSS Modeler versión 17.
Desconocido
Año
Trimestre
Mes
Semana
Día
Hora
Hour_nonperiod
Minuto
Minute_nonperiod
Segundo
Second_nonperiod
period_field campo
period_start_value entero
Monday
Martes
Miércoles
Jueves
Viernes
Saturday
num_hours_per_day entero
start_hour_of_day entero
timestamp_increments entero
cyclic_increments entero
cyclic_periods list
output_interval Ninguno
Año
Trimestre
Mes
Semana
Día
Hora
Minuto
Segundo
is_same_interval marca
cross_hour marca
aggregate_and_distribute list
Sum
Mode
Mín
Máx
distribute_default Media
Sum
group_default Media
Sum
Mode
Mín
Máx
missing_imput Linear_interp
Series_mean
K_mean
K_median
Linear_trend
k_span_points entero
use_estimation_period marca
estimation_period Observaciones
Times
date_estimation list Solo está disponible
si se utiliza
date_time_field
period_estimation list Solo está disponible si se
utiliza use_period
observations_type Latest
Más antiguo
Exsmooth
Arima
expert_modeler_method ExpertModeler
Exsmooth
Arima
consider_seasonal marca
detect_outliers marca
expert_outlier_additive marca
expert_outlier_level_shift marca
expert_outlier_innovational marca
expert_outlier_level_shift marca
expert_outlier_transient marca
expert_outlier_seasonal_additive marca
expert_outlier_local_trend marca
expert_outlier_additive_patch marca
consider_newesmodels marca
BrownsLinearTrend
DampedTrend
SimpleSeasonal
WintersAdditive
WintersMultiplicativ
e
DampedTrendAdditive
DampedTrendMultiplic
ative
MultiplicativeTrendA
dditive
MultiplicativeSeason
al
MultiplicativeTrend
Multiplicative
MultiplicativeTrend
set :ts.futureValue_t
ype
_method="specify"
set :ts.extend_metric
_values=[{'Market_1',
'USER_SPECIFY',
[1,2,3]},
{'Market_2','MOST_REC
ENT
_VALUE', ''},
{'Market_3',
'RECENT_POINTS_MEAN',
''}]
exsmooth_transformation_type Ninguno
SquareRoot
NaturalLog
arima.p entero
arima.d entero
arima.q entero
arima.sp entero
arima.sd entero
arima.sq entero
SquareRoot
NaturalLog
arima_include_constant marca
tf_arima.p. nombrecampo entero Para funciones de
transferencia.
tf_arima.d. nombrecampo entero Para funciones de
transferencia.
tf_arima.q. nombrecampo entero Para funciones de
transferencia.
tf_arima.sp. nombrecampo entero Para funciones de
transferencia.
tf_arima.sd. nombrecampo entero Para funciones de
transferencia.
tf_arima.sq. nombrecampo entero Para funciones de
transferencia.
tf_arima.delay. nombrecampo entero Para funciones de
transferencia.
tf_arima.transformation_type. Ninguno Para funciones de
nombrecampo transferencia.
SquareRoot
NaturalLog
arima_detect_outliers marca
arima_outlier_additive marca
arima_outlier_level_shift marca
arima_outlier_innovational marca
arima_outlier_transient marca
arima_outlier_seasonal_additive marca
arima_outlier_local_trend marca
arima_outlier_additive_patch marca
max_lags entero
cal_PI marca
conf_limit_pct real
events campos
continue marca
Ejemplo
Exsmooth
Arima
Reuse
expert_modeler_method marca
consider_seasonal marca
detect_outliers marca
expert_outlier_additive marca
expert_outlier_level_shift marca
expert_outlier_innovational marca
expert_outlier_level_shift marca
expert_outlier_transient marca
expert_outlier_seasonal_additive marca
expert_outlier_local_trend marca
expert_outlier_additive_patch marca
HoltsLinearTrend
BrownsLinearTrend
DampedTrend
SimpleSeasonal
WintersAdditive
WintersMultiplicativ
e
exsmooth_transformation_type Ninguno
SquareRoot
NaturalLog
arima_p entero
arima_d entero
arima_q entero
arima_sp entero
arima_sd entero
arima_sq entero
arima_transformation_type Ninguno
SquareRoot
NaturalLog
arima_include_constant marca
tf_arima_p. nombrecampo entero Para funciones de
transferencia.
tf_arima_d. nombrecampo entero Para funciones de
transferencia.
tf_arima_q. nombrecampo entero Para funciones de
transferencia.
tf_arima_sp. nombrecampo entero Para funciones de
transferencia.
tf_arima_sd. nombrecampo entero Para funciones de
transferencia.
NaturalLog
arima_detect_outlier_mode Ninguno
Automatic
arima_outlier_additive marca
arima_outlier_level_shift marca
arima_outlier_innovational marca
arima_outlier_transient marca
arima_outlier_seasonal_additive marca
arima_outlier_local_trend marca
arima_outlier_additive_patch marca
conf_limit_pct real
max_lags entero
events campos
scoring_model_only marca Se utiliza para modelos
con cifras muy grandes
(cientos de miles) o
series temporales.
propiedades de treeas
El nodo Tree-AS es similar al nodo CHAID existente; sin embargo, el nodo Tree-AS
se ha designado para procesar grandes cantidades de datos (Big Data) para crear
un solo árbol y mostrar el modelo resultante en el visor de salida que se ha añadido
en SPSS Modeler versión 17. El nodo genera un árbol de decisiones utilizando
estadísticas de chi-cuadrado (CHAID) para identificar divisiones opcionales. Este
uso de CHAID puede generar árboles no binarios, lo que significa que algunas
divisiones generarán más de dos ramas. Los campos de entrada y objetivo
pueden ser continuos (rango numérico) o categóricos. CHAID exhaustivo es una
modificación de CHAID que examina con mayor precisión todas las divisiones
posibles, aunque necesita más tiempo para realizar los cálculos.
exhaustive_chaid
max_depth entero Profundidad máxima del árbol, de 0 a
20. El valor predeterminado es 5.
num_bins entero Sólo se utiliza si los datos están
formados por entradas continuas.
Establezca el número de intervalos de
frecuencia que deben utilizarse para
las entradas; las opciones son 2, 4, 5,
10, 20, 25, 50 o 100.
record_threshold entero El número de registros en los que
el modelo pasa de usar valores
p a tamaños del efecto mientras
se construye el árbol. El valor
predeterminado es de 1.000.000; se
incrementa o decrementa de 10.000
en 10.000.
split_alpha number Nivel de significancia para división. El
valor debe estar comprendido entre
0.01 y 0.99.
merge_alpha number Nivel de significancia para fusión. El
valor debe estar comprendido entre
0.01 y 0.99.
bonferroni_adjustment marca Los valores de significancia de ajuste
utilizando el método de Bonferroni.
effect_size_threshold_co number Establece el umbral del tamaño del
nt efecto cuando se dividen los nodos
y fusionan las categorías al usar un
objetivo continuo. El valor debe estar
comprendido entre 0.01 y 0.99.
effect_size_threshold_ca number Establezca el umbral de tamaño de
t efecto al dividir nodos y fusionar
categorías al utilizar un objetivo
categórico. El valor debe estar
comprendido entre 0.01 y 0.99.
split_merged_categories marca Permitir segunda división de categorías
fusionadas.
minimum_record_use use_percentage
use_absolute
min_parent_records_pc number El valor predeterminado es de 2. El
mínimo es 1 y el máximo 100, en
incrementos de 1. El valor de la rama
padre debe ser superior que el de la
rama hija.
min_child_records_pc number El valor predeterminado es 1. Mínimo
1, máximo 100, en incrementos de 1.
min_parent_records_abs number El valor predeterminado es 100.
Mínimo 1, máximo 100, en
incrementos de 1. El valor de la rama
padre debe ser superior a la rama hija.
min_child_records_abs number El valor predeterminado es 50. Mínimo
1, máximo 100, e incrementos de 1.
epsilon number Cambio mínimo en frecuencias de
casillas esperadas.
max_iterations number Número máximo de iteraciones para la
convergencia.
use_costs marca
costes estructurado Propiedad estructurada. El formato es
una lista de 3 valores: el valor real, el
valor pronosticado y el coste de una
predicción errónea. Por ejemplo:
tree.setPropertyValue("costs",
[["drugA", "drugB", 3.0], ["drugX",
"drugY", 4.0]])
default_cost_increase ninguno Nota: sólo se habilita para objetivos
ordinales.
lineal
Establece los valores predeterminados
cuadrado de la matriz de costes.
personalizada
calculate_conf marca
Propiedades de twostepnode
El nodo Bietápico es un método de agrupación en clústeres de dos pasos. El
primer paso es hacer una única pasada por los datos para comprimir los datos
de entrada de la fila en un conjunto de subclústeres administrable. El segundo paso
utiliza un método de agrupación en clústeres jerárquica para fundir progresivamente
los subclústeres en clústeres cada vez más grandes. El bietápico tiene la ventaja
de estimar automáticamente el número óptimo de clústeres para los datos de
entrenamiento. Puede gestionar tipos de campos mixtos y grandes conjuntos de
datos eficazmente.
Ejemplo
Number
label_prefix string
distance_measure Euclidean
Loglikelihood
clustering_criterion AIC
BIC
Propiedades de twostepAS
El clúster bietápico es una herramienta de exploración diseñada para descubrir las
agrupaciones naturales (o clústeres) de un conjunto de datos que, de otra manera,
no sería posible detectar. El algoritmo que emplea este procedimiento incluye varias
atractivas características que lo hacen diferente de las técnicas de agrupación en
clústeres tradicionales, como el tratamiento de variables categóricas y continuas, la
selección automática de número de clústeres y la escalabilidad.
BIC
Distance_jump
Mínimo
Máximo
feature_importance_method use_clustering_criterion_settin
g
effect_size
use_random_seed Booleano
random_seed número entero
distance_measure Euclidean
Loglikelihood
include_outlier_clusters Booleano Default=True
num_cases_in_feature_tree_leaf_ número entero Default=10
is_less_than
top_perc_outliers número entero Default=5
initial_dist_change_threshold número entero Default=0
leaf_node_maximum_branches número entero Default=8
non_leaf_node_maximum_branches número entero Default=8
max_tree_depth número entero Default=3
adjustment_weight_on_measurement número entero Default=6
_ level
memory_allocation_mb número Default=512
delayed_split Booleano Default=True
fields_to_standardize [f1 ... fN]
adaptive_feature_selection Booleano Default=True
featureMisPercent número entero Default=70
coefRange número Default=0,05
percCasesSingleCategory número entero Default=95
numCases número entero Default=24
include_model_specifications Booleano Default=True
include_record_summary Booleano Default=True
include_field_transformations Booleano Default=True
Número
label_prefix Cadena
Los nodos de nugget de modelo comparten las mismas propiedades comunes que los otros nodos.
Consulte “Propiedades de nodos comunes” en la página 76 para obtener más información.
Propiedades de applyanomalydetectionnode
Los nodos de modelado Detección de anomalías pueden utilizarse para generar un nugget de modelo
Detección de anomalías. El nombre de script de este nugget de modelo es applyanomalydetectionnode.
Para obtener más información sobre los scripts para el propio nodo de modelado, consulte “propiedades
de anomalydetectionnode” en la página 222.
ScoreOnly
num_fields entero Campos para informar.
discard_records marca Indica si los registros se descartan del
resultado o no.
discard_anomalous_records marca Indicador de cuando descartar los registros
anómalos o no anómalos. El valor
predeterminado es off, que significa
que se descartan los registros no
anómalos. En caso contrario, si es on,
se descartan los registros anómalos. Esta
propiedad se activa sólo si la propiedad
discard_records se activa.
Propiedades de applyapriorinode
Los nodos de modelado Apriori pueden utilizarse para generar un nugget de modelo Apriori. El nombre de
script de este nugget de modelo es applyapriorinode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “Propiedades de apriorinode” en la página 223
Predictions
NoCheck
criterio Confianza
Soporte
RuleSupport
Lift
Capacidad de
despliegue
Propiedades de applyassociationrulesnode
El nodo de modelado de reglas de asociación se puede utilizar para generar un nugget de modelo
de reglas de asociación. El nombre de script de este nugget de modelo es applyassociationrulesnode.
Para obtener más información sobre los scripts para propio nodo de modelado, consulte “propiedades
associationrulesnode” en la página 225.
Lift
Conditionsupport
Capacidad de
despliegue
allow_repeats Booleana Determine si las reglas con la misma
predicción se incluyen en la puntuación.
Predictions
NoCheck
Propiedades de applyautoclassifiernode
Los nodos de modelado de clasificador automático se pueden utilizar para crear un nugget de modelo
Clasificador automático. El nombre de script de este nugget de modelo es applyautoclassifiernode.
Para obtener más información sobre los scripts para el propio nodo de modelado, “propiedades de
autoclassifiernode” en la página 228.
RawPropensityWeightedVoti
ng
HighestConfidence
AverageRawPropensity
flag_evaluation_selection Exactitud Esta opción es solo para el
distintivo del destino, para
AUC_ROC decidir la medida de evaluación
que se elige para la votación
ponderada por evaluación.
filter_individual_model_o marca Especifica si los resultados de
utput puntuación de los modelos
individuales se deben eliminar.
HighestConfidence
Propiedades de applyautoclusternode
Los nodos de modelado de Clúster automático se pueden utilizar para crear un nugget de modelo Clúster
automático. El nombre de script de este nugget de modelo es applyautoclusternode. No existe ninguna
otra propiedad para este nugget de modelo. Para obtener más información sobre los scripts para el propio
nodo de modelado, consulte “propiedades de nodo de agrupación en clústeres automática” en la página
231.
Propiedades de applyautonumericnode
Los nodos de modelado autonumérico se pueden utilizar para crear un nugget de modelo Autonumérico.
El nombre de script de este nugget de modelo es applyautonumericnode. Para obtener más información
sobre los scripts para el propio nodo de modelado, “propiedades de autonumericnode” en la página 233.
Propiedades de applybayesnetnode
Los nodos de modelado de red bayesiana pueden utilizarse para generar un nugget de modelo de red
bayesiana. El nombre de script de este nugget de modelo es applybayesnetnode. Para obtener más
información sobre los scripts para el propio nodo de modelado, consulte “Propiedades de bayesnetnode”
en la página 235.
NoMissingValues
calculate_conf marca Disponible cuando la generación de
SQL está activada. Esta propiedad
incluye los cálculos de confianza en el
árbol generado.
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
Propiedades de applycarmanode
Los nodos de modelado CARMA pueden utilizarse para generar un nugget de modelo CARMA. El nombre
de script de este nugget de modelo es applycarmanode. No existe ninguna otra propiedad para este
nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “propiedades de carmanode” en la página 239.
Propiedades de applycartnode
Se pueden utilizar los nodos de modelado C&RT para generar un nugget de modelo C&RT. El nombre de
script de este nugget de modelo es applycartnode. Para obtener más información sobre los scripts para el
propio nodo de modelado, consulte “propiedades de cartnode” en la página 240.
NoMissingValues
calculate_conf marca Disponible cuando la generación de
SQL está activada. Esta propiedad
incluye los cálculos de confianza en el
árbol generado.
Propiedades de applychaidnode
Los nodos de modelado CHAID pueden utilizarse para generar un nugget de modelo CHAID. El nombre de
script de este nugget de modelo es applychaidnode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “propiedades de chaidnode” en la página 243.
calculate_conf marca
display_rule_id marca Añade un campo en el resultado de
puntuación que indica el ID para el
nodo terminal al que se asigna cada
registro.
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
Propiedades de applycoxregnode
Los nodos de modelado Cox pueden utilizarse para generar un nugget de modelo Cox. El nombre de script
de este nugget de modelo es applycoxregnode. Para obtener más información sobre los scripts para el
propio nodo de modelado, consulte “propiedades de coxregnode” en la página 246.
Campos
time_interval number
num_future_times entero
Propiedades de applydecisionlistnode
Los nodos de modelado Lista de decisiones pueden utilizarse para generar un nugget de modelo
Lista de decisiones. El nombre de script de este nugget de modelo es applydecisionlistnode. Para
obtener más información sobre los scripts para el propio nodo de modelado, consulte “Propiedades de
decisionlistnode” en la página 248.
Propiedades de applydiscriminantnode
Los nodos de modelado Discriminante pueden utilizarse para generar un nugget de modelo Discriminante.
El nombre de script de este nugget de modelo es applydiscriminantnode. Para obtener más información
sobre los scripts para el propio nodo de modelado, consulte “propiedades de discriminantnode” en la
página 250.
score_script = """
import json
import spss.pyspark.runtime
from pyspark.mllib.regression import LabeledPoint
from pyspark.mllib.linalg import DenseVector
from pyspark.mllib.tree import DecisionTreeModel
from pyspark.sql.types import StringType, StructField
cxt = spss.pyspark.runtime.getContext()
if cxt.isComputeDataModelOnly():
_schema = cxt.getSparkInputSchema()
_schema.fields.append(StructField("Prediction", StringType(), nullable=True))
cxt.setSparkOutputSchema(_schema)
else:
df = cxt.getSparkInputData()
_modelPath = cxt.getModelContentToPath("TreeModel")
metadata = json.loads(cxt.getModelContentToString("model.dm"))
schema = df.dtypes[:]
target = "Drug"
predictors = ["Age","BP","Sex","Cholesterol","Na","K"]
lookup = {}
for i in range(0,len(schema)):
lookup[schema[i][0]] = i
def row2LabeledPoint(dm,lookup,target,predictors,row):
target_index = lookup[target]
tval = dm[target_index].index(row[target_index])
pvals = []
for predictor in predictors:
predictor_index = lookup[predictor]
if isinstance(dm[predictor_index],list):
pval = row[predictor_index] in dm[predictor_index] and
dm[predictor_index].index(row[predictor_index]) or -1
else:
pval = row[predictor_index]
pvals.append(pval)
return LabeledPoint(tval, DenseVector(pvals))
def addPrediction(x,dm,lookup,target):
result = []
for _idx in range(0, len(x[0])):
result.append(x[0][_idx])
result.append(dm[lookup[target]][int(x[1])])
return result
_schema = cxt.getSparkInputSchema()
_schema.fields.append(StructField("Prediction", StringType(), nullable=True))
rdd2 = df.rdd.zip(predictions).map(lambda x:addPrediction(x, metadata, lookup, target))
outDF = cxt.getSparkSQLContext().createDataFrame(rdd2, _schema)
Ejemplo de R
#### Ejemplo de script de R
applyModel.setPropertyValue("r_syntax", """
result<-predict(modelerModel,newdata=modelerData)
modelerData<-cbind(modelerData,result)
var1<-c(fieldName="NaPrediction",fieldLabel="",fieldStorage="real",fieldMeasure="",
fieldFormat="",fieldRole="")
modelerDataModel<-data.frame(modelerDataModel,var1)""")
Propiedades de applyfactornode
Los nodos de modelado PCA/Factorial pueden utilizarse para generar un nugget de modelo PCA/Factorial.
El nombre de script de este nugget de modelo es applyfactornode. No existe ninguna otra propiedad para
este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “propiedades de factornode” en la página 255.
Propiedades de applyfeatureselectionnode
Los nodos de modelado Selección de características pueden utilizarse para generar un nugget de modelo
Selección de características. El nombre de script de este nugget de modelo es applyfeatureselectionnode.
Para obtener más información sobre los scripts para el propio nodo de modelado, consulte “propiedades
de featureselectionnode” en la página 257.
Propiedades de applygeneralizedlinearnode
Los nodos de modelado lineal generalizado (genlin) pueden utilizarse para generar un nugget de modelo
lineal generalizado. El nombre de script de este nugget de modelo es applygeneralizedlinearnode. Para
obtener más información sobre los scripts para el propio nodo de modelado, consulte “propiedades de
genlinnode” en la página 259.
Propiedades de applyglmmnode
Los nodos de modelado GLMM pueden utilizarse para generar un nugget de modelo GLMM. El nombre de
script de este nugget de modelo es applyglmmnode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “Propiedades de glmmnode” en la página 265.
Propiedades de applygle
Los nodos de modelado GLE pueden utilizarse para generar un nugget de modelo GLE. El nombre de
script de este nugget de modelo es applygle. Para obtener más información sobre los scripts para el
propio nodo de modelado, consulte “Propiedades de gle” en la página 270.
Propiedades applygmm
El nodo de mezcla gausiana se puede utilizar para generar un nugget de modelo de mezcla gausiana. El
nombre de script de este nugget de modelo es applygmm. Las propiedades de la siguiente tabla están
disponibles en la versión 18.2.1.1 y posterior. Para obtener más información sobre los scripts para el
propio nodo de modelado, consulte “Propiedades gmm” en la página 441.
Propiedades de applykmeansnode
Los nodos de modelado K-medias pueden utilizarse para generar un nugget de modelo K-medias. El
nombre de script de este nugget de modelo es applykmeansnode. No existe ninguna otra propiedad para
este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “propiedades de kmeansnode” en la página 278.
Propiedades de applyknnnode
Los nodos de modelado KNN pueden utilizarse para generar un nugget de modelo KNN. El nombre de
script de este nugget de modelo es applyknnnode. Para obtener más información sobre los scripts para el
propio nodo de modelado, consulte “propiedades de knnnode” en la página 280.
Propiedades de applykohonennode
Los nodos de modelado Kohonen pueden utilizarse para generar un nugget de modelo Kohonen. El
nombre de script de este nugget de modelo es applykohonennode. No existe ninguna otra propiedad para
este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “propiedades de c50node” en la página 237.
Propiedades de applylinearnode
Los nodos de modelado lineal pueden utilizarse para generar un nugget de modelo lineal. El nombre de
script de este nugget de modelo es applylinearnode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “Propiedades de linearnode” en la página 283.
Propiedades de applylinearasnode
Los nodos de modelado Linear-AS pueden utilizarse para generar un nugget de modelo Linear-AS. El
nombre de script de este nugget de modelo es applylinearasnode. Para obtener más información sobre
los scripts para el propio nodo de modelado, consulte “Propiedades de linearasnode” en la página 285.
native
Propiedades de applylogregnode
Los nodos de modelado Regresión logística pueden utilizarse para generar un nugget de modelo
Regresión logística. El nombre de script de este nugget de modelo es applylogregnode. Para obtener más
información sobre los scripts para el propio nodo de modelado, consulte “Propiedades de logregnode” en
la página 287.
Propiedades de applylsvmnode
Los nodos de modelado LSVM pueden utilizarse para generar un nugget de modelo LSVM. El nombre de
script de este nugget de modelo es applylsvmnode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “propiedades de lsvmnode” en la página 293.
Propiedades de applyneuralnetnode
Los nodos de modelado Red neuronal pueden utilizarse para generar un nugget de modelo Red neuronal.
El nombre de script de este nugget de modelo es applyneuralnetnode. Para obtener más información
sobre los scripts para el propio nodo de modelado, consulte “propiedades de neuralnetnode” en la página
294.
Precaución: Una versión más reciente del nodo de modelado Red neural, con características mejoradas,
está disponible en esta versión y se describe en la sección siguiente (applyneuralnetwork). Aunque la
versión anterior sigue estando disponible, le recomendamos actualizar sus scripts para que se usen la
nueva versión. En este documento se incluyen detalles de la versión anterior como referencia, pero en
versiones futuras dejará de ser compatible.
SoftMax
calculate_raw_propensiti marca
es
calculate_adjusted_prope marca
nsities
propiedades de applyneuralnetworknode
Los nodos de modelado Red neuronal pueden utilizarse para generar un nugget de modelo Red neuronal.
El nombre de script de este nugget de modelo es applyneuralnetworknode. Si desea más información
sobre cómo crear scripts para el propio nodo de modelado, consulte Propiedades neuralnetworknode
onIncrease
score_category_probabili marca
ties
max_categories number
score_propensity marca
enable_sql_generation udf Se utiliza para establecer las opciones
de generación de SQL durante la
native ejecución de ruta. Las opciones se
van a retrotraer a la base de datos y
la puntuación mediante el adaptador
puresql de puntuación SPSS® Modeler Server
(si está conectado a una base de
datos con un adaptador de puntuación
instalado), para puntuar en SPSS
Modeler, o para retrotraer a la base de
datos y puntuar mediante SQL.
Propiedades de applyocsvmnode
Los nodos SVM de una clase se pueden utilizar para generar un nugget de modelo SVM de una clase. El
nombre de script de este nugget de modelo es applyocsvmnode. No existe ninguna otra propiedad para
este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “ocsvmnode, propiedades” en la página 447.
Propiedades de applyquestnode
Los nodos de modelado QUEST pueden utilizarse para generar un nugget de modelo QUEST. El nombre de
script de este nugget de modelo es applyquestnode. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “propiedades de questnode” en la página 299.
NoMissingValues
calculate_conf marca
Propiedades de applyr
Los nodos de modelado R pueden utilizarse para generar un nugget de modelo R. El nombre de script de
este nugget de modelo es applyr. Para obtener más información sobre los scripts para el propio nodo de
modelado, consulte “propiedades de buildr” en la página 237.
Propiedades applyrandomtrees
El nodo de modelador Árboles aleatorios se puede utilizar para generar un nugget del modelo Árboles
aleatorios. El nombre de script de este nugget de modelo es applyrandomtrees. Para obtener más
información sobre los scripts para el propio nodo de modelado, consulte “propiedades randomtrees”
en la página 302.
Propiedades de applyregressionnode
Los nodos de modelado Regresión lineal pueden utilizarse para generar un nugget de modelo Regresión
lineal. El nombre de script de este nugget de modelo es applyregressionnode. No existe ninguna otra
propiedad para este nugget de modelo. Para obtener más información sobre los scripts para el propio
nodo de modelado, consulte “Propiedades de regressionnode” en la página 304.
propiedades de applyselflearningnode
Los nodos de modelado de modelo de respuesta de autoaprendizaje (SLRM) pueden utilizarse
para generar un nugget de modelo SLRM. El nombre de script de este nugget de modelo es
applyselflearningnode. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “propiedades de slrmnode” en la página 308.
Propiedades de applysequencenode
Los nodos de modelado Secuencia pueden utilizarse para generar un nugget de modelo Secuencia. El
nombre de script de este nugget de modelo es applysequencenode. No existe ninguna otra propiedad
para este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de
modelado, consulte “propiedades de sequencenode” en la página 307.
Propiedades de applystpnode
El nodo de modelado STP puede utilizarse para generar un nugget de modelo asociado, que muestra la
salida del modelo en el Visor de salida. El nombre de script de este nugget de modelo es applystpnode.
Para obtener más información sobre los scripts para el propio nodo de modelado, consulte “propiedades
de stpnode” en la página 310.
Propiedades de applytcmnode
Los nodos de modelado temporal causal (TCM) pueden usarse para generar un nugget de modelo TCM.
El nombre de script de este nugget de modelo es applytcmnode. Para obtener más información sobre los
scripts para el propio nodo de modelado, consulte “Propiedades de tcmnode” en la página 318.
Propiedades applyts
El nodo de modelado Serie temporal se puede utilizar para generar un nugget de modelo Serie temporal.
El nombre de scripts de este nugget de modelo es applyts. Para obtener más información sobre los scripts
para el propio nodo de modelado, consulte “propiedades ts” en la página 323.
Propiedades de applytreeas
Los nodos de modelado Tree-AS pueden utilizarse para generar un nugget de modelo Tree-AS. El nombre
de script de este nugget de modelo es applytreenas. Para obtener más información sobre los scripts para
el propio nodo de modelado, consulte “propiedades de treeas” en la página 334.
Propiedades de applytwostepnode
Los nodos de modelado Bietápico pueden utilizarse para generar un nugget de modelo Bietápico. El
nombre de script de este nugget de modelo es applytwostepnode. No existe ninguna otra propiedad para
este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “Propiedades de twostepnode” en la página 337.
Propiedades de applytwostepAS
Los nodos de modelado Bietápico AS pueden utilizarse para generar un nugget de modelo Bietápico AS.
El nombre de script de este nugget de modelo es applytwostepAS. Para obtener más información sobre
los scripts para el propio nodo de modelado, consulte “Propiedades de twostepAS” en la página 338.
Propiedades de applyxgboosttreenode
El nodo XGBoost Tree se puede utilizar para generar un nugget de modelo de XGBoost Tree. El nombre de
script de este nugget de modelo es applyxgboosttreenode. Las propiedades de la siguiente tabla se han
añadido en 18.2.1.1. Para obtener más información sobre los scripts para el propio nodo de modelado,
consulte “Propiedades de xgboosttreenode” en la página 456.
Propiedades de applyxgboostlinearnode
Los nodos XGBoost Linear se pueden utilizar para generar un nugget de modelo de XGBoost Linear. El
nombre de script de este nugget de modelo es applyxgboostlinearnode. No existe ninguna otra propiedad
para este nugget de modelo. Para obtener más información sobre los scripts para el propio nodo de
modelado, consulte “Propiedades xgboostlinearnode” en la página 455.
Propiedades de hdbscannugget
El nodo HDBSCAN se puede utilizar para generar un nugget de modelo HDBSCAN. El nombre de scripts
de este nugget de modelo es hdbscannugget. No existe ninguna otra propiedad para este nugget de
modelo. Para obtener más información sobre los scripts para el propio nodo de modelado, consulte
“Propiedades hdbscannode” en la página 442.
Propiedades kdeapply
El nodo de modelado KDE se puede utilizar para generar un nugget de modelo KDE. El nombre de scripts
de este nugget de modelo es kdeapply. Si desea más información sobre los scripts del propio nodo de
modelado, consulte “Propiedades kdemodel” en la página 444.
IBM SPSS Modeler admite la integración con herramientas de modelado y minería de datos disponibles
en proveedores de bases de datos, incluidos Microsoft SQL Server Analysis Services, Oracle Data Mining e
IBM Netezza Analytics. Podrá crear y almacenar modelos mediante algoritmos nativos de bases de datos,
todo desde la aplicación IBM SPSS Modeler. Los modelos de base de datos también se pueden crear y
manipular a través de scripts utilizando las propiedades descritas en esta sección.
Por ejemplo, el siguiente fragmento de script muestra la creación de un modelo de árboles de decisión de
Microsoft mediante la interfaz de scripts de IBM SPSS Modeler:
ruta = modeler.script.stream()
msbuilder = stream.createAt("mstreenode", "MSBuilder", 200, 200)
msbuilder.setPropertyValue("analysis_server_name", 'localhost')
msbuilder.setPropertyValue("analysis_database_name", 'TESTDB')
msbuilder.setPropertyValue("mode", 'Expert')
msbuilder.setPropertyValue("datasource", 'LocalServer')
msbuilder.setPropertyValue("target", 'Drug')
msbuilder.setPropertyValue("inputs", ['Age', 'Sex'])
msbuilder.setPropertyValue("unique_field", 'IDX')
msbuilder.setPropertyValue("custom_fields", True)
msbuilder.setPropertyValue("model_name", 'MSDRUG')
Propiedades comunes
Las siguientes propiedades son comunes a los nodos de modelado de bases de datos de Microsoft.
Árbol de decisión de MS
No hay propiedades específicas para los nodos del tipo mstreenode. Consulte las propiedades comunes
de Microsoft que se indican al comienzo de esta sección.
Clúster de MS
No hay propiedades específicas para los nodos del tipo msclusternode. Consulte las propiedades
comunes de Microsoft que se indican al comienzo de esta sección.
Reglas de asociación de MS
Las siguientes propiedades específicas están disponibles para los nodos del tipo msassocnode:
Bayesiano ingenuo de MS
No hay propiedades específicas para los nodos del tipo msbayesnode. Consulte las propiedades
comunes de Microsoft que se indican al comienzo de esta sección.
Regresión lineal de MS
No hay propiedades específicas para los nodos del tipo msregressionnode. Consulte las propiedades
comunes de Microsoft que se indican al comienzo de esta sección.
Red neuronal de MS
No hay propiedades específicas para los nodos del tipo msneuralnetworknode. Consulte las
propiedades comunes de Microsoft que se indican al comienzo de esta sección.
Regresión logística de MS
No hay propiedades específicas para los nodos del tipo mslogisticnode. Consulte las propiedades
comunes de Microsoft que se indican al comienzo de esta sección.
Clúster de secuencias de MS
Las siguientes propiedades específicas están disponibles para los nodos del tipo
mssequenceclusternode:
ruta = modeler.script.stream()
msregressionnode = stream.findByType("msregression", None)
msregressionnode.setPropertyValue("msas_parameters",
[["MAXIMUM_INPUT_ATTRIBUTES", 255],
["MAXIMUM_OUTPUT_ATTRIBUTES", 255]])
Estos parámetros se derivan de SQL Server. Para ver los parámetros relevantes para cada nodo:
1. Coloque un nodo de origen de base de datos en el lienzo.
2. Abra el nodo de origen de base de datos.
3. Seleccione un origen válido en la lista desplegable Origen de datos.
4. Seleccione una tabla válida en la lista Nombre de tabla.
5. Pulse en Aceptar para cerrar el nodo de origen de base de datos.
6. Conecte un nodo de modelado de bases de datos de Microsoft cuyas propiedades desee conocer.
7. Abra el nodo de modelado de bases de datos.
8. Seleccione la pestaña Experto.
Aparecerán las propiedades msas_parameters disponibles de este nodo.
udf
Regresión lineal de MS
Tabla 196. Propiedades de Regresión lineal de MS
Propiedades de Valores Descripción
applymsregressionnode
analysis_database_name string Este nodo se puede puntuar directamente en una
ruta.
Red neuronal de MS
Tabla 197. Propiedades de Red neuronal de MS
Propiedades de Valores Descripción
applymsneuralnetworknode
analysis_database_name string Este nodo se puede puntuar directamente en una
ruta.
Series temporales de MS
Tabla 199. Propiedades de MS Time Series
Propiedades de Valores Descripción
applymstimeseriesnode
analysis_database_name string Este nodo se puede puntuar directamente en una
ruta.
historical_
prediction
Clúster de secuencias de MS
Tabla 200. Propiedades de Agrupación en clústeres de secuencias de MS
Propiedades de Valores Descripción
applymssequenceclusternod
e
analysis_database_name string Este nodo se puede puntuar directamente en una
ruta.
use_prediction_probability marca
prediction_probability string
use_prediction_set marca
Equal
Custom
custom_priors estructurado Propiedad estructurada de la siguiente forma:
set :oranbnode.custom_priors =
[[drugA 1][drugB 2][drugC 3][drugX
4][drugY 5]]
MultiFeature
NaiveBayes
use_execution_time_limit marca *
execution_time_limit entero El valor debe ser mayor que 0.*
max_naive_bayes_predictors entero El valor debe ser mayor que 0.*
max_predictors entero El valor debe ser mayor que 0.*
priors Datos
Equal
Custom
custom_priors estructurado Propiedad estructurada de la siguiente forma:
set :oraabnnode.custom_priors =
[[drugA 1][drugB 2][drugC 3][drugX
4][drugY 5]]
Disable
kernel_function Lineal
Gaussian
Sistema
normalization_method zscore
minmax
ninguno
kernel_cache_size entero Solamente kernel gaussiano. El
valor debe ser mayor que 0.*
convergence_tolerance number El valor debe ser mayor que 0.*
use_standard_deviation marca Solamente kernel gaussiano.*
standard_deviation number El valor debe ser mayor que 0.*
use_epsilon marca Solamente modelos de
regresión.*
epsilon number El valor debe ser mayor que 0.*
use_complexity_factor marca *
complexity_factor number *
use_outlier_rate marca Solamente variantes de una
clase.*
outlier_rate number Solamente variantes de una
clase. 0.0–1.0.*
weights Datos
Equal
Custom
custom_weights estructurado Propiedad estructurada de la
siguiente forma:
set :orasvmnode.custom_we
ights = [[drugA 1][drugB
2][drugC 3][drugX 4]
[drugY 5]]
minmax
ninguno
missing_value_handling ReplaceWithMean
UseCompleteRecords
use_row_weights marca *
row_weights_field campo *
save_row_diagnostics marca *
row_diagnostics_table string *
coefficient_confidence number *
use_reference_category marca *
reference_category string *
ridge_regression Auto *
Off
On
parameter_value number *
vif_for_ridge marca *
Gini
term_max_depth entero 2–20.*
O-clúster de Oracle
Las siguientes propiedades están disponibles para los nodos del tipo oraoclusternode.
K-medias de Oracle
Las siguientes propiedades están disponibles para los nodos del tipo orakmeansnode.
minmax
ninguno
distance_function Euclidean
Cosine
Size
NMF de Oracle
Las siguientes propiedades están disponibles para los nodos del tipo oranmfnode.
ninguno
use_num_features marca *
num_features entero 0–1. El algoritmo estima el valor
predeterminado a partir de los datos.*
random_seed number *
num_iterations entero 0–500.*
conv_tolerance number 0.0–0.5.*
display_all_features marca *
Apriori de Oracle
Las siguientes propiedades están disponibles para los nodos del tipo oraapriorinode.
ImportanceVa
lue
TopN
select_important marca Si selection_mode se establece en
ImportanceLevel, determina si se
seleccionan los campos importantes.
important_label string Especifica la etiqueta para la clasificación como
"important".
select_marginal marca Si selection_mode se establece en
ImportanceLevel, determina si se
seleccionan los campos marginales.
marginal_label string Especifica la etiqueta para la clasificación como
"marginal".
important_above number 0.0–1.0.
select_unimportant marca Si selection_mode se establece en
ImportanceLevel, determina si se
seleccionan los campos sin importancia.
unimportant_label string Especifica la etiqueta para la clasificación como
"unimportant".
unimportant_below number 0.0–1.0.
importance_value number Si selection_mode se establece en
ImportanceValue, determina el valor de corte
que se va a usar. Acepta valores de 0 a 100.
top_n number Si selection_mode se establece en TopN,
determina el valor de corte que se va a usar.
Acepta valores de 0 a 1000.
O-clúster de Oracle
No hay propiedades específicas para los nodos del tipo applyoraoclusternode.
K-medias de Oracle
No hay propiedades específicas para los nodos del tipo applyorakmeansnode.
NMF de Oracle
La siguiente propiedad está disponible para los nodos del tipo applyoranmfnode.
Apriori de Oracle
Este nugget de modelo no se puede aplicar en los scripts.
LMD de Oracle
Este nugget de modelo no se puede aplicar en los scripts.
donde:
set :netezza_dectree.weig
hts = [[drugA 0.3][drugB
0.6]]
El valor predeterminado es la
ponderación de 1 para todas las
clases.
pruning_measure Acc El valor predeterminado es
Acc (precisión). wAcc alternativo
wAcc (precisión ponderada) tiene en
cuenta las ponderaciones de
clase mientras se aplica la poda.
K-medias de Netezza
Las siguientes propiedades están disponibles para los nodos del tipo netezzakmeansnode.
Canberra
máximo
num_clusters entero Número de clústeres que se deben crear; el valor
predeterminado es 3.
nn-neighbors
KNN de Netezza
Las siguientes propiedades están disponibles para los nodos del tipo netezzaknnnode.
Canberra
Máximo
num_nearest_neighbors entero Número de vecinos más próximos de un caso
concreto; el valor predeterminado es 3.
standardize_measurements marca Si es verdadero, estandariza las mediciones de
campos de entrada continuos antes de calcular los
valores de distancia.
use_coresets marca Si es verdadero, utiliza el muestreo del conjunto
principal para acelerar el cálculo de conjuntos de
datos grandes.
Canberra
Máximo
max_iterations entero Número máximo de iteraciones de algoritmo que
se ejecutarán antes de detener el entrenamiento
del modelo; el valor predeterminado es 5.
max_tree_depth entero El número máximo de niveles en los que se
puede subdividir el conjunto de datos; el valor
predeterminado es 3.
rand_seed entero Semilla aleatoria, se utiliza para replicar los
análisis; el valor predeterminado es 12345.
min_instances_split entero El número mínimo de registros que se pueden
dividir, el valor predeterminado es 5.
PCA de Netezza
Las siguientes propiedades están disponibles para los nodos del tipo netezzapcanode.
pearson
spearman
prune_tree_options allTrainingData El valor predeterminado es
utilizar allTrainingData
partitionTrainingData para calcular la precisión
del modelo. Utilice
partitionTrainingData para
useOtherTable especificar un porcentaje de
datos de prueba por utilizar, o
useOtherTable para utilizar un
conjunto de datos de prueba
desde una tabla específica de la
base de datos.
perc_training_data number Si prune_tree_options
se establece en
PercTrainingData, especifica
el porcentaje de datos que se
utilizará para entrenamiento.
prune_seed entero Semilla aleatoria que se
debe utilizar para replicar
los resultados del análisis
si prune_tree_options
se establece en
PercTrainingData; el valor
predeterminado es 1.
pruning_table string Nombre de tabla de un conjunto
de datos de poda separado para
estimar la precisión del modelo.
compute_probabilities marca Si es verdadero, especifica que
las varianzas de las clases
asignadas se deben incluir en el
resultado.
ExponentialSmoothing o
esmoothing
ARIMA
SeasonalTrendDecompositio
n o std
trend_name N Tipo de tendencia del suavizado
exponencial:
A
N - none
DA
A - aditivo
M
DA -aditivo amortiguado
DM
M - multiplicativo
DM - multiplicativo amortiguado
seasonality_type N Tipo de estacionalidad del
suavizado exponencial:
A
N - none
M
A - aditivo
M - multiplicativo
interpolation_method lineal Método de interpolación que hay
que utilizar.
cubicspline
exponentialspline
Ejemplo:
set
NZ_DT1.timerange_setting
= 'SP'
set NZ_DT1.earliest_time
= '1921-01-01'
set NZ_DT1.latest_time =
'2121-01-01'
Si se utiliza arima_setting
= SP, utilice los parámetros
siguientes para establecer los
valores estacionales y no
estacionales. Ejemplo (solo no
estacionales):
set NZ_DT1.algorithm_name
= 'arima'
set NZ_DT1.arima_setting
= 'SP'
set NZ_DT1.p_symbol =
'lesseq'
set NZ_DT1.d_symbol =
'lesseq'
set NZ_DT1.q_symbol =
'lesseq'
SP - especificado por
el usuario mediante
period, units_period y
forecast_setting.
Ejemplo:
set
NZ_DT1.advanced_setting =
'SP'
set NZ_DT1.period = 5
set NZ_DT1.units_period =
'd'
punto entero Longitud de ciclo estacional,
especificado junto con
units_period. No aplicable
para análisis espectrales.
y - años
hora
El formato debe seguir el valor
time_points.
marca de tiempo
hora
El formato debe seguir el valor
time_points.
marca de tiempo
poisson
negativebinomial
wald
gamma
dist_params number Valor del parámetro de
distribución que hay que utilizar.
Sólo se aplica si distribution
es Negativebinomial.
invnegative
invsquare
sqrt
power
oddspower
anotaciones
clog
loglog
cloglog
logit
probit
gaussit
cauchit
canbinom
cangeom
cannegbinom
link_params number Valor del parámetro de función
de enlace que hay que
utilizar. Sólo se aplica si
link_function es power u
oddspower.
Ejemplo:
[[["K","BP","Sex","K"],
[0,0,0,0]],
[["Age","Na"],[0,0]]]
Otras las propiedades del nugget de modelo son las mismas que las del nodo de modelado
correspondiente.
Los nombres de script de los nuggets de modelo son los siguientes.
Las propiedades de nodos de resultados se diferencian un poco de las de otros tipos de nodos. En
lugar de hacer referencia a una opción determinada de nodo, las propiedades de nodos de resultados
almacenan una referencia en el objeto de resultado. Esto resulta útil al tomar un valor de una tabla y
establecerlo como un parámetro de ruta.
Esta sección describe las propiedades de scripts disponibles para los nodos de resultados.
propiedades de analysisnode
El nodo Análisis evalúa la capacidad de los modelos predictivos para generar
predicciones precisas. Los nodos Análisis realizan varias comparaciones entre los
valores pronosticados y los valores reales para uno o más nugget de modelo.
También pueden comparar modelos predictivos entre sí.
Ejemplo
Output (.cou)
Tabla 228. propiedades de analysisnode (continuación)
Propiedad de analysisnode Tipo de datos Descripción de la propiedad
by_fields lista
full_filename string Nombre del archivo de
resultados, si se trata de
resultados HTML, de datos o de
disco.
coincidence marca
performance marca
evaluation_binary marca
confidence marca
threshold number
improve_accuracy number
field_detection_method Metadata Determina cómo se comparan
los campos pronosticados con
Name el campo objetivo original.
Especifique Metadata o Name.
inc_user_measure marca
user_if expr
user_then expr
user_else expr
user_compute [Mean Sum Min
Max SDev]
propiedades de dataauditnode
El nodo Auditoría de datos permite echar un primer vistazo exhaustivo a los datos,
incluyendo estadísticos de resumen, histogramas y distribución para cada campo,
así como información sobre valores atípicos, valores perdidos y extremos. Los
resultados se muestran en una matriz fácil de leer que se puede ordenar y utilizar
para generar nodos de preparación de datos y gráficos de tamaño completo.
Ejemplo
outlier_detection_std_outlier number Si
outlier_detection_metho
d es std, especifica el número
que se utilizará para definir los
valores atípicos.
outlier_detection_std_extreme number Si
outlier_detection_metho
d es std, especifica el número
que se utilizará para definir los
valores extremos.
outlier_detection_iqr_outlier number Si
outlier_detection_metho
d es iqr, especifica el número
que se utilizará para definir los
valores atípicos.
outlier_detection_iqr_extreme number Si
outlier_detection_metho
d es iqr, especifica el número
que se utilizará para definir los
valores extremos.
use_output_name marca Especifica si se utiliza
un nombre de resultado
personalizado.
output_name string Si use_output_name es
verdadero, especifica el
nombre que se va a utilizar.
HTML (.html)
Output (.cou)
paginate_output marca Si output_format es HTML,
los resultados se separarán por
páginas.
lines_per_page number Si se usa con
paginate_output, especifica
las líneas por página del
resultado.
full_filename string
Propiedades de extensionoutputnode
El nodo de Resultados de extensión le permite
analizar los datos y los resultados de la puntuación
de modelo utilizando su propio script R o Python
para Spark personalizado. El resultado del análisis
puede ser texto o gráfico. El resultado se añade
a la pestaña Resultado del panel de gestor. De
forma alternativa, el resultado se puede redirigir a
un archivo.
python_script = """
import json
import spss.pyspark.runtime
cxt = spss.pyspark.runtime.getContext()
df = cxt.getSparkInputData()
schema = df.dtypes[:]
print df
"""
node.setPropertyValue("python_syntax", python_script)
propiedades de matrixnode
El nodo Matriz crea una tabla que muestra las relaciones entre campos. Se suele
utilizar normalmente para mostrar las relaciones entre dos campos simbólicos,
pero también puede mostrar relaciones entre campos de marcas o entre campos
numéricos.
Ejemplo
Flags
Caracteres
numéricos
row campo
column campo
Función
function_field string
function Sum
Media
Mín
Máx
SDev
sort_mode Unsorted
Ascending
Descending
highlight_top number Si no es cero, es verdadero.
highlight_bottom number Si no es cero, es verdadero.
display [Counts
Expected
Residuos
RowPct
ColumnPct
TotalPct]
include_totals marca
use_output_name marca Especifica si se utiliza
un nombre de resultado
personalizado.
output_name string Si use_output_name es
verdadero, especifica el
nombre que se va a utilizar.
propiedades de meansnode
El nodo Medias compara las medias de grupos independientes o de pares de
campos relacionados para probar si existen diferencias significativas. Por ejemplo,
puede comparar los ingresos medios antes y después de poner en marcha una
promoción o comparar los ingresos de los clientes que no recibieron esa promoción
con los que sí lo hicieron.
Ejemplo
...]
label_correlations marca Determina si las etiquetas de
correlación se muestran en el
resultado. Esta configuración
se aplica únicamente si
means_mode se establece en
BetweenFields.
correlation_mode Probability Determina si las correlaciones
deben etiquetarse según la
Absolute probabilidad o según el valor
absoluto.
weak_label string
medium_label string
strong_label string
weak_below_probability number Si correlation_mode se
establece en Probability,
determina el valor de corte
para las correlaciones débiles.
Debe tratarse de un valor
comprendido entre 0 y 1; por
ejemplo, 0,90.
strong_above_probability number Valor de corte para
correlaciones fuertes.
weak_below_absolute number Si correlation_mode se
establece en Absolute,
especifica el valor de corte
para las correlaciones débiles.
Debe tratarse de un valor
comprendido entre 0 y 1; por
ejemplo, 0,90.
strong_above_absolute number Valor de corte para
correlaciones fuertes.
unimportant_label string
marginal_label string
important_label string
Delimited (.csv)
HTML (.html)
Output (.cou)
full_filename string
output_view Simple Determina si el resultado
muestra la vista simple o la
Advanced avanzada.
propiedades de reportnode
El nodo Informe crea informes con formato que contienen texto fijo, así como
datos y otras expresiones derivadas de los datos. Puede especificar el formato del
informe utilizando plantillas de texto para definir el texto fijo y las construcciones de
resultados de datos. Puede proporcionar formato de texto personalizado utilizando
etiquetas HTML de la plantilla y configurando opciones en la pestaña Resultado.
Puede incluir valores de datos y otros resultados condicionales mediante el uso de
expresiones CLEM en la plantilla.
Ejemplo
Output (.cou)
format Automático Se utiliza para elegir si la salida
se formatea automáticamente
Personalizado o si se formatea utilizando el
HTML incluido en la plantilla.
Para utilizar el formato HTML
en la plantilla, especifique
Personalizado.
use_output_name tag Especifica si se utiliza
un nombre de resultado
personalizado.
output_name cadena Si use_output_name es
verdadero, especifica el
nombre que se va a utilizar.
text cadena
full_filename cadena
highlights tag
título cadena
lines_per_page number
propiedades de routputnode
El nodo Routput permite analizar datos y
resultados de la puntuación del modelo utilizando
su propio script R personalizado. El resultado
del análisis puede ser en texto o en gráficos. El
resultado se añade a la pestaña Resultado del
panel de gestor. De forma alternativa, el resultado
se puede redirigir a un archivo.
convert_datetime marca
convert_missing marca
output_name
Auto
Personalizado.
custom_name cadena
output_to
Screen
Archivo
output_type
Graph
Text
full_filename cadena
graph_file_type
HTML
COU
text_file_type
HTML
TEXT
COU
propiedades de setglobalsnode
El nodo Val. globales explora los datos y calcula los valores de resumen que
se pueden utilizar en expresiones CLEM. Por ejemplo, puede utilizar este nodo
para calcular estadísticos para un campo denominado edad y, a continuación,
utilizar la media global de edad en expresiones CLEM insertando la función
@GLOBAL_MEAN(edad).
Ejemplo
node.setKeyedPropertyVa
lue(
"globals", "Age",
["Max", "Sum",
"Mean", "SDev"])
clear_first tag
show_preview tag
propiedades de simevalnode
El nodo Evaluación de simulación evalúa un campo de destino especificado
predicho, y presenta la información de correlación y distribución sobre el campo
de destino.
category_groups
Categories
Iteraciones
create_pct_table booleano
pct_table
Quartiles
Intervals
Personalizado.
pct_intervals_num número
pct_custom_values [number1...numberN]
propiedades de simfitnode
El nodo Ajustar simulación examina la distribución estadística de los datos en
cada campo y genera (o actualiza) un nodo Generar simulación, asignando a cada
campo la mejor distribución de ajuste. El nodo Generar simulación podrá entonces
utilizarse para generar datos simulados.
use_source_node_name booleano
source_node_name cadena El nombre personalizado del
nodo de origen que se está
generando o actualizando.
use_cases
All
LimitFirstN
use_case_limit entero
fit_criterion
AndersonDarling
KolmogorovSmirnov
num_bins entero
parameter_xml_filename cadena
generate_parameter_import booleano
Ejemplo
Output (.cou)
full_filename string
examine lista
correlate lista
statistics [count mean sum
min max range
variance sdev
semean median
mode]
Propiedades de statisticsoutputnode
El nodo Resultados de Statistics le permite llamar a un procedimiento de IBM
SPSS Statistics para analizar los datos de IBM SPSS Modeler. Se puede acceder a
una gran variedad de procedimientos analíticos de IBM SPSS Statistics. Este nodo
requiere una copia de IBM SPSS Statistics con licencia.
propiedades de tablenode
El nodo Tabla muestra los datos en formato de tabla, que también se puede escribir
en un archivo. Esto es útil en cualquier momento en que necesite inspeccionar sus
valores de datos o exportarlos en un formato fácilmente legible.
Ejemplo
HTML (.html)
Output (.cou)
transpose_data tag Transpone los datos antes de
exportarlos de manera que las filas
representan campos y las columnas,
registros.
paginate_output marca Si output_format es HTML, los
resultados se separarán por páginas.
lines_per_page number Si se usa con paginate_output,
especifica las líneas por página del
resultado.
highlight_expr cadena
output cadena Propiedad de sólo lectura que
mantiene una referencia en la última
tabla creada por el nodo.
value_labels [[Valor CadenaEtiqueta] Se utiliza para especificar etiquetas
para los pares de valores.
[Valor CadenaEtiqueta] ...]
display_places entero Establece el número de cifras
decimales para el campo cuando
se muestra (sólo se aplica a
campos con almacenamiento REAL).
Un valor de -1 utilizará el valor
predeterminado de la ruta.
COMMA
date_format Establece el formato de fecha
"DDMMAA"
"MMDDYY" para el campo (sólo se aplica a
"AAMMDD" campos con almacenamiento FECHA
"YYMMDD"
"YYYYDDD" o MARCADETIEMPO).
DAY
MONTH
"DD-MM-YY"
"DD-MM-YYYY"
"MM-DD-YY"
"MM-DD-AAAA"
"DD-MES-YY"
"DD-MES-YYYY"
"YYYY-MM-DD"
"DD.MM.YY"
"DD.MM.AAAA"
"MM.DD.YYYY"
"DD.MES.YY"
"DD.MES.YYYY"
"DD/MM/YY"
"DD/MM/AAAA"
"MM/DD/YY"
"MM/DD/YYYY"
"DD/MES/YY"
"DD/MES/YYYY"
MON YYYY
q Q YYYY
ww WK YYYY
"MMSS"
"HH:MM:SS"
"HH:MM"
"MM:SS"
"(H)H:(M)M:(S)S"
"(H)H:(M)M"
"(M)M:(S)S"
"HH.MM.SS"
"HH.MM"
"MM.SS"
"(H)H.(M)M.(S)S"
"(H)H.(M)M"
"(M)M.(S)S"
column_width entero Establece el ancho de columna para
el campo. Un valor de -1 establecerá
el ancho de columna en Auto.
justify AUTO Establece la justificación de columna
para el campo.
CENTER
LEFT
RIGHT
propiedades de transformnode
El nodo Transformación permite seleccionar y previsualizar los resultados de las
transformaciones antes de aplicarlas a los campos seleccionados.
Propiedades de asexport
La exportación de Analytic Server permite ejecutar una ruta en el sistema de archivos distribuido de
Hadoop (HDFS).
Ejemplo
node.setPropertyValue("use_default_as", False)
node.setPropertyValue("connection",
["false","9.119.141.141","9080","analyticserver","ibm","admin","admin","false
","","","",""])
Para este nodo, debe definir una conexión de Cognos y una conexión ODBC.
Conexión de Cognos
Las propiedades de la conexión de Cognos son las siguientes.
donde:
• storedCredentialMode.
Por ejemplo:
['Cognos_server_url',
'storedCredentialMode',
"stored_credential_name"]
Donde
stored_credential_name es el
nombre de una credencial de
Cognos del repositorio.
/Public Folders/MyPackage
cognos_datasource string
cognos_export_mode Publicar
ExportFile
cognos_filename string
conexión ODBC
Las propiedades de la conexión ODBC son idénticas a las indicadas para databaseexportnode en la
sección siguiente, a excepción de la propiedad datasource, que no es válida.
propiedades de databaseexportnode
El nodo Exportar base de datos escribe datos en orígenes de datos relacionales
compatibles con ODBC. Para escribir en un origen de datos ODBC, el origen de datos
debe existir y debe tener permiso para escribir en él.
Ejemplo
'''
Se asume que se ha configurado un origen de datos denominado
"Miorigendedatos"
'''
ruta = modeler.script.stream()
db_exportnode = stream.createAt("databaseexport", "DB Export", 200, 200)
applynn = stream.findByType("applyneuralnetwork", None)
stream.link(applynn, db_exportnode)
# pestaña Exportar
db_exportnode.setPropertyValue("username", "user")
db_exportnode.setPropertyValue("datasource", "MyDatasource")
db_exportnode.setPropertyValue("password", "password")
db_exportnode.setPropertyValue("table_name", "predictions")
Append
Fundir
Añadir
drop_existing_table marca
delete_existing_rows marca
default_string_size entero
type Propiedad estructurada que se
utiliza para establecer el tipo de
esquema.
generate_import marca
use_custom_create_table_c marca Utilice el intervalo
ommand custom_create_table para
modificar el comando de SQL
estándar CREATE TABLE.
custom_create_table_comma string Especifica el comando de cadena
nd a utilizar en lugar del comando de
SQL estándar CREATE TABLE.
use_batch marca Las siguientes propiedades son
opciones avanzadas para la
carga masiva de la base de
datos. Un valor verdadero para
Use_batch desactiva fila a fila
las confirmaciones en la base de
datos.
batch_size number Especifica el número de registros
para enviar a la base de
datos antes de confirmar en la
memoria.
Other
loader_other_delimiter
Nota: Para algunas bases de datos, puede especificar que se crearán tablas de bases de datos
para la exportación con compresión (por ejemplo, el equivalente a CREATE TABLE MYTABLE (...)
COMPRESS YES; en SQL). Las propiedades use_compression y compression_mode se proporcionan
para dar soporte a esta característica, como se indica a continuación.
Básico
OLTP
Query_High
Query_Low
Archive_High
Archive_Low
Ejemplo que muestra cómo cambiar el comando CREATE INDEX para un índice específico:
db_exportnode.setKeyedPropertyValue("indexes", "MYINDEX",
["use_custom_create_index_command",
True])db_exportnode.setKeyedPropertyValue("indexes", "MYINDEX",
["custom_create_index_command",
"CREATE BITMAP INDEX <index-name> ON <table-name> <(index-columns)>"])
Propiedades de datacollectionexportnode
El nodo de exportación Data Collection abre los datos en el formato utilizado por
el software de investigación de mercados Data Collection. Debe estar instalada una
biblioteca de datos de Data Collection para utilizar este nodo.
Ejemplo
ruta = modeler.script.stream()
datacollectionexportnode = stream.createAt("datacollectionexport", "Data
Collection", 200, 200)
datacollectionexportnode.setPropertyValue("metadata_file", "c:\\museums.mdd")
datacollectionexportnode.setPropertyValue("merge_metadata", "Overwrite")
datacollectionexportnode.setPropertyValue("casedata_file", "c:\
\museumdata.sav")
datacollectionexportnode.setPropertyValue("generate_import", True)
datacollectionexportnode.setPropertyValue("enable_system_variables", True)
MergeCurrent
enable_system_variables marca Especifica si el archivo .mdd
exportado debe incluir las
variables de sistema de Data
Collection.
casedata_file string Nombre del archivo .sav donde
se exportan los datos de casos.
generate_import marca
Propiedades de excelexportnode
El nodo de exportación Excel genera datos en el formato de archivo .xlsx de
Microsoft Excel. Si lo desea, puede elegir iniciar automáticamente Excel y abrir el
archivo exportado cuando se ejecute el nodo.
Ejemplo
ruta = modeler.script.stream()
excelexportnode = stream.createAt("excelexport", "Excel", 200, 200)
excelexportnode.setPropertyValue("full_filename", "C:/output/myexport.xlsx")
excelexportnode.setPropertyValue("excel_file_type", "Excel2007")
excelexportnode.setPropertyValue("inc_field_names", True)
excelexportnode.setPropertyValue("inc_labels_as_cell_notes", False)
Append
inc_field_names marca Especifica si los nombres de
campos deben incluirse en la
primera fila de la hoja de
trabajo.
start_cell string Especifica la casilla de inicio de
la exportación.
worksheet_name string Nombre de la hoja de trabajo
que se va a escribir.
launch_application marca Determina si Excel debe
invocarse para el archivo
resultante. Tenga en cuenta
que deberá especificar la ruta
para iniciar Excel en el cuadro
de diálogo Aplicaciones de
ayuda (menú Herramientas,
Aplicaciones de ayuda).
generate_import marca Determina si debe crearse
un nodo Importar a Excel
que leerá el archivo de datos
exportado.
Propiedades de extensionexportnode
cxt = spss.pyspark.runtime.getContext()
df = cxt.getSparkInputData()
node.setPropertyValue("python_syntax", python_script)
Ejemplo de R
#### Ejemplo de script de R
node.setPropertyValue("syntax_type", "R")
node.setPropertyValue("r_syntax", """write.csv(modelerData, "C:/export.csv")""")
Propiedades jsonexportnode
El nodo de exportación JSON genera datos en formato JSON.
Propiedades de outputfilenode
El nodo Archivo sin formato produce datos en un archivo de texto delimitado. Esto
es útil para exportar datos que se pueden leer con otro software de hoja de cálculo o
de análisis.
Ejemplo
ruta = modeler.script.stream()
outputfile = stream.createAt("outputfile", "File Output", 200, 200)
outputfile.setPropertyValue("full_filename", "c:/output/flatfile_output.txt")
outputfile.setPropertyValue("write_mode", "Append")
outputfile.setPropertyValue("inc_field_names", False)
outputfile.setPropertyValue("use_newline_after_records", False)
outputfile.setPropertyValue("delimit_mode", "Tab")
outputfile.setPropertyValue("other_delimiter", ",")
outputfile.setPropertyValue("quote_mode", "Double")
outputfile.setPropertyValue("other_quote", "*")
outputfile.setPropertyValue("decimal_symbol", "Period")
outputfile.setPropertyValue("generate_import", True)
Append
inc_field_names marca
use_newline_after_records marca
delimit_mode Comma
Tab
Space
Other
other_delimiter char
Single
Double
Other
other_quote marca
generate_import marca
codificación StreamDefault
SystemDefault
"UTF-8"
Propiedades de sasexportnode
El nodo Exportar SAS produce datos en formato SAS, para leerlos en SAS o en
un paquete de software compatible con SAS. Están disponibles tres formatos de
archivo SAS: SAS para Windows/OS2, SAS para UNIX o SAS versión 7/8.
Ejemplo
ruta = modeler.script.stream()
sasexportnode = stream.createAt("sasexport", "SAS Export", 200, 200)
sasexportnode.setPropertyValue("full_filename", "c:/output/
SAS_output.sas7bdat")
sasexportnode.setPropertyValue("format", "SAS8")
sasexportnode.setPropertyValue("export_names", "NamesAndLabels")
sasexportnode.setPropertyValue("generate_import", True)
SAS7
SAS8
full_filename string
Propiedades de statisticsexportnode
El nodo Exportar Statistics ofrece los resultados en formato IBM SPSS Statistics .sav
o .zsav. Los archivos .sav o .zsav se pueden leer con IBM SPSS Statistics Base
y otros productos. Este es también el formato utilizado para los archivos caché de
IBM SPSS Modeler.
Las propiedades de este nodo están descritas en “Propiedades de statisticsexportnode” en la página 439.
Nota: Este nodo estaba en desuso en Modeler 18.0. El nombre del script del nodo de sustitución es
tm1odataexport.
Por ejemplo:
TM1_export.setPropertyValue("tm1_c
onnection", ['Planning Sample',
"admin" "apple"])
Ejemplo:
setPropertyValue("selected_measure
", "Measures")
Propiedades de xmlexportnode
El nodo de exportación XML exporta datos a un archivo en formato XML. También
puede crear un nodo de origen XML para leer los datos exportados a la ruta.
Ejemplo
ruta = modeler.script.stream()
xmlexportnode = stream.createAt("xmlexport", "XML Export", 200, 200)
xmlexportnode.setPropertyValue("full_filename", "c:/export/data.xml")
xmlexportnode.setPropertyValue("map", [["/catalog/book/genre", "genre"], ["/
catalog/book/title", "title"]])
Propiedades de statisticsimportnode
El nodo Archivo de estadísticas lee los datos desde un formato de archivo .sav o .zsav
que utiliza IBM SPSS Statistics y archivos caché guardados en IBM SPSS Modeler, que
también puede utilizar el mismo formato.
Ejemplo
ruta = modeler.script.stream()
statisticsimportnode = stream.createAt("statisticsimport", "SAV Import",
200, 200)
statisticsimportnode.setPropertyValue("full_filename", "C:/data/drug1n.sav")
statisticsimportnode.setPropertyValue("import_names", True)
statisticsimportnode.setPropertyValue("import_data", True)
LabelsAsData
use_field_format_for_stor Booleana Especifica si se utiliza la información de
age formato de campo de IBM SPSS Statistics
al importar.
propiedades de statisticstransformnode
El nodo Transformación Statistics ejecuta una selección de comandos de sintaxis
de IBM SPSS Statistics en los orígenes de datos de IBM SPSS Modeler. Este nodo
requiere una copia de IBM SPSS Statistics con licencia.
Ejemplo
ruta = modeler.script.stream()
statisticstransformnode = stream.createAt("statisticstransform",
"Transform", 200, 200)
statisticstransformnode.setPropertyValue("syntax", "COMPUTE NewVar = Na +
K.")
statisticstransformnode.setKeyedPropertyValue("new_name", "NewVar", "Mixed
Drugs")
statisticstransformnode.setPropertyValue("check_before_saving", True)
propiedades de statisticsmodelnode
El nodo Modelo Statistics permite analizar y trabajar con sus datos ejecutando los
procedimientos de IBM SPSS Statistics que producen PMML. Este nodo requiere una
copia de IBM SPSS Statistics con licencia.
Ejemplo
ruta = modeler.script.stream()
statisticsmodelnode = stream.createAt("statisticsmodel", "Model", 200, 200)
statisticsmodelnode.setPropertyValue("syntax", "COMPUTE NewVar = Na + K.")
statisticsmodelnode.setKeyedPropertyValue("new_name", "NewVar", "Mixed
Drugs")
Propiedades de statisticsoutputnode
El nodo Resultados de Statistics le permite llamar a un procedimiento de IBM
SPSS Statistics para analizar los datos de IBM SPSS Modeler. Se puede acceder a
una gran variedad de procedimientos analíticos de IBM SPSS Statistics. Este nodo
requiere una copia de IBM SPSS Statistics con licencia.
Ejemplo
ruta = modeler.script.stream()
statisticsoutputnode = stream.createAt("statisticsoutput", "Output", 200,
200)
statisticsoutputnode.setPropertyValue("syntax", "SORT CASES BY Age(A) Sex(A)
BP(A) Cholesterol(A)")
statisticsoutputnode.setPropertyValue("use_output_name", False)
statisticsoutputnode.setPropertyValue("output_mode", "File")
statisticsoutputnode.setPropertyValue("full_filename", "Cases by Age, Sex
and Medical History")
statisticsoutputnode.setPropertyValue("file_type", "HTML")
sintaxis string
use_output_name marca
output_name string
output_mode Screen
File
full_filename string
tipo_archivo HTML
SPV
SPW
Propiedades de statisticsexportnode
El nodo Exportar Statistics ofrece los resultados en formato IBM SPSS Statistics .sav
o .zsav. Los archivos .sav o .zsav se pueden leer con IBM SPSS Statistics Base
y otros productos. Este es también el formato utilizado para los archivos caché de
IBM SPSS Modeler.
ruta = modeler.script.stream()
statisticsexportnode = stream.createAt("statisticsexport", "Export", 200,
200)
statisticsexportnode.setPropertyValue("full_filename", "c:/output/
SPSS_Statistics_out.sav")
statisticsexportnode.setPropertyValue("field_names", "Names")
statisticsexportnode.setPropertyValue("launch_application", True)
statisticsexportnode.setPropertyValue("generate_import", True)
zsav statisticsexportnode.setPropertyValue("file_
type","sav")
encrypt_file marca Indica si el archivo está protegido con contraseña.
password string La contraseña.
launch_applicatio marca
n
export_names NamesAndLabels Se utiliza para correlacionar los nombres de campos de
IBM SPSS Modeler que se vayan a exportar a nombres de
NamesAsLabels variables de IBM SPSS Statistics o SAS.
generate_import marca
Propiedades gmm
Un modelo de Gaussian Mixture© es un modelo probabilístico que presupone que
todos los puntos de datos se generan a partir de una mezcla de un número finito
de distribuciones gausianas con parámetros desconocidos. Se puede pensar que los
modelos de mezcla son generalizadores de la agrupación en clúster de k-medias
para incorporar información sobre la estructura de covarianzas de los datos, así
como los centros de valores gausianos latentes. El nodo de mezcla gausiana en
SPSS Modeler expone las características principales y los parámetros utilizados con
más frecuencia de la biblioteca de la mezcla gausiana. El nodo se implementa en
Python.
Propiedades hdbscannode
La agrupación en clúster espacial basada en densidad jerárquica (HDBSCAN)©
utiliza el aprendizaje no supervisado para encontrar clústeres, o regiones densas, de
un conjunto de datos. El nodo HDBSCAN en SPSS Modeler expone las características
principales y los parámetros utilizados con más frecuencia de la biblioteca
HDBSCAN. El nodo se implementa en Python, y puede utilizarlo para agrupar en
clúster el conjunto de datos en grupos distintos cuando no sabe qué grupos están
primero.
Propiedades kdemodel
La estimación de densidad de kernel (KDE)© utiliza los algoritmos del árbol de
métrica o del árbol KD para unas consultas eficientes y combina los conceptos de
aprendizaje no supervisado, ingeniería de características y modelado de datos. Los
enfoques basados en vecinos como, por ejemplo, KDE, son algunas de las técnicas
de estimación de densidad más populares y útiles. Los nodos de modelado de KDE
y simulación de KDE en SPSS Modeler exponen las características principales y
los parámetros utilizados con más frecuencia de la biblioteca KDE. Los nodos se
implementan en Python.
propiedades kdeexport
La estimación de densidad de kernel (KDE)© utiliza los algoritmos del árbol de
métrica o del árbol KD para unas consultas eficientes y combina los conceptos de
aprendizaje no supervisado, ingeniería de características y modelado de datos. Los
enfoques basados en vecinos como, por ejemplo, KDE, son algunas de las técnicas
de estimación de densidad más populares y útiles. Los nodos de modelado de KDE
y simulación de KDE en SPSS Modeler exponen las características principales y
los parámetros utilizados con más frecuencia de la biblioteca KDE. Los nodos se
implementan en Python.
Propiedades gmm
Un modelo de Gaussian Mixture© es un modelo probabilístico que presupone que
todos los puntos de datos se generan a partir de una mezcla de un número finito
de distribuciones gausianas con parámetros desconocidos. Se puede pensar que los
modelos de mezcla son generalizadores de la agrupación en clúster de k-medias
para incorporar información sobre la estructura de covarianzas de los datos, así
como los centros de valores gausianos latentes. El nodo de mezcla gausiana en
SPSS Modeler expone las características principales y los parámetros utilizados con
más frecuencia de la biblioteca de la mezcla gausiana. El nodo se implementa en
Python.
ocsvmnode, propiedades
El nodo SVM de una clase utiliza un algoritmo de aprendizaje no supervisado. El
nodo se puede utilizar para la detección de novedad. Detectará el límite flexible de
un conjunto de muestras proporcionado, para clasificar a continuación los puntos
nuevos como pertenecientes o no a dicho conjunto. Este nodo de modelado SVM
de una clase en SPSS Modeler se implementa en Python y necesita la biblioteca
scikit-learn© de Python.
Propiedades rfnode
El nodo Bosque aleatorio utiliza una implementación avanzada de un algoritmo de
agregación autodocimante con un modelo de árbol como modelo base. Este nodo
de modelado de bosque aleatorio en SPSS Modeler se implementa en Python y
requiere la biblioteca scikit-learn© Python.
Propiedades de smotenode
El nodo SMOTE (Synthetic Minority Over-sampling Technique) proporciona un
algoritmo de sobremuestreo para tratar con conjuntos de datos desequilibrados.
Proporciona un método avanzado para equilibrar datos. El nodo de proceso SMOTE
en SPSS Modeler se implementa en Python y necesita la biblioteca de Python
imbalanced-learn©.
Propiedades tsnenode
Propiedades xgboostlinearnode
XGBoost Linear© es una implementación avanzada de un algoritmo de aumento
de gradiente con un modelo lineal como modelo base. Los algoritmos de aumento
conocen de forma iterativa los clasificadores débiles y, a continuación, los añaden a
un clasificador fuerte final. El nodo XGBoost Linear en SPSS Modeler se implementa
en Python.
Propiedades de xgboosttreenode
XGBoost Tree© es una implementación avanzada de un algoritmo de aumento de
gradiente con un modelo de árbol como modelo base. Los algoritmos de aumento
conocen de forma iterativa los clasificadores débiles y, a continuación, los añaden
a un clasificador fuerte final. XGBoost Tree es muy flexible y proporciona muchos
parámetros que pueden ser abrumadores para la mayoría de usuarios, de modo que
el nodo XGBoost Tree en SPSS Modeler expone las características principales y los
parámetros utilizados comúnmente. El nodo se implementa en Python.
Propiedades isotonicasnode
Propiedades kmeansasnode
k-medias es uno de los algoritmos de agrupación en clúster utilizado con más
frecuencia. Agrupa en clúster puntos de datos en un número predefinido de
clústeres. El nodo K-Medias-AS en SPSS Modeler se implementa en Spark. Si desea
más detalles sobre algoritmos de k-medias, consulte https://spark.apache.org/docs/
2.2.0/ml-clustering.html. Tenga en cuenta que el nodo K-Medias-AS realiza una
codificación "one-hot" automáticamente para variables categóricas.
Propiedades xgboostasnode
XGBoost es una implementación avanzada de un algoritmo de aumento de
gradiente. Los algoritmos de aumento conocen de forma iterativa los clasificadores
débiles y, a continuación, los añaden a un clasificador fuerte final. XGBoost es muy
flexible y proporciona muchos parámetros que pueden resultar abrumadores para
la mayoría de los usuarios, así que el nodo XGBoost-AS en SPSS Modeler expone
las características principales y los parámetros utilizados normalmente. El nodo
XGBoost-AS se implementa en Spark.
En las siguientes tablas se describen las propiedades específicas de los Supernodos. Tenga en cuenta que
las propiedades de nodos comunes se aplican también a los Supernodos.
Normal
script string
Parámetros de Supernodos
Puede utilizar scripts para crear o establecer parámetros de Supernodo utilizando el formato general:
mySuperNode.setParameterValue("minvalue", 30)
value mySuperNode.getParameterValue("minvalue")
childDiagram = source_supernode.getChildDiagram()
varfilenode = childDiagram.findByType("variablefile", None)
varfilenode.setPropertyValue("full_filename", "c:/mydata.txt")
Creación de supernodos
Si desea crear un supernodo y su contenido de cero, puede hacerlo de forma similar a la creación del
supernodo, accediendo al diagrama hijo y creando los nodos que desee. También debe asegurarse de que
los nodos del diagrama del supernodo estén también vinculados a los nodos de los conectores de entrada
y/o de salida. Por ejemplo, si desea crear un proceso Supernodo:
Esta sección ofrece una referencia de todos los nombres de script de los nodos de IBM SPSS Modeler.
Tabla 278. Tipos de objeto de resultado y los nodos que los crean
Tipo de objeto de resultado Nodo
analysisoutput Análisis
collectionoutput Colección
dataauditoutput Auditoría de datos
Diferencias generales
Una gran parte del diseño de los scripts de herencia se debe a los scripts de comandos del sistema
operativo. Los scripts de herencia están orientados a líneas y, aunque existen algunas estructuras de
bloque, por ejemplo if...then...else...endif y for...endfor, generalmente la indentación no
es importante.
En los scripts Python, la indentación es importante y las líneas que pertenecen al mismo bloque lógico se
deben indentar en el mismo nivel.
Nota: Debe prestar atención cuando copie y pegue el código Python. En el editor, una línea que se ha
indentado utilizando pestañas puede parecer la misma que una línea que se ha indentado utilizando
espacios. Sin embargo, el script Python generará un error porque no se considera que la indentación de
las líneas sea la misma.
s = modeler.script.stream()
A continuación podrán invocarse funciones relacionadas con la ruta a través del objeto devuelto.
Python utiliza funciones que suelen invocarse a través de un objeto (módulo, clase u objeto) que define la
función, por ejemplo:
stream = modeler.script.stream()
typenode = stream.findByType("type", "Type)
filternode = stream.findByType("filter", None)
ruta.link(nodotipo, nodofiltro)
derive.setLabel("Compute Total")
Literales y comentarios
Algunos de los literales y comandos de comentarios que normalmente se utilizan en IBM SPSS Modeler
tienen sus equivalentes en los scripts Python. Esto puede ayudarle a convertir los scripts de SPSS
Modeler de herencia existentes en scripts Python para utilizarlos en IBM SPSS Modeler 17.
Tabla 279. Correlación de scripts de herencia con scripts Python para literales y comentarios
Scripts de herencia scripts Python
Entero, por ejemplo 4 El mismo
Flotante, por ejemplo, 0,003 El mismo
Cadenas entre comillas simples, por ejemplo, El mismo
‘Hola’
Nota: Los literales de cadena que contengan
caracteres que no sean ASCII deberán tener el
prefijo u para garantizar que se representen en
Unicode.
Operadores
Algunos de los comandos de operadores que normalmente se utilizan en IBM SPSS Modeler tienen
sus comandos equivalentes en los scripts Python. Esto puede ayudarle a convertir los scripts de SPSS
Modeler de herencia existentes en scripts Python para utilizarlos en IBM SPSS Modeler 17.
= ==
==
/= !=
/==
X ** Y X ** Y
X < Y X < Y
X <= Y X <= Y
X > Y X > Y
X >= Y X >= Y
X div Y X // Y
X rem Y X % Y
X mod Y X % Y
and and
or or
not(EXPR) not EXPR
Tabla 281. Correspondencia de scripts de herencia con scripts Python en lo referente a comandos
condicionales y de bucle
Scripts de herencia scripts Python
VAR = INT1
while VAR <= INT2:
...
VAR += 1
if…then if …:
… …
elseif…then elif …:
… …
else else:
… …
endif
Sin equivalente
with TYPE OBJECT
…
endwith
Variables
En los scripts heredados, las variables se declaran antes de ser referenciadas, por ejemplo:
var minodo
set minodo = create typenode at 96 96
En los scripts Python, las variables se crean la primera vez que se referencian, por ejemplo:
En los scripts heredados, las referencias a variables deben eliminarse explícitamente mediante el
operador ^, por ejemplo:
var minodo
set minodo = create typenode at 96 96
set ^minodo.direction."Age" = Input
Al igual que en la mayoría de lenguajes de script, esto no es necesario en los scripts Python, por ejemplo:
La única diferencia en los tipos de nombre entre los scripts Python y los heredados es la ausencia del
sufijo de tipo.
Nombres de propiedades
Los nombres de las propiedades son los mismos en scripts heredados y en scripts Python. Por ejemplo,
en el nodo Archivo variable, la propiedad que define la ubicación del archivo es full_filename en
ambos entornos de creación de scripts.
Referencias de nodos
Muchos scripts de herencia utilizan una búsqueda implícita para buscar y acceder al nodo que se ha de
modificar. Por ejemplo, los comandos siguientes buscan en la ruta actual un nodo Type con la etiqueta
"Type", a continuación, establecen la dirección (o el rol de modelado) del campo "Age" como entrada y el
campo "Drug" como destino, esto es, el valor predicho:
En los scripts Python, los objetos de nodo se han de localizar de forma explícita antes de llamar a la
función para establecer el valor de propiedad, por ejemplo:
Nota: En este caso, "Target" debe estar encerrado entre comillas en la cadena.
Los scripts Python pueden utilizar de forma alternativa la enumeración ModelingRole del paquete
modeler.api.
Aunque la versión de los scripts Python puede ser más verbosa, el rendimiento de tiempo de ejecución
es mejor ya que la búsqueda del nodo generalmente solo se realiza una vez. En el ejemplo de scripts de
herencia, la búsqueda del nodo se realiza para cada comando.
También está soportado buscar nodos por ID (el ID de nodo se puede ver en la pestaña Anotaciones del
diálogo del nodo). Por ejemplo, en los scripts de herencia:
typenode = stream.findByID("id65EMPB9VL87")
typenode.setKeyedPropertyValue("direction", "Age", "Input")
objeto.setPropertyValue(propiedad, valor)
objeto.setKeyedPropertyValue(propiedad con claves, clave, valor)
En los scripts de herencia, se puede acceder a los valores de las propiedades utilizando el comando get,
por ejemplo:
var n v
set n = get node :filternode
set v = ^n.name
En los scripts Python, se obtiene el mismo resultado utilizando la función getPropertyValue(), por
ejemplo:
n = stream.findByType("filter", None)
v = n.getPropertyValue("name")
Edición de rutas
En los scripts de herencia, se utiliza el comando create para crear un nodo nuevo, por ejemplo:
En los scripts Python, las rutas tienen varios métodos para crear nodos, por ejemplo:
stream = modeler.script.stream()
agg = stream.createAt("aggregate", "Aggregate", 96, 96)
select = stream.createAt("select", "Select", 164, 96)
En los scripts de herencia, se utiliza el comando connect para crear enlaces entre nodos, por ejemplo:
En los scripts Python, se utiliza el método link para crear enlaces entre nodos, por ejemplo:
stream.link(agg, select)
En los scripts de herencia, se utiliza el comando disconnect para eliminar enlaces entre nodos, por
ejemplo:
En los scripts Python, se utiliza el método unlink para eliminar enlaces entre nodos, por ejemplo:
stream.unlink(agg, select)
En los scripts de herencia, se utiliza el comando position para posicionar los nodos en el lienzo de rutas
o entre nodos, por ejemplo:
En los scripts Python, se obtiene el mismo resultado utilizando dos métodos separados: setXYPosition
y setPositionBetween. Por ejemplo:
agg.setXYPosition(256, 256)
agg.setPositionBetween(myselect, mydistinct)
Tabla 282. Correlación de scripts de herencia con scripts Python para operaciones de nodo
Scripts de herencia scripts Python
create especificaciónodo at x y
ruta.create(tipo, nombre)
ruta.createAt(tipo, nombre, x, y)
ruta.createBetween(tipo, nombre, preNode,
postNode)
ruta.createModelApplier(modelo, nombre)
Bucle
En los scripts de herencia, hay dos opciones de bucle principales a las que se da soporte:
• Bucles de Valor contado, en los que una variable de índice se mueve entre dos límites de entero.
• Bucles de secuencia que avanzan en bucle por una secuencia de valores, enlazando el valor actual con
la variable de bucle.
El script siguiente es un ejemplo de un bucle de valor contado en un script de herencia:
for i from 1 to 10
println ^i
endfor
var items
set items = [a b c d]
for i in items
println ^i
endfor
i = 1
while i <= 10:
print i
i += 1
El bucle de secuencia es muy flexible y cuando se combina con los métodos de la API de IBM SPSS
Modeler puede dar soporte a la mayoría de los casos de uso scripts de herencia. El siguiente ejemplo
muestra cómo utilizar un bucle de secuencia en scripts Python para iterar por los campos de salida de un
nodo:
Ejecución de rutas
Durante la ejecución de la ruta, el modelo o los objetos de resultados que se generan se añaden a uno
de los gestores de objeto. En el script existente, el script debe localizar los objetos creados desde el
gestor de objeto, o acceder al resultado generado más recientemente desde el nodo que ha generado el
resultado.
La ejecución de rutas en Python es diferente, ya que cualquier objeto de modelo o resultados que genere
la ejecución se devuelve una lista que se pasa a la función de ejecución. Esto hace que resulte más
sencillo acceder a los resultados de la ejecución de la ruta.
Los scripts de herencia dan soporte a tres comandos de ejecución de ruta:
• execute_all ejecuta todos nodos terminales ejecutables en la ruta.
• execute_script ejecuta el script de ruta independientemente del valor de la ejecución del script.
• execute nodo ejecuta el nodo especificado.
Los scripts Python dan soporte a un conjunto de funciones similares:
• ruta.runAll(lista-resultados) ejecuta todos los nodos terminales ejecutables de la ruta.
• ruta.runScript(lista-resultados) ejecuta el script de ruta independientemente del valor de la
ejecución del script.
• ruta.runSelected(matriz-nodos, lista-resultados) ejecuta el conjunto de nodos
especificados en el orden en que se suministran.
• nodo.run(lista-resultados) ejecuta el nodo especificado.
En los scripts de herencia, la ejecución de ruta se puede finalizar con el comando exit con un código de
entero opcional, por ejemplo:
exit 1
En los scripts Python, se puede obtener el mismo resultado con el script siguiente:
modeler.script.exit(1)
var s
set s = open stream "c:/my streams/modeling.str"
En los scripts Python, existe la clase TaskRunner, accesible desde la sesión, que puede utilizarse para
realizar tareas similares, por ejemplo:
taskrunner = modeler.script.session().getTaskRunner()
s = taskrunner.openStreamFromFile("c:/my streams/modeling.str", True)
Para guardar un objeto en los scripts heredados, puede utilizarse el comando save, por ejemplo:
Las operaciones basadas en un Repositorio de IBM SPSS Collaboration and Deployment Services se
soportan en los scripts heredados mediante los comandos retrieve y store, por ejemplo:
var s
set s = retrieve stream "/my repository folder/my_stream.str"
store stream ^s as "/my repository folder/my_stream_copy.str"
En los scripts Python, se accede a la funcionalidad equivalente a través del objeto Repository asociado a
la sesión, por ejemplo:
session = modeler.script.session()
repo = session.getRepository()
s = repo.retrieveStream("/my repository folder/my_stream.str", None, None, True)
repo.storeStream(s, "/my repository folder/my_stream_copy.str", None)
Nota: El acceso al repositorio exige que la sesión se haya configurado con una conexión de repositorio
válida.
Operaciones de ruta
Algunos comandos de operación de ruta que normalmente se utilizan en IBM SPSS Modeler tienen
sus comandos equivalentes en los scripts Python. Esto puede ayudarle a convertir los scripts de SPSS
Modeler de herencia existentes en scripts Python para utilizarlos en IBM SPSS Modeler 17.
Tabla 283. Correlación de scripts de herencia con scripts Python para operaciones de ruta
Scripts de herencia scripts Python
create stream ejecutortareas.createStream(nombre,
NOMBREARCHIVO_PREDETERMINADO autoConectar, autoGestionar)
close stream ruta.close()
clear stream ruta.clear()
get stream ruta Sin equivalente
load stream vía de acceso Sin equivalente
open stream vía de acceso ejecutortareas.openStreamFromFile(vía
de acceso, autoGestionar)
Operaciones de modelo
Algunos de los comandos de operación de modelo que normalmente se utilizan en IBM SPSS Modeler
tienen sus comandos equivalentes en los scripts Python. Esto puede ayudarle a convertir los scripts de
SPSS Modeler de herencia existentes en scripts Python para utilizarlos en IBM SPSS Modeler 17.
Tabla 284. Correlación de scripts de herencia con scripts Python para operaciones de modelo
Scripts de herencia scripts Python
open model vía de acceso ejecutortareas.openModelFromFile(vía de
acceso, autoGestionar)
save modelo as vía de acceso ejecutortareas.saveModelToFile(modelo,
vía de acceso)
retrieve model vía de acceso repositorio.retrieveModel(vía de
acceso, versión, etiqueta,
autoGestionar)
store modelo as vía de acceso repositorio.storeModel(modelo, vía de
acceso, etiqueta)
Tabla 285. Correlación de scripts de herencia con scripts Python para operaciones de resultado de
documento
Scripts de herencia scripts Python
open output vía de acceso ejecutortareas.openDocumentFromFile(vía
de acceso, autoGestionar)
save resultado as vía de acceso ejecutortareas.saveDocumentToFile(resul
tado, vía de acceso)
retrieve output vía de acceso repositorio.retrieveDocument(vía de
acceso, versión, etiqueta,
autoGestionar)
store resultado as vía de acceso repositorio.storeDocument(resultado,
vía de acceso, etiqueta)
Para consultas sobre licencias relacionadas con información de doble byte (DBCS), póngase en contacto
con el departamento de propiedad intelectual de IBM de su país o envíe sus consultas, por escrito, a:
Esta información estará disponible, bajo las condiciones adecuadas, incluyendo en algunos casos el pago
de una cuota.
El programa bajo licencia que se describe en este documento y todo el material bajo licencia disponible
los proporciona IBM bajo los términos de las Condiciones Generales de IBM, Acuerdo Internacional de
Programas Bajo Licencia de IBM o cualquier acuerdo equivalente entre las partes.
Los ejemplos de datos de rendimiento y de clientes citados se presentan solamente a efectos ilustrativos.
Los resultados reales de rendimiento pueden variar en función de las configuraciones específicas y
condiciones de operación.
La información relacionada con productos no IBM se ha obtenido de los proveedores de esos productos,
de sus anuncios publicados o de otras fuentes disponibles públicamente. IBM no ha probado esos
productos y no puede confirmar la exactitud del rendimiento, la compatibilidad ni ninguna otra afirmación
relacionada con productos no IBM. Las preguntas sobre las posibilidades de productos que no son de IBM
deben dirigirse a los proveedores de esos productos.
Las declaraciones sobre el futuro rumbo o intención de IBM están sujetas a cambio o retirada sin previo
aviso y representan únicamente metas y objetivos.
Esta información contiene ejemplos de datos e informes utilizados en operaciones comerciales diarias.
Para ilustrarlos lo máximo posible, los ejemplos incluyen los nombres de las personas, empresas,
marcas y productos. Todos estos nombres son ficticios y cualquier parecido con personas o empresas
comerciales reales es pura coincidencia.
Marcas comerciales
IBM, el logotipo de IBM e ibm.com son marcas registradas de International Business Machines Corp. en
muchas jurisdicciones de todo el mundo. Otros nombres de productos y servicios podrían ser marcas
registradas de IBM u otras compañías. En Internet hay disponible una lista actualizada de las marcas
registradas de IBM, en "Copyright and trademark information", en www.ibm.com/legal/copytrade.shtml.
Adobe, el logotipo Adobe, PostScript y el logotipo PostScript son marcas registradas o marcas
comerciales de Adobe Systems Incorporated en los Estados Unidos y/o en otros países.
Intel, el logotipo de Intel, Intel Inside, el logotipo de Intel Inside, Intel Centrino, el logotipo de Intel
Centrino, Celeron, Intel Xeon, Intel SpeedStep, Itanium y Pentium son marcas comerciales o marcas
registradas de Intel Corporation o sus filiales en los Estados Unidos y otros países.
Linux es una marca registrada de Linus Torvalds en los Estados Unidos, otros países o ambos.
Microsoft, Windows, Windows NT, y el logotipo de Windows son marcas comerciales de Microsoft
Corporation en los Estados Unidos, otros países o ambos.
UNIX es una marca registrada de The Open Group en los Estados Unidos y en otros países.
Java y todas las marcas comerciales y los logotipos basados en Java son marcas comerciales o
registradas de Oracle y/o sus afiliados.
Aplicabilidad
Estos términos y condiciones son adicionales a los términos de uso del sitio web de IBM.
484 Avisos
Uso personal
Estas publicaciones se pueden reproducir para uso personal no comercial siempre que se conserven
todos los avisos de propiedad. No puede distribuir, visualizar ni realizar trabajos derivados de estas
publicaciones, ni de partes de las mismas, sin el consentimiento expreso de IBM.
Uso comercial
Puede reproducir, distribuir y visualizar estas publicaciones únicamente dentro de la empresa a condición
de que se conserven todos los avisos de propiedad. No puede realizar trabajos derivados de estas
publicaciones, ni de partes de las mismas, ni reproducirlas, distribuirlas o visualizarlas fuera de su
empresa sin el consentimiento expreso de IBM.
Derechos
Excepto de la forma explícitamente otorgada en este permiso, no se otorga ningún permiso, licencia ni
derecho, ni explícito ni implícito, sobre las publicaciones ni a ninguna otra información, datos, software u
otra propiedad intelectual contenida en ellas.
IBM se reserva el derecho de retirar los permisos aquí otorgados siempre que, a su discreción, el uso
de las publicaciones sea perjudicial para su interés o cuando, según determine IBM, las instrucciones
anteriores no se sigan correctamente.
No puede descargar, exportar ni volver a exportar esta información si no es cumpliendo totalmente todas
las leyes y regulaciones aplicables, incluyendo las leyes y regulaciones de exportación de los Estados
Unidos.
IBM NO GARANTIZA EL CONTENIDO DE ESTAS PUBLICACIONES. LAS PUBLICACIONES SE
PROPORCIONAN "TAL CUAL" Y SIN GARANTÍA DE NINGUNA CLASE, NI EXPLÍCITA NI IMPLÍCITA,
INCLUYENDO PERO SIN LIMITARSE A LAS GARANTÍAS IMPLÍCITAS DE COMERCIALIZACIÓN, NO
VULNERACIÓN E IDONEIDAD PARA UN FIN DETERMINADO.
Avisos 485
486 Guía de automatización y scripts Python de IBM SPSS Modeler 18.3
Índice
Índice 487
identificadores 19 modelos bietápicos
inheritance 26 propiedades de scripts de nodos 337, 361
instrucciones 19 modelos bietápicos AS
interrupción de scripts 12 propiedades de scripts de nodos 338, 361
modelos C5.0
propiedades de scripts de nodos 237, 346
J modelos CARMA
Jython 15 propiedades de scripts de nodos 239, 346
modelos causales temporales
propiedades de scripts de nodos 318
L modelos CHAID
propiedades de scripts de nodos 243, 347
línea de comandos
Modelos de agrupación en clústeres divisivo de Netezza
ejecutar IBM SPSS Modeler 65
propiedades de scripts de nodos 375, 392
lista de argumentos 66, 68–70
modelos de árbol aleatorio
parámetros 67
propiedades de scripts de nodos 302, 357
scripts 54
modelos de árbol C&R
varios argumentos 70
propiedades de scripts de nodos 240, 346
listas 16
Modelos de árbol de decisión de Oracle
propiedades de scripts de nodos 368, 374
M modelos de árboles de decisión de Netezza
propiedades de scripts de nodos 375, 392
marcas Modelos de árboles de regresión de Netezza
argumentos de la línea de comandos 65 propiedades de scripts de nodos 375, 392
combinación de varias marcas 70 modelos de Autoclúster
métodos matemáticos 21 propiedades de scripts de nodos 345
migrar Modelos de bayesiano ingenuo de Netezza
acceder a objetos 479 propiedades de scripts de nodos 375, 392
borrar rutas, salida y gestores de modelos 35 Modelos de bayesiano ingenuo de Oracle
bucle 477 propiedades de scripts de nodos 368, 374
comandos 471 Modelos de clasificador automático
conceptos básicos 471 propiedades de scripts de nodos 343
configuración de propiedades 475 modelos de detección de anomalías
contexto de los scripts 471 propiedades de scripts de nodos 222, 341
diferencias generales 471 Modelos de IBM SPSS Statistics
editar rutas 476 propiedades de scripts de nodos 438
ejecución de rutas 478 modelos de K-medias
funciones 471 propiedades de scripts de nodos 278, 353
nombres de propiedad 475 modelos de K-medias de Netezza
obtener propiedades 475 propiedades de scripts de nodos 375, 392
referencias de nodos 475 Modelos de K-medias de Oracle
repositorio 479 propiedades de scripts de nodos 368, 374
sistema de archivos 479 modelos de la máquina de vectores de soporte
tipos de modelos 474 propiedades de scripts de nodos 316, 359
tipos de nodo 474 modelos de la máquina de vectores de soporte lineal
tipos de resultados 474 propiedades de scripts de nodos 293, 354
variables 474 modelos de listas de decisiones
varios 481 propiedades de scripts de nodos 248, 348
modelado de bases de datos 363 Modelos de máquinas de vectores de soporte de Oracle
modelo de contenido de tabla 56 propiedades de scripts de nodos 368, 374
modelo de contenido JSON 59 modelos de Microsoft
modelo de contenido XML 57 propiedades de scripts de nodos 363, 365
Modelos Modelos de Netezza
nombres de scripts 467, 469 propiedades de scripts de nodos 375
modelos apriori Modelos de NMF de Oracle
propiedades de scripts de nodos 223, 341 propiedades de scripts de nodos 368, 374
Modelos Apriori de Oracle modelos de Oracle
propiedades de scripts de nodos 368, 374 propiedades de scripts de nodos 368
modelos autonuméricos modelos de red bayesiana
propiedades de scripts de nodos 233 propiedades de scripts de nodos 235
Modelos autonuméricos Modelos de red bayesiana de Netezza
propiedades de scripts de nodos 345 propiedades de scripts de nodos 375, 392
Modelos bayesianos adaptativos de Oracle modelos de red neuronal
propiedades de scripts de nodos 368, 374 propiedades de scripts de nodos 294, 355
Índice 489
Nodo de exportación Excel (continuación) Nodo Exportar SAS
propiedades 426, 428 propiedades 430
nodo de exportación XML nodo filter
propiedades 436 propiedades 170
nodo de importación de extensión nodo fixedfile
propiedades 101 propiedades 103
nodo de mezcla gausiana nodo flatfilenode
propiedades 441, 446 propiedades 429
nodo de Modelo de extensión nodo Fundir
propiedades de scripts de nodos 252 propiedades 134
Nodo de origen de Excel nodo G. múltiple
propiedades 100 propiedades 211
Nodo de origen de IBM SPSS Statistics Collection nodo Generación de análisis de serie temporal
propiedades 437 propiedades 151
Nodo de origen de importación de TWC nodo Generar simulación
propiedades 113 propiedades 109
nodo de origen Geospacial nodo Gráfico de tiempo
propiedades 108 propiedades 215
nodo de origen JSON nodo Gráfico electrónico
propiedades 108 propiedades 216
nodo de origen Recopilación de datos nodo HDBSCAN
propiedades 96 propiedades 442
Nodo de origen SAS nodo histogram
propiedades 109 propiedades 205
Nodo de origen XML nodo history
propiedades 121 propiedades 171
nodo de predicción espaciotemporal nodo Informe
propiedades 310 propiedades 405
Nodo de reglas de asociación nodo Intervalos de tiempo
propiedades 225 propiedades 179
Nodo de Resultados de extensión nodo Intervalos de tiempo AS
propiedades 398 propiedades 160
Nodo de salida de IBM SPSS Statistics Collection Nodo Isotónica-AS
propiedades 439 propiedades 459
nodo de simulación de ajuste nodo Malla
propiedades 409 propiedades 219
nodo de simulación de evaluación nodo Malla direccional
propiedades 408 propiedades 219
nodo de simulación de KDE Nodo Marcas
propiedades 400, 445 propiedades 178
nodo de transformación nodo Matriz
propiedades 414 propiedades 401
nodo de Transformación de extensión nodo Medias
propiedades 133 propiedades 403
Nodo de transformación de IBM SPSS Statistics Collection nodo Modelado KDE
propiedades 437 propiedades 444
nodo de transformación R Nodo Optimización de CPLEX
propiedades 138 propiedades 125
nodo de visualización de mapas nodo origen Analytic Server
propiedades 206 propiedades 90
nodo Derivar nodo Origen de IBM Cognos
propiedades 164 propiedades 91
nodo Distinguir nodo Origen de IBM Cognos TM1
propiedades 131 propiedades 111, 112
nodo distribution nodo partition
propiedades 197 propiedades 172
nodo ensemble Nodo Perceptrón multicapa-
propiedades 168 AS
nodo Estadísticos propiedades 461
propiedades 410 nodo plot
nodo Evaluación propiedades 212
propiedades 198 nodo R Build
nodo Exportar base de datos propiedades de scripts de nodos 237
propiedades 420 nodo Reclasificar
Índice 491
propiedades de applydecisionlistnode 348 propiedades de carmanode 239
propiedades de applydiscriminantnode 348 propiedades de cartnode 240
Propiedades de applyextension 349 propiedades de chaidnode 243
propiedades de applyfactornode 350 propiedades de collectionnode 196
propiedades de applyfeatureselectionnode 350 propiedades de coxregnode 246
propiedades de applygeneralizedlinearnode 351 propiedades de dataauditnode 396
Propiedades de applygle 352 propiedades de databaseexportnode 420
Propiedades de applyglmmnode 351 propiedades de databasenode 95
propiedades de applykmeansnode 353 propiedades de datacollectionexportnode 426
propiedades de applyknnnode 353 propiedades de datacollectionimportnode 96
propiedades de applykohonennode 353 propiedades de decisionlist 248
propiedades de applylinearasnode 354 propiedades de derivenode 164
Propiedades de applylinearnode 353 Propiedades de directedwebnode 219
propiedades de applylogregnode 354 propiedades de discriminantnode 250
propiedades de applylsvmnode 354 propiedades de distinctnode 131
propiedades de applymslogisticnode 365 propiedades de distributionnode 197
propiedades de applymsneuralnetworknode 365 propiedades de ensemblenode 168
propiedades de applymsregressionnode 365 propiedades de evaluationnode 198
propiedades de applymssequenceclusternode 365 Propiedades de excelexportnode 426, 428
propiedades de applymstimeseriesnode 365 propiedades de excelimportnode 100
propiedades de applymstreenode 365 Propiedades de extensionexportnode 427
Propiedades de applynetezzabayesnode 392 Propiedades de extensionimportnode 101
Propiedades de applynetezzadectreenode 392 Propiedades de extensionmodelnode 252
Propiedades de applynetezzadivclusternode 392 Propiedades de extensionoutputnode 398
Propiedades de applynetezzakmeansnode 392 Propiedades de extensionprocessnode 133
Propiedades de applynetezzaknnnode 392 propiedades de factornode 255
Propiedades de applynetezzalineregressionnode 392 propiedades de featureselectionnode 5, 257
Propiedades de applynetezzanaivebayesnode 392 propiedades de fillernode 169
Propiedades de applynetezzapcanode 392 propiedades de filternode 170
Propiedades de applynetezzaregtreenode 392 Propiedades de fixedfilenode 103
propiedades de applyneuralnetnode 355 propiedades de flatfilenode 429
propiedades de applyneuralnetworknode 355 propiedades de genlinnode 259
propiedades de applyoraabnnode 374 Propiedades de gle 270
propiedades de applyoradecisiontreenode 374 Propiedades de glmmnode 265
propiedades de applyorakmeansnode 374 Propiedades de graphboardnode 200
propiedades de applyoranbnode 374 Propiedades de hdbscannugget 362
propiedades de applyoranmfnode 374 propiedades de histogramnode 205
propiedades de applyoraoclusternode 374 propiedades de historynode 171
propiedades de applyorasvmnode 374 propiedades de kmeansnode 278
propiedades de applyquestnode 356 propiedades de knnnode 280
propiedades de applyr 357 propiedades de kohonennode 282
propiedades de applyregressionnode 358 Propiedades de logregnode 287
propiedades de applyselflearningnode 358 propiedades de lsvmnode 293
propiedades de applysequencenode 358 Propiedades de mapvisualization 206
Propiedades de applystpnode 359 propiedades de matrixnode 401
propiedades de applysvmnode 359 propiedades de meansnode 403
Propiedades de applytcmnode 359 propiedades de mergenode 134
propiedades de applytimeseriesnode 360 propiedades de msassocnode 363
propiedades de applytreeas 360 propiedades de msbayesnode 363
Propiedades de applytwostepAS 361 propiedades de msclusternode 363
propiedades de applytwostepnode 361 propiedades de mslogisticnode 363
Propiedades de applyxgboostlinearnode 362 propiedades de msneuralnetworknode 363
Propiedades de applyxgboosttreenode 361 propiedades de msregressionnode 363
Propiedades de apriorinode 223 propiedades de mssequenceclusternode 363
Propiedades de asexport 417 propiedades de mstimeseriesnode 363
Propiedades de asimport 90 propiedades de mstreenode 363
propiedades de astimeintervalsnode 160 propiedades de multiplotnode 211
propiedades de autoclassifiernode 228 Propiedades de netezzabayesnode 375
propiedades de autonumericnode 233 Propiedades de netezzadectreenode 375
propiedades de balancenode 125 Propiedades de netezzadivclusternode 375
propiedades de bayesnet 235 Propiedades de netezzaglmnode 375
propiedades de binningnode 161 Propiedades de netezzakmeansnode 375
propiedades de buildr 237 Propiedades de netezzaknnnode 375
propiedades de c50node 237 Propiedades de netezzalineregressionnode 375
Índice 493
Reproyección, nodo (continuación) sistema de coordenadas de reproyección (continuación)
propiedades 175 propiedades 175
resultados de ejecución de la secuencia, acceder SMOTE, nodo
modelo de contenido de tabla 56 propiedades 452
modelo de contenido JSON 59 smotenode, propiedades 452
modelo de contenido XML 57 supernodo 73
rutas Supernodo
bucle 6, 7 ruta 27
comando de conjunto múltiple 73 Supernodos
ejecución 27 configuración de propiedades 465
ejecución condicional 6, 10 parámetros 465
modificación 31 propiedades 465
propiedades 77 rutas 27
scripts 1, 27 scripts 1, 5, 6, 27, 465
SVM de una clase, nodo
propiedades 447
S
script V
abreviaturas utilizadas 74
bucles visuales 6, 7 variable de iteración
clave de iteración 8 bucle en scripts 9
comprobación de errores 54 variables
conceptos básicos 1, 15 scripts 16
ejecución condicional 6, 10 variables ocultas 26
nodos de resultados 395
orden de ejecución de rutas 51
propiedades comunes 76
X
scripts de herencia 472, 473, 477, 479, 480 XGBoost Linear, nodo
scripts Python 472, 473, 477, 479, 480 propiedades 455
selección de campos 10 XGBoost Tree, nodo
syntax 16, 17, 19–21, 23–26 propiedades 456
variable de iteración 9 xgboostlinearnode, propiedades 455
scripts xgboosttreenode, propiedades 456
bucle 6, 7
clave de iteración 8
compatibilidad con versiones anteriores 55
contexto 28
desde la línea de comandos 54
Diagramas 27
ejecución 12
ejecución condicional 6, 10
en Supernodos 5
guardando 1
importación desde archivos de texto 1
interfaz de usuario 1, 4, 5
interrupción 12
modelos de selección de características 5
nodos de gráficos 195
rutas 1, 27
Rutas de Supernodo 27
scripts autónomos 1, 27
Scripts de Supernodo 1, 27
selección de campos 10
variable de iteración 9
scripts autónomos 1, 4, 27
seguridad
contraseñas codificadas 54, 68
Series temporales de MS
propiedades de scripts de nodos 365
servidor
argumentos de la línea de comandos 68
sistema
argumentos de la línea de comandos 66
sistema de coordenadas de reproyección