Informe (Herramientas Tecnologicas)

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 14

República Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educación Universitaria.


Universidad Nacional Experimental “Simón Rodríguez”
Núcleo La Grita – Estado Táchira.

PROGRAMA
STATISTICAL
PACKAGE FOR
THE SOCIAL
SCIENCES
(SPSS)
Integrantes:
-Yennifer Contreras C.I: 27.227.616
-Eilyn Barragán C.I: 28.417 565
-Dayari Sánchez C.I: 28.417.204
-Andrea Sánchez C.I: 27.709.293
Fisioterapia. Tramo II Trayecto III
Octubre – 2022
Introducción.
En general, la investigación se puede considerar como un proceso creativo, mediante el
cual se crea conocimiento, y que se rige por unas reglas y procedimientos dotados de
validez y aceptabilidad, que hacen del proceso de investigación una actividad científica
sujeta a pautas rigurosas y contrastadas. Por otro lado; los grandes avances tecnológicos,
tales como las maquinas inteligentes, han podido desarrollar distintos programas y
estrategias que facilitan en gran manera diversos procesos que en otros tiempos eran
bastante complejos y difíciles de llevar a cabo. Un ejemplo de ello es el programa SPSS;
que consta de un software informático para llevar a cabo el tratamiento y análisis de
información estadística, a partir de las respuestas (datos) que nos da una población (o una
muestra de esta) a una serie de preguntas (variables) recopiladas en una base de datos y,
como ya se dijo, normalmente a partir de una encuesta. El que sea un programa de análisis
estadístico exige que la realidad a estudiar pueda cuantificarse, y que los datos con los que
se trabaja sean datos numéricos, es decir, que la realidad a estudiar esté codificada mediante
números. El mismo va dirigido a un conjunto muy amplio de lectores, tanto aquellos que se
inicien en el aprendizaje de la Estadística como para los que ya tienen unos conocimientos
previos sobre la materia y quieren aplicarlos con la ayuda de un programa ampliamente
difundido en la actualidad; teniendo un enfoque eminentemente práctico dado que para
cada uno de los procesos incluidos presentan, instrucciones de los pasos a seguir, imágenes
de las pantallas que se van obteniendo y ejemplos resueltos incluyendo los resultados
obtenidos por el programa, así como todas las fases intermedias que nos llevan a ellos, y las
conclusiones que pueden extraerse de los mismos. Poseyendo más de 30 años de existencia
mejorando su funcionamiento con cada nueva versión, alcanzo difusión a nivel mundial,
recibiendo mucho prestigio por su intuitiva interfaz gráfica, este programa se hace fácil de
utilizar frente a otras herramientas; ayudando así a una gran cantidad de Organismos
públicos, instituciones académicas, hospitales y centros de salud, confían en SPSS para
resolver sus necesidades de análisis de datos.
STATISTICAL PACKAGE FOR THE SOCIAL SCIENCES (SPSS)
Evolución Histórica:
SPSS es un programa que fue creado en 1968, siendo un referente mundial para el mundo
estadístico. Este programa está diversificado en su totalidad, siendo su primera versión
desarrollada por Norman H. Nie, Dale H. Bent y C. Hadlai Hull, en la Universidad de
Stanford. Entre 1969 y 1975 la Universidad de Chicago por medio de su National Opinion
Research Center estuvo a cargo del desarrollo, distribución y venta del programa. A partir
de 1975 corresponde a SPSS Inc. En 1970 se publica el primer manual de usuario del SPSS
por Nie y Hall. Este manual populariza el programa entre las instituciones de educación
superior en Estados Unidos. Para 1984 sale la primera versión para computadores
personales. Su evolución se fue dando paulatinamente, donde en ese mismo año el
programa era instalado en computadoras personales, para plataforma MS-DOS.
Con la era del PC y Windows evolucionó muy rápidamente y hoy, en su versión más
óptima, constituye un programa que ofrece un conjunto de herramientas de análisis gráfico
y cuantitativo, estructurado en partes independientes e integrables que reciben el nombre de
módulos. Así, partiendo desde un módulo base que contiene, como su propio nombre
indica, el conjunto básico de utilidades, es posible añadir diferentes partes para realizar una
amplia gama de análisis. Esta herramienta informática viene integrada por programas y
subprogramas interconectados entre sí, por lo que se puede deducir que su integración es
mayor que la suma de las partes. Este se basa en distintos gráficos, los cuales muestra la
lógica secuencial que muestra el paquete estadístico SPSS, dentro del análisis, iniciando
desde la planificación y producción de datos, siguiendo el proceso de gestión y análisis,
finalizando hasta su presentación y distribución de los resultados. Dentro de sus funciones,
se puede mencionar el entorno de trabajo, teniendo gráfica de menús, ventanas y cuadros,
apareciendo al momento de abrir sesión, paquetes instalados y no instalados, guías de
aprendizaje, novedades de la versión a utilizarse, y a su vez la opción de tener los archivos
trabajados anteriormente o aquellos que recién se van a aperturar.
Entre sus funciones principales se puede mencionar:
– Modelos Avanzados: reducción de datos, clasificación, pruebas no paramétricas.
– Tablas: los datos se organizan de tal manera para su uso posterior.
– Categorías: para realizar análisis multivariados de variables. Normalmente
categorías.
– Análisis conjunto: permite realizar una investigación de los datos recogidos para
este tipo específico de pruebas estadísticas.
– Mapas: posibilita la representación geográfica de la información contenida en un
fichero.
– Pruebas exactas: de utilidad para realizar análisis estadísticos en muestras
pequeñas.
– Muestras complejas: útil para la creación de muestras estratificadas.
– Árboles de clasificación: pueden crearse árboles de clasificación o decisión para
identificar la conformación de grupos y predecir la conducta de sus miembros.
– Validación de datos: permite realizar revisiones lógicas de la información
contenida en un fichero «.sav» y obtener reportes de los valores considerados
atípicos.
Desde entonces y hasta la actualidad este programa ha ido teniendo varias versiones, todas
ellas con funciones nuevas; desarrollando varios cambios en su software con el fin de
hacerlo más eficiente los cuales se han actualizado en las siguientes:
 SPSS 1 - 1968
 SPSSx release 2 - 1983 (para grandes servidores tipo UNIX)
 SPSS 5.0 - diciembre de 1993
 SPSS 6.1 - febrero de 1995
 SPSS 7.5 - enero de 1997
 SPSS 8.0 - 1998
 SPSS 9.0 - marzo de 1999
 SPSS 10.0.5 - diciembre de 1999
 SPSS 10.0.7 - julio de 2000
 SPSS 10.1.4 - enero de 2002
 SPSS 11.0.1 - abril de 2002
 SPSS 11.5.1 - abril de 2003
 SPSS 12.0.1 - julio de 2004
 SPSS 13.0.1 - marzo de 2005 (permite por primera vez trabajar con múltiples bases
de datos al mismo tiempo).
 SPSS 14.0.1 - enero de 2006
 SPSS 15.0.1 - noviembre de 2006
 SPSS 16.0.1 - noviembre de 2007
 SPSS 17.0.1 - noviembre de 2008 (en la lista de usuarios de SPSS "SPSSX (r)
Discussion [SPSSX-L@LISTSERV. UGA. EDU]" varios funcionarios de la
empresa anunciaron previamente la salida de la versión 16 de este software. En ella
se incorporó una interfaz basada en Java que permite realizar algunas mejoras en las
facilidades de uso del sistema).
 SPSS 16.0.2 - abril de 2008
 SPSS Statistics 17.0.1 - diciembre de 2008 (Incorpora aportes importantes como el
ser multilenguaje, pudiendo cambiar de idioma en las opciones siempre que
queramos. También incluye modificaciones en el editor de sintaxis de forma tal que
resalta las palabras claves y comandos, haciendo sugerencias mientras se escribe.
En este sentido se aproxima a los sistemas IDE que se utilizan en programación).
 SPSS Statistics 17.0.2 - marzo de 2009
 PASW Statistics 17.0.3 - septiembre de 2009 (IBM adquiere los derechos y cambia
su denominación de SPSS por PASW 18)
 PASW Statistics 18.0 - agosto de 2009
 PASW Statistics 18.0.1 - diciembre de 2009
 PASW Statistics 18.0.2 - abril de 2010
 PASW Statistics 18.0.3 - septiembre de 2010
 IBM SPSS Statistics 19.0 - agosto de 2010 (pasa a denominarse IBM SPSS)
 IBM SPSS Statistics 19.0.1 - diciembre de 2010
 IBM SPSS Statistics 20.0 - agosto de 2011
 IBM SPSS Statistics 20.0.1 - marzo de 2012
 IBM SPSS Statistics 21.0 - agosto de 2012
 IBM SPSS Statistics 22.0 - agosto de 2013
 IBM SPSS Statistics 23.0 - agosto de 2014
 IBM SPSS Statistics 24.0 - junio de 2016
 IBM SPSS Statistics 25.0 - marzo de 2017
 IBM SPSS Statistics 26.0 - 2019
 IBM SPSS Statistics 27.0 - junio de 2020
Así es como igualmente por su gran expansión a lo largo de los años este programa SPSS
Inc se ha dividido; ofertando distintos productos a mejor conveniencia del consumidor:
 Orientados a los analistas.

1. -SPSS Base y los módulos dependientes. (El producto original)


2. -SPSS AnswerTree
3. -SPSS Sample Power
4. -SPSS Clementine
5. -Amos
6. -SPSS Decision Time
7. -SPSS What If?
8. -SPSS Data Entry (Familia de Productos)
9. -SPSS SmartViewer Web Server
10. -SPSS Dimensions

 Orientados a los usuarios de negocio:

1. SPSS PredictiveMarketing
2. SPSS Reporting Solutions
3. SPSS Predictive Text Analytics
4. SPSS Predictive Web Analytics
Conceptos Básicos para el Análisis de Datos:
Emprender una investigación conlleva una serie de pasos fundamentales que van desde el
planteamiento del problema o la pregunta de investigación, hasta la elección de las mejores
herramientas y metodologías de recolección y análisis de datos. Este último consiste, en
someter los datos a la realización de operaciones, esto se hace con la finalidad de obtener
conclusiones precisas que nos ayudarán a alcanzar nuestros objetivos, dichas operaciones
no pueden definirse previamente ya que la recolección de datos puede revelar ciertas
dificultades. Para la obtención de datos útiles es necesario analizarlos. Para ello debemos
recurrir a diversas técnicas que dependen del tipo de información que se esté recopilando,
por lo que es importante tener definida la técnica a utilizar antes de implementarla. Entre
estos se pueden recurrir al análisis de datos cualitativos; que se presentan de manera verbal
(en ocasiones en gráficas), basándose en la interpretación. Las formas más comunes de
obtener esta información son a través de entrevistas abiertas, grupos de discusión y grupos
de observación, donde los investigadores generalmente analizan patrones en las
observaciones durante toda la fase de recolección de datos. También es común utilizar el
análisis de datos cuantitativos; presentando los datos cuantitativos en forma numérica
construyendo sus datos en resultados tangibles.
Los distintos métodos utilizados para llevar a cabo el análisis de datos se pueden definir en:
Descriptivo el cual parte de cualquier reflexión analítica, y pretende responder a la pregunta
¿qué ha pasado? Para ello, ordena, manipula e interpreta los datos brutos procedentes de
diversas fuentes para convertirlos en ideas valiosas para tu organización, exploratorio se
realiza como parte de la investigación exploratoria, que determina que cuando todavía no se
tiene una idea de la relación entre los datos y las variables. Diagnóstico el mismo dice que,
una vez investigados los datos, el análisis exploratorio permite encontrar conexiones y
generar hipótesis y soluciones para problemas concretos.
Gracias a su énfasis en el análisis de datos estadísticos, SPSS es una herramienta
extremadamente potente para manipular y descifrar los datos de las encuestas. Los datos de
cualquier encuesta en línea de los datos recopilados pueden exportarse a SPSS para un
análisis detallado. La exportación de los datos de la encuesta desde Alchemer al formato.
SAV, propiedad de SPSS, hace que el proceso de extracción, manipulación y análisis de los
datos sea limpio y sencillo. Utilizando el formato SAV, SPSS configura e importa
automáticamente los nombres de las variables designadas, los tipos de variables, los títulos
y las etiquetas de los valores, lo que facilita mucho el proceso a los investigadores. Una vez
exportados los datos de la encuesta a SPSS, las posibilidades de análisis estadístico son
prácticamente infinitas. En resumen, se puede utilizar el SPSS cuando sea necesario una
forma flexible y personalizable de obtener especificidad incluso en los conjuntos de datos
más complejos. Esto le da a usted, el investigador, más tiempo para hacer lo que mejor sabe
hacer: identificar tendencias, desarrollar modelos predictivos y sacar conclusiones
fundamentadas.
Análisis Estadísticos de Asociación:
El análisis de encuestas es la generación y análisis de tablas de contingencia, para las
variables y categorías objetivo de la investigación. Una tarea inicial suele consistir en la
generación de múltiples tablas para el cruce de determinadas características de interés (sexo
x nivel salarial), que se suelen acompañar en el informe de la investigación en un anexo
denominado Anexo de Tablas. Algunas de las tablas más relevantes se suelen analizar con
más detalle, haciendo uso de las llamadas Medidas de Asociación, que son estadísticos
aplicados, básicamente, a determinar si dos o más caracteres son o no dependientes entre sí
(por ejemplo, si las categorías salariales tienen alguna asociación con el sexo). El objetivo
de este capítulo es describir cómo realizar un análisis de tablas de contingencia con SPSS, y
aplicar el procedimiento correspondiente a tablas de caracteres nominales, que son los de
uso común en el análisis de encuestas. No obstante, hay que decir que SPSS puede calcular
estadísticos para otros tipos de tablas para datos ordinales, nominal por intervalo, índices de
riesgo, etc., que, como decimos, no serán objeto de esta descripción. El procedimiento
Tablas de contingencia del SPSS permite generar tablas con cualquier número de
dimensiones, aunque los estadísticos que incluye sólo son útiles para analizar tablas
bidimensionales (para más de dos criterios de clasificación se habrán de utilizar otros
procedimientos, como por ejemplo, el procedimiento Modelos log-lineales). Si
especificamos una fila, una columna y un factor de capa (variable de control), el
procedimiento Tablas de contingencia crea un panel de medidas y estadísticos asociados
para cada valor del factor de capa (o una combinación de valores para dos o más variables
de control). Por ejemplo, si sexo es un factor de capa para una tabla de casado (sí, no) en
función de vida (vida emocionante, rutinaria o aburrida), los resultados para una tabla de
doble clasificación para las mujeres se calculan de forma independiente de los resultados de
los hombres y se imprimen en paneles uno detrás del otro. En lo que sigue utilizaremos el
fichero demo.sav para ilustrar las distintas opciones del procedimiento.
Para definir las categorías de cada variable, utilizaremos valores de una variable numérica o
de cadena corta (ocho caracteres o menos). Por ejemplo, para sexo, codificaríamos los datos
como 1 y o como varón y mujer. Para las tablas que consideraremos, supondremos que las
variables de la tabla tienen categorías no ordenadas (datos nominales), por tanto, no nos
tendremos que preocupar por los códigos numéricos que representen las categorías. De no
ser así, el procedimiento obtendría resultados equívocos: p.e. en una variable de cadena
cuyos valores sean bajo, medio, alto, se interpreta el orden de las categorías alfabéticamente
como alto, bajo, medio, orden que no sería el correcto, de tener en cuenta el orden por la
magnitud. Como decimos, si se seleccionan una o más variables de capas, se generará una
tabla de contingencia por cada categoría de cada variable de capas (variable de control). Por
ejemplo, si emplea una variable de fila, una variable de columna y una variable de capas
con dos categorías, obtendrá una tabla de doble clasificación por cada categoría de la
variable de capas.
Para crear otra capa de variables de control, pulsaremos en Siguiente. Se crean subtablas
para cada combinación de categorías para cada variable de la 1ª capa con cada variable de
la ª capa, y así sucesivamente. Si se solicitan estadísticos y medidas de asociación, se
aplicarán sólo a las tablas de doble clasificación. Veamos la tabla creada con el cuadro de
diálogo anterior: Tabla de contingencia Estado civil * en miles * Género Recuento Género
Hombre Mujer Estado civil Total Estado civil Total Soltero Casado Soltero Casado en
miles Menos de 5$ 5$ - 49$ 50$ - 74$ 75$ o + Total Podemos observar que se crea una
tabla de doble entrada cuyas columnas son las categorías de ingresos y cuyas filas están
formadas por el cruce de las variables estado civil y sexo, que es la variable incluida en
capa. No obstante, seguidamente se muestra que los estadísticos de asociación que
proporciona el programa son los correspondientes a cada una de las tablas (Hombre Mujer)
de las categorías de la variable capa:
Género Hombre Mujer Chi-cuadrado de Pearson Razón de verosimilitud Asociación lineal
por lineal N de casos válidos Chi-cuadrado de Pearson Razón de verosimilitud Asociación
lineal por lineal Pruebas de chi-cuadrado Sig. asintótica Valor gl (bilateral) 7,44 a 3,059
7,447 3,059 3,939 1, ,636 b 3,00 4,638 3,00 4,479 1,034 N de casos válidos 3179 a. 0
casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es
60,30. b. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima
esperada es 71, Estadísticos Las medidas de asociación que vamos a describir están basados
en el estadístico Chicuadrado. Este estadístico, propuesto por Fisher, es una función de las
diferencias entre las frecuencias observadas y las esperadas si los caracteres fuesen
independientes. Se calcula como sigue: X ( o = ij e e ij ) i j ij, con e ij = R xc i n j donde o ij
son las frecuencias observadas, e ij las frecuencias esperadas, R i el total de la fila i, C j el
total de la columna j, y n el número total de casos. Para que las probabilidades de la
distribución del estadístico constituyan una buena aproximación a la distribución Chi-
cuadrado se deben cumplir algunas condiciones; entre ellas, que las frecuencias esperadas
no sean demasiado pequeñas. Suele asumirse que, si existen frecuencias esperadas menores
que 5, éstas no deben superar el0 por ciento del total de frecuencias esperadas, de no ser así
los resultados se deben interpretar con cautela. La salida del SPSS muestra un mensaje
indicando el valor de la frecuencia esperada más pequeña; si existe alguna casilla con
frecuencia esperada menor que 5, la salida también muestra el porcentaje que éstas
representan sobre el total de casillas de la tabla. Por otra parte, puesto que el estadístico
vale 0 en el caso de independencia, es claro que cuanto mayor sea éste, mayor será la
asociación entre los caracteres. Dicha asociación será significativa cuando el p-valor
asociado al estadístico sea inferior al nivel de significación propuesto (usualmente 0.05).
Para el caso de la tabla generada.
Anteriormente, no hay evidencia para rechazar la independencia entre los caracteres, tanto
para hombres como para mujeres. El estadístico chi-cuadrado de Pearson permite contrastar
la hipótesis de independencia en una tabla de contingencia, pero no nos dice nada sobre la
intensidad de la asociación entre las variables estudiadas. Esto es debido a que su valor
depende, no sólo del grado en que los datos se ajustan al modelo de independencia, sino del
número de casos de que consta la muestra. Con tamaños muestrales muy grandes,
diferencias relativamente pequeñas entre las frecuencias observadas y las esperadas pueden
dar lugar a valores chicuadrado demasiado altos. Por esta razón, para estudiar el grado de
relación existente entre dos variables se utilizan medidas de asociación que intentan
cuantificar ese grado de relación eliminando el efecto del tamaño muestral. Con este
objetivo, el procedimiento proporciona además los siguientes estadísticos: Chi-cuadrado de
la razón de verosimilitud (Fisher, 194; Neyman y Pearson, 198), se obtiene calculando el
valor: Razón = o log e ij oij i j ij Se trata de un estadístico asintóticamente equivalente al
Chi-cuadrado (se distribuye e interpreta igual) y es muy utilizado para estudiar la relación
entre variables categóricas, particularmente en el contexto de los modelos log-lineales.
Estadísticos para tablas x: o Chi-cuadrado con corrección de Yates: el estadístico se calcula
restando 0,5 puntos al valor absoluto de las diferencias del estadístico Chi-cuadrado (antes
de elevarlas al cuadrado). X ( o e 0. ) ij ij 5 corr = i j eij Algunos autores sugieren que, con
muestras pequeñas, esta corrección permite que e] estadístico X se ajuste mejor a las
probabilidades de la distribución Chi-cuadrado, pero no existe un consenso generalizado
sobre la utilización de esta corrección. o Prueba exacta de Fisher (1935) ofrece, basándose
en la distribución hipergeométrica y en la hipótesis de independencia, la probabilidad
exacta de obtener las frecuencias de hecho obtenidas o cualquier otra combinación más
alejada de la hipótesis de independencia.
Coeficiente de contingencia. Medida de asociación basada en chi-cuadrado. El valor
siempre está comprendido entre 0 y 1. El valor 0 indica que no hay asociación entre la fila y
la columna y los valores cercanos a 1 indican que hay gran relación entre las variables. No
obstante, el valor máximo posible depende del número de filas y columnas de la tabla: C =
X X + n Phi y V de Cramer. Phi es una medida de asociación basada en chi-cuadrado que
conlleva dividir el estadístico chi-cuadrado por el tamaño muestral y calcular la raíz
cuadrada del resultado. V de Cramer es una medida de asociación basada en chi-cuadrado
(k es el menor del número de filas o columnas). φ = X n V = X n( k 1) Lambda. Medida de
asociación que refleja la reducción proporcional en el error cuando se utilizan los valores de
la variable independiente para pronosticar los valores de la variable dependiente. Un valor
igual a 1 significa que la variable independiente pronostica perfectamente la variable
dependiente. Un valor igual a 0 significa que la variable independiente no ayuda en
absoluto a pronosticar la variable dependiente. Coeficiente de incertidumbre. Medida de
asociación que indica la reducción proporcional del error cuando los valores de una
variable se emplean para pronosticar los valores de la otra variable. Por ejemplo, un valor
de 0,83 indica que el conocimiento de una variable reduce en un 83% el error al pronosticar
los valores de la otra variable. SPSS calcula tanto la versión simétrica como la asimétrica
del coeficiente de incertidumbre. Siguiendo con nuestro ejemplo, los estadísticos que
obtendremos para las tablas propuestas son:
Género Hombre Mujer Nominal por nominal N de casos válidos Nominal por nominal N de
casos válidos Medidas simétricas Phi V de Cramer a. Asumiendo la hipótesis alternativa.
Coeficiente de contingencia Phi V de Cramer Coeficiente de contingencia Sig. Valor
aproximada,048,059,048,059,048,059 31,038,00,038,00,038, b. Empleando el error típico
asintótico basado en la hipótesis nula. Género Hombre Mujer Nominal por nominal
Nominal por nominal Lambda Tau de Goodman y Kruskal Coeficiente de incertidumbre
Lambda Tau de Goodman y Kruskal Coeficiente de incertidumbre a. Asumiendo la
hipótesis alternativa. Medidas direccionales Simétrica Simétrica Simétrica Simétrica b.
Empleando el error típico asintótico basado en la hipótesis nula. c. No se puede efectuar el
cálculo porque el error típico asintótico es igual a cero. d. Basado en la aproximación chi-
cuadrado. e. Probabilidad del chi-cuadrado de la razón de verosimilitud. Error típ. Sig.
Valor asint. a T aproximada b aproximada,001,008,067,946,001,019,067,946,000,000. c.
c,00,00,059 d,001,001,05 d,001,001 1,365,059 e,00,001 1,365,059 e,001,001 1,365,059
e,005,008,553,580,010,019,553,580,000,000. c. c,001,001,01 d,000,000,16 d,001,001
1,077,00 e,001,001 1,077,00 e,001,001 1,077,00 e 4.- Opciones en las casillas y gráficos
Con objeto de ayudar a interpretar las tramas en los datos que contribuyen a una prueba de
Chi-cuadrado significativa, el procedimiento Tablas de contingencia muestra las
frecuencias esperadas y tres tipos de residuos (desviaciones) que miden la diferencia entre
las frecuencias observadas y las esperadas. Cada casilla de la tabla puede contener
cualquier combinación de recuentos, porcentajes y residuos seleccionados. El cuadro de
diálogo es: Las opciones son: Frecuencias: El número de casos realmente observados y el
número de casos esperados si las variables de fila y columna son independientes entre sí.
Porcentajes: Los porcentajes se pueden sumar a través de las filas o a lo largo de las
columnas. También se encuentran disponibles los porcentajes del número total de casos
representados en la tabla (una capa). Residuos.: Los residuos brutos no tipificados
presentan la diferencia entre los valores observados y los esperados. También se encuentran
disponibles los residuos tipificados y tipificados corregidos. o No tipificados. Diferencia
entre un valor observado y el valor pronosticado. El valor pronosticado es el número de
casos que se esperarían en la casilla si no hubiera relación entre las dos variables. Un
residuo positivo indica que hay más casos en la casilla de los que habría en ella si las
variables de fila y columna fueran independientes. o Tipificados. Es el residuo dividido por
una estimación de su desviación típica. Los residuos tipificados, que son conocidos también
como los residuos de Pearson o residuos estandarizados, tienen una media de 0 y una
desviación típica de 1. o Tipificados corregidos. El residuo de una casilla (valor observado
menos valor pronosticado) dividido por una estimación de su error típico.
Los recuentos de las casillas suelen ser valores enteros, ya que representan el número de
casos de cada casilla. Sin embargo, si el archivo de datos está ponderado en un momento
determinado por una variable de ponderación con valores fraccionarios (por ejemplo, 1.5),
los recuentos de las casillas pueden que también sean valores fraccionarios. Podemos
truncar o redondear estos valores antes o después de calcular los recuentos de las casillas o
bien utilizar recuentos de casillas fraccionarios en la presentación de las tablas y los
cálculos de los estadísticos. El procedimiento muestra los gráficos de barras agrupadas por
grupos de casos. Hay una agrupación de barras por cada valor de la variable especificada en
el cuadro Filas. La variable que define las barras dentro de cada agrupación es la variable
especificada en el cuadro Columnas. Por cada valor de esta variable hay un conjunto de
barras de distinto color o trama. Si especifica más de una variable en Columnas o en Filas,
se generará un gráfico de barras agrupadas por cada combinación de dos variables. En
nuestro ejemplo, los gráficos asociados son: Género=Hombre Género=Mujer Categoría de
ingresos en miles Menos de 5$ 5$ - 49$ 50$ - 74$ 75$ o Categoría de ingresos en miles
Menos de 5$ 5$ - 49$ 50$ - 74$ 75$ o Recuento Soltero Estado civil Casado 0 Soltero
Estado civil Casado.
Análisis Estadísticos de Comparación:
El análisis estadístico que se emplea es el de varianza para un solo factor: «tipo de software
utilizado», con el cual es posible determinar si las diferencias de resultados es una
diferencia real o es una diferencia debida a las variaciones de cada repetición. Establecer
las razones por las que varía la media es importante para este estudio, debido a que la
heterogeneidad de los resultados de cada caso individual puede conducir a conclusiones
equivocadas. En algunos de los casos el análisis de varianza se complementa con el método
de Tuckey de comparaciones múltiples (Ferrán, 2001; Montgomery, 2002), para determinar
entre cuáles tratamientos existe diferencia de medias.
En análisis comparativo se distribuye en cinco secciones. En la primera se hace referencia a
los tiempos empleados en cada etapa y cada actividad del proceso (en %), con lo cual se
puede estimar las preferencias de cada participante y la dedicación en cada caso. En la
segunda sección del capítulo se presenta el análisis de la cantidad total de ideas, del flujo y
del origen de tales ideas, completando de esta manera el análisis puramente cuantitativo de
los diferentes tratamientos estudiados. La tercera sección está dedicada al análisis de lo que
se ha denominado la «calidad creativa» de acuerdo con el modelo presentado en el capítulo
seis. Para ello se compara cada uno de los índices (flexibilidad, fluidez, elaboración y
originalidad) exhibidos a lo largo del proceso, de tal manera que es posible contrastar el
comportamiento exhibido durante la ejecución de la sesión de diseño para cada caso. En la
cuarta sección se analiza en forma comparativa la trayectoria creativa total, es decir, aquella
que combina los cuatro índices mencionados, de acuerdo con el modelo de Shah (2003).
Además, se presenta como valoración total de cada tratamiento, el índice de «creatividad
global».
Finalmente, en la quinta sección se estudia la producción de ideas a lo largo del proceso,
mostrando las etapas en las que se produce mayor número de ideas y cómo el proceso en la
medida que avanza va convergiendo, reduciendo el número de ideas generadas. Las
conclusiones presentadas al finalizar se basan en el análisis realizado en cada una de las
cinco secciones y se busca con ellas, ser completamente objetivo con el ánimo de establecer
pautas claves para proponer un nuevo software que recoja las principales virtudes de los
evaluados y que eviten los inconvenientes detectados. Con el ánimo de evitar repeticiones y
facilitar la lectura, los tratamientos se denominarán así:
• A para Axon idea processor©
• B para Brainstorming toolbox©
• C para CREAX innovation suite©
• T para ThoughtPath Corporate Edition©
• S para el tratamiento sin utilizar software.

Programas y Procedimientos de Análisis en Fisioterapia:


Los programas de análisis estadístico son unas herramientas que ayudan a un gran grupo de
personas a recopilar, organizar, interpretar y presentar datos de forma significativa. Las
empresas pueden analizar sus datos usando modelos matemáticos y técnicas de simulación
para generar información relevante para el trabajo que desempeñan. Esta información
puede proporcionar nuevas oportunidades, descubrir tendencias y pronosticar una demanda
futura. Antiguamente la labor de análisis resultaba tediosa, pues exigía un elevado
conocimiento de fórmulas estadísticas y horas de cálculos manuales, motivo por el cual en
muchas ocasiones los estudios científicos no conseguían salir adelante hasta el final salvo
que contaran con medios y personal especializado. Afortunadamente, en la actualidad, se
han desarrollado programas informáticos que integran todos los conocimientos necesarios
para llevar a cabo un análisis en profundidad y de calidad, y cada vez son más los
profesionales que los utilizan en su labor investigadora. Existe un amplio universo de
herramientas estadísticas utilizadas en la investigación médica. Estas realizan el trabajo de
forma similar, pero las diferencias radican en la facilidad de uso y presentación, así como
en las diferencias de licencia (propietaria o no), la interfaz (apuntar y hacer clic o línea de
comandos) y el coste (gratuito o de pago). Estas herramientas se encargan de los procesos
integrales de recogida, organización, análisis e interpretación de datos estadísticos. En
cuanto al campo de la fisioterapia, estos programas forman una gran importancia, ya que
gracias a ellos puede hacerse el trabajo estadístico y epidemiológico de forma más eficaz a
la hora de tener cálculos relacionados con las personas que pueden tener una discapacidad o
enfermedad relacionada con el aparato locomotor, factores que pueden basarse en
ubicación, raza, grupo étnico, sexo, edad, profesión, nivel de ingresos o nivel de educación
etc, si un tratamiento es seguro y efectivo, cuántas personas tienen acceso y usan la
atención médica, la calidad y eficiencia del sistema fisioterapéutico y de salud en general,
costos de la terapia, incluyendo cuánto paga el gobierno, los empleadores y las personas por
la atención médica, el impacto de los programas y políticas gubernamentales en la salud, el
posible riesgo de las practicas terapéuticas.
Conclusión
La tendencia en el empleo de estos programas ha ido cambiando a lo largo de los años. El
estudio realizado por Masuadi et al. analiza la evolución del uso de distintos softwares en
tres intervalos de tiempo diferentes: 1997,2007, y 20172. Si bien SPSS fue el más
empleado en los tres períodos observados, existen otros que han ganado auge en los últimos
años, como es el caso de R Project. Una de las principales ventajas que presenta este último
con respecto a los demás es su código abierto, su versatilidad, y los recursos disponibles
tanto en línea como en literatura gris para poder familiarizarse con su uso. Aunque
inicialmente puede ser complicado comprender cómo funciona su codificación si se
compara con otros, presenta paquetes dentro del mismo que facilitan mediante una interfaz
simplificada el tipo de comando que se quiere realizar, como es el caso de R Commander.
Otro software similar que también es gratuito, intuitivo y de fácil aplicación es Jamovi,
cuyo código está basado en lenguaje de programación R. Asimismo, cabe destacar que en
ocasiones los estudios científicos quedan condicionados por su presupuesto, siendo habitual
también la financiación por parte de los propios investigadores. Por ello, la exención de
pago por analizar datos, se convierte en otro factor a considerar en la elección de software
estadístico. De no haber limitaciones económicas, existen otras opciones de pago como son
SPSS, Stata o SAS o Excel. Finalmente, no hay que olvidar que para el manejo de este tipo
de software se requieren unos conocimientos previos de estadística, por lo que utilizar estos
programas estadísticos no suple en ningún momento el saber qué se quiere calcular, el
porqué, y cómo se debe hacer.
Referencias Bibliográficas.
SPSS: ¿Qué es y cómo aplicarlo?: https://tutfg.es/que-es-spss/
Evolución del programa SPSS: Pardo, A. y Ruiz, M. A. (2002). SPSS 11. Guía para el
análisis de datos. Madrid: McGraw-Hill. ISBN 9788448137502.
Breve Historia del programa SPSS: https://www.marketingdirecto.com/marketing-
general/marketing/spss-breve-historia-de-un-producto-que-se-ha-convertido-en-una-marca
SPSS: https://es.wikidat.com/info/spss
Utilidad de programas estadísticos para el análisis de datos en ciencias de la salud:
https://revistasanitariadeinvestigacion.com/utilidad-de-programas-estadisticos-para-el-
analisis-de-datos-en-ciencias-de-la-salud/
Análisis de datos: https://www.questionpro.com/es/analisis-de-datos.html
SPSS y por qué es importante en el análisis de datos: https://online-tesis.com/que-es-
spss-y-por-que-es-importante-en-el-analisis-de-datos/
Medidas de Asociación con SPSS: https://docplayer.es/29933023-Tema-medidas-de-
asociacion-con-spss.html
Análisis comparativo de resultados:
https://www.tdx.cat/bitstream/handle/10803/6837/12Jcb12de16.pdf?sequence=12
Programas Estadísticos relacionados con la salud:
https://upzmg.edu.jalisco.gob.mx/sites/upzmg.edu.jalisco.gob.mx/files/bioestadistica.pdf

También podría gustarte