¿Qué es una puntuación z? ¿Qué es un valor P?

La mayoría de las pruebas estadísticas comienzan al identificar una hipótesis nula. La hipótesis nula para las herramientas de análisis de patrón (conjunto de herramientas Análisis de patrones y conjunto de herramientas Asignación de clusters) es la Aleatoriedad espacial completa (CSR), ya sea de las entidades o de los valores asociados con esas entidades. Las puntuaciones z y los valores p devueltos por las herramientas de análisis de patrón le dicen si puede rechazar esa hipótesis nula o no. Por lo general, ejecutará una de las herramientas de análisis de patrón, con la esperanza de que la puntuación z y el valor p indiquen que puede rechazar la hipótesis nula, ya que indicaría que en lugar de un patrón aleatorio, sus entidades (o los valores asociados con las entidades) exhiben clusterig o dispersión estadísticamente significativa. Siempre que vea una estructura espacial, como el clustering, en el apaisado (o en los datos espaciales), ve evidencia de algunos procesos espaciales subyacentes en el trabajo, y como geógrafo o analista de SIG, esto es por lo general lo que más le interesa.

El valor p es una probabilidad. Para las herramientas de análisis de patrón, existe la probabilidad de que el patrón espacial observado se haya creado mediante algún proceso aleatorio. Cuando el valor p es muy pequeño, significa que es muy poco probable (pequeña probabilidad) que el patrón espacial observado sea el resultado de procesos aleatorios, por lo tanto puede rechazar la hipótesis nula. Puede preguntar: ¿Cuán pequeño es suficientemente pequeño? Buena pregunta. Consulte la tabla y el análisis a continuación.

Las puntuaciones z son simplemente desviaciones estándar. Si, por ejemplo, una herramienta devuelve una puntuación z de +2,5, diría que el resultado son desviaciones estándar de 2,5 Tanto las puntuaciones z como los valores p se asocian con la distribución normal estándar como se muestra a continuación.

Distribución normal estándar

Las puntuaciones z muy altas o muy bajas (negativas), asociadas con valores p muy pequeños, se encuentran en las colas de la distribución normal. Cuando ejecuta una herramienta de análisis de patrón de entidad y produce valores p pequeños y una puntuación z muy alta o muy baja, esto indica que es poco probable que el patrón espacial observado refleje el patrón aleatorio teórico representado por su hipótesis nula (CSR).

Para rechazar la hipótesis nula, debe formar una opinión subjetiva con respecto al grado de riesgo que desea aceptar por estar equivocado (por rechazar falsamente la hipótesis nula). Por lo tanto, antes de ejecutar la estadística espacial, usted selecciona un nivel de confianza. Los niveles de confianza típicos son 90, 95 ó 99 por ciento. Un nivel de confianza del 99 por ciento sería el más conservador en este caso, lo que indica que no desea rechazar la hipótesis nula a menos que la probabilidad de que el patrón se haya creado mediante una opción aleatoria sea realmente pequeña (menos de 1 por ciento de probabilidad). En la tabla a continuación se muestran los valores p y las puntuaciones z críticas para distintos niveles de confianza.

puntuación z (Desviaciones estándar)

valor P (Probabilidad)

Nivel de confianza

< -1,65 o > +1,65

< 0.10

90%

< -1,96 o > +1,96

< 0.05

95%

< -2,58 o > +2,58

< 0.01

99%

Considere un ejemplo. Los valores de puntuación z críticos al utilizar un nivel de confianza del 95 por ciento son desviaciones estándar de -1,96 y +1,96. El valor p asociado con un nivel de confianza del 95 por ciento es 0,05. Si su puntuación z está entre -1,96 y +1,96, su valor p será mayor que 0,05, y no puede rechazar la hipótesis nula; el patrón exhibido probablemente podría ser el resultado de procesos espaciales aleatorios. Si la puntuación z cae fuera de ese rango (por ejemplo, desviaciones estándar de -2,5 ó +5,4), probablemente sea muy poco común que el patrón espacial observado sea el resultado de la opción aleatoria, y el valor p será pequeño para reflejar esto. En este caso, es posible rechazar la hipótesis nula y seguir averiguando qué puede estar causando la estructura espacial estadísticamente significativa en los datos.

Una idea clave aquí es que los valores en el medio de la distribución normal (puntuaciones z como 0,19 ó 1,2, por ejemplo) representan el resultado esperado. Sin embargo, cuando el valor absoluto de la puntuación z es grande y las probabilidades son pequeñas (en las colas de la distribución normal), se detecta algo poco común y por lo general muy interesante. Para la herramienta Análisis de punto caliente, por ejemplo, "poco común" significa un punto caliente estadísticamente significativo o un punto frío estadísticamente significativo.

La hipótesis nula

Varias estadísticas en la caja de herramientas Estadística espacial son técnicas de análisis de patrón espacial deductivas, por ejemplo, Autocorrelación espacial (I de Moran global), Análisis de cluster y de valor atípico (I Anselin local de Moran) y Análisis de punto caliente (Gi* de Getis-Ord). Las estadísticas deductivas se basan en la teoría de la probabilidad. La probabilidad es una medida de posibilidad, y subyacer todas las pruebas estadísticas (ya sea directa o indirectamente) es un cálculo de probabilidad que evalúa el rol de la posibilidad en el resultado del análisis. Típicamente, con las estadísticas tradicionales (no espaciales), usted trabaja con una muestra aleatoria y trata de determinar la probabilidad de que los datos de muestra sean una buena representación (sean reflexivos) de la población en general. Por ejemplo, puede preguntar "¿Cuáles son las posibilidades de que los resultados de mi sondeo de salida (que muestran que el candidato A vencerá al candidato B por un pequeño margen) reflejen los resultados de la elección final?" Pero con varias estadísticas espaciales, incluidas las estadísticas de tipo autocorrelación espacial que se enumeran más arriba, con frecuencia trata con todos los datos disponibles para el área de estudio (todos los delitos, todos los casos de enfermedad, los atributos para cada bloque censal, etc.). Cuando calcula la estadística para toda la población, ya no tiene una estimación. Tiene un hecho. Por consiguiente, ya no tiene sentido hablar sobre la posibilidad o las probabilidades. Por lo tanto, ¿de qué manera las herramientas de análisis espacial, aplicadas con frecuencia a todos los datos en el área de estudio, pueden informar legítimamente las probabilidades? La respuesta es que pueden hacerlo al postular, a través de la hipótesis nula, que los datos son, en realidad, parte de alguna población más grande. Considere esto con más detalle.

La hipótesis nula de aleatorización: Donde sea apropiado, las herramientas en la caja de herramientas Estadística espacial utilizan la hipótesis nula de aleatorización como la base para la prueba de significancia estadística. La hipótesis nula de aleatorización postula que el patrón espacial observado de los datos representa una de las tantas ordenaciones espaciales posibles (n!). Si pudiera obtener los valores de los datos y arrojarlos en las entidades en su área de estudio, tendría una ordenación espacial posible de esos valores. (Tenga en cuenta que obtener los valores de los datos y arrojarlos arbitrariamente es un ejemplo de un proceso espacial aleatorio). La hipótesis nula de aleatorización establece que si pudiera hacer este ejercicio (obtenerlos, arrojarlos) infinitas veces, la mayoría del tiempo produciría un patrón que no sería muy distinto del patrón observado (los datos reales). De vez en cuando puede arrojar accidentalmente todos los valores más altos en la misma esquina de su área de estudio, pero la probabilidad de hacer eso es pequeña. La hipótesis nula de aleatorización establece que los datos son una de las tantas versiones posibles de la aleatoriedad espacial completa. Los valores de datos son fijos; sólo la ordenación espacial podría variar.

La hipótesis nula de normalización: Una hipótesis nula alternativa común, no implementada para la caja de herramientas Estadística espacial, es la hipótesis nula de normalización. La hipótesis nula de normalización postula que los valores observados derivan de una población de valores distribuida normalmente e infinitamente grande a través de algún proceso de muestreo aleatorio. Con una muestra diferente obtendría valores diferentes, pero aún esperaría que esos valores sean representativos de la distribución más grande. La hipótesis nula de normalización establece que los valores representan una de las tantas muestras de valores posibles. Si pudiera ajustar los datos observados a una curva normal y seleccionar aleatoriamente valores de esa distribución para arrojarlos a su área de estudio, la mayoría del tiempo produciría un patrón y una distribución de valores que no serían muy distintos del patrón/distribución observada (los datos reales). La hipótesis nula de normalización establece que los datos y la ordenación son una de las tantas muestras aleatorias posibles. Ni los valores de datos ni la ordenación espacial son fijos. La hipótesis nula de normalización sólo es apropiada cuando los valores de datos se distribuyen normalmente.

Recursos adicionales:

Temas relacionados


7/11/2012