Fundamentos de estadística / Daniel Peña.

AUTOR: Daniel Peña
ISBN: 9788420683805
EDITOR: Alianza
IDIOMA: spa
PÁGINAS: 683
AÑO: 2008

 
   
RECOMENDADO EN LAS SIGUIENTES ASIGNATURAS
Probabilidad y Estadística
 
RESUMEN

Este libro está concebido como texto para un primer curso de estadística aplicada. Cubre los conocimientos que los estudiantes deben adquirir para su trabajo profesional y para entender la ciencia moderna y evaluar la información cuantitativa, que desempeña un papel creciente en el mundo actual. El libro se estructura siguiendo las etapas de construcción de un modelo estadístico: análisis exploratorio inicial de los datos disponibles, construcción de un modelo probabilístico y ajuste del modelo a los datos. Como aplicación de estas ideas, se presenta un capítulo de control de calidad, dirigido especialmente a los estudiantes que vayan a trabajar en el mundo empresarial. Los conceptos teóricos se ilustran con ejemplos y se han incluido numerosos ejercicios y problemas cuyas soluciones se encuentran al final del libro.
 
INDICE

Índice
Prólogo
1. Introducción
1.1 La estadística como ciencia
1.2 Algunos problemas que resuelve la estadística
1.3 El método estadístico
1.3.1 Planteamiento del problema
1.3.2 Construcción de un modelo estadístico
1.3.3 Recogida de la información muestral
1.3.4 Depuración de la muestra
1.3.5 Estimación de los parámetros
1.3.6 Contrastes de simplificación
1.3.7 Crítica y diagnosis del modelo
1.4 Notas sobre la historia de la estadística
1.4.1 El cálculo de probabilidades
1.4.2 La estadística hasta el siglo XIX
1.4.3 El nacimiento de la estadística actual
1.4.4 La expansión de la estadística durante el siglo XX
1.5 Lecturas recomendadas
Primera parte
Datos
2. La descripción de una variable
2.1 Datos y distribuciones de frecuencias
2.1.1 Distribuciones de frecuencias
2.1.2 Diagramas de tallo y hojas
2.2 Representaciones gráficas
2.2.1 Diagrama de Pareto
2.2.2 Diagrama de barras
2.2.3 Histogramas
2.2.4 Gráficos temporales
2.2.5 Otras representaciones gráficas
2.3 Medidas de centralización y dispersión
2.3.1 Medidas de centralización
2.3.2 Medidas de dispersión
2.4 Medidas de asimetría y curtosis
2.4.1 Coeficiente de asimetría
2.4.2 Coeficiente de curtosis
2.4.3 Otras medidas características
2.5 Datos atípicos y diagramas de caja
2.5.1 Datos atípicos
2.5.2 Diagrama de caja
2.6 Transformaciones
2.6.1 Transformaciones lineales
2.6.2 Transformaciones no lineales
2.7 Resumen del capítulo y consejos de cálculo
2.8 Lecturas recomendadas
3. Descripción conjunta de varias variables
3.1 Distribuciones de frecuencias multivariantes
3.1.1 Distribución conjunta
3.1.2 Distribuciones marginales
3.1.3 Distribuciones condicionadas
3.1.4 Representaciones gráficas
3.2 Medidas de dependencia lineal
3.2.1 Covarianza
3.2.2 Correlación
3.3 Recta de regresión
3.3.1 Correlación y regresión
3.4 Vector de medias
3.5 Matriz de varianzas y covarianzas
3.5.1 Varianza efectiva
3.6 Resumen del capítulo y consejos de cálculo
3.7 Lecturas recomendadas
Apéndice 3A: Números índice
Apéndice 3B: Análisis descriptivo de series
Apéndice 3C: La presentación de datos en tablas
Apéndice 3D: Propiedades de la matriz de covarianzas
Segunda parte
Modelos
4. Probabilidad y variables aleatorias
4.1 Introducción
4.2 Probabilidad y sus propiedades
4.2.1 Concepto
4.2.2 Definición y propiedades
4.2.3 La estimación de probabilidades en la práctica
4.3 Probabilidad condicionada
4.3.1 Concepto
4.3.2 Independencia de sucesos
4.3.3 Teorema de Bayes
4.4 Variables aleatorias
4.4.1 Variables aleatorias discretas
4.4.2 Variables aleatorias continuas
4.4.3 Medidas características de una variable aleatoria
4.4.4 Transformaciones
4.5 Resumen del capítulo
4.6 Lecturas recomendadas
Apéndice 4A: Algebras de probabilidad
Apéndice 4B: Cambio de variable en el caso general
5. Modelos univariantes de distribución de probabilidad
5.1 El proceso de Bernoulli y sus distribuciones asociadas
5.1.1 Proceso de Bernoulli
5.1.2 Distribución de Bernoulli
5.1.3 Distribución binomial
5.1.4 Distribución geométrica
5.2 El proceso de Poisson y sus distribuciones asociadas
5.2.1 El proceso de Poisson
5.2.2 La distribución de Poisson
5.2.3 Distribución exponencial
5.3 Distribuciones de duraciones de vida
5.4 La distribución normal
5.5 La normal como aproximación de otras distribuciones
5.5.1 El teorema central del límite
5.5.2 Relación entre binomial, Poisson y normal
5.6 La distribución lognormal
5.7 Deducción de distribuciones: el método de Montecarlo
5.7.1 Introducción
5.7.2 El método de Montecarlo
5.7.3 Aplicaciones
5.8 Distribuciones deducidas de la normal
5.8.1 La distribución x2 de Pearson
5.8.2 La distribución t de Student
5.8.3 La distribución F de Fisher
5.9 Distribuciones mezcladas
5.10 Resumen del capítulo y consejos de cálculo
5.11 Lecturas recomendadas
Apéndice 5A: Función generatriz de momentos
Apéndice 5B: Distribución hipergeométrica
Apéndice 5C: Distribución gamma
Apéndice 5D: Distribución beta
6. Modelos multivariantes
6.1 Variables aleatorias vectoriales
6.1.1 Concepto
6.1.2 Distribución conjunta
6.1.3 Distribuciones marginales
6.1.4 Distribuciones condicionadas
6.1.5 Teorema de Bayes.
6.2 Independencia entre variables aleatorias
6.3 Esperanzas de vectores aleatorios
6.3.1 Concepto
6.3.2 Esperanza de sumas y productos
6.4 Covarianzas y correlaciones
6.4.1 Covarianza
6.4.2 Correlación
6.4.3 Varianza de sumas y diferencias
6.4.4 Matriz de varianzas y covarianzas
6.5 Esperanzas y varianzas condicionadas
6.5.1 Esperanzas condicionadas
6.5.2 Varianzas condicionadas
6.6 Transformaciones de vectores aleatorios
6.6.1 Concepto
6.6.2 Esperanzas de transformaciones lineales
6.7 La distribución multinomial
6.8 La normal n-dimensional
6.9 Resumen del capítulo y consejos de cálculo
6.10 Lecturas recomendadas
Apéndice 6A: El concepto de distancia y sus aplicaciones
Tercera parte
Inferencia
7. Estimación puntual
7.1 Introducción a la inferencia estadística
7.2 Métodos de muestreo
7.2.1 Muestra y población
7.2.2 Muestreo aleatorio simple
7.2.3 Otros tipos de muestreo
7.3 La estimación puntual
7.3.1 Fundamentos
7.3.2 La identificación del modelo
7.3.3 El método de los momentos
7.4 La distribución de un estimador en el muestreo
7.4.1 Concepto
7.4.2 Distribución en el muestreo de una proporción
7.4.3 Distribución muestral de la media
7.4.4 Distribución muestral de la varianza. Caso general
7.4.5 Distribución muestral de la varianza en poblaciones normales
7.5 Propiedades de los estimadores
7.5.1 Centrado o insesgado
7.5.2 Eficiencia o precisión
7.5.3 Error cuadrático medio
7.5.4 Consistencia
7.5.5 Robustez
7.5.6 Punto de ruptura de un estimador
7.5.7 Propiedades de los estimadores por momentos
7.6 Estimadores de máxima verosimilitud
7.6.1 Introducción
7.6.2 La distribución conjunta de la muestra
7.6.3 La función de verosimilitud
7.6.4 Estadísticos suficientes
7.6.5 El método de máxima verosimilitud
7.6.6 Propiedades de los estimadores máximo-verosímiles
7.7 Resumen del capítulo y consejos de cálculo
7.8 Lecturas recomendadas
Apéndice 7A: Muestreo en poblaciones finitas
Apéndice 7B: Estimadores eficientes, el concepto de información
8. Estimación por intervalos
8.1 Introducción
8.2 Metodología
8.2.1 La selección del estadístico pivote
8.2.2 La determinación de los límites
8.3 Intervalos para medias de poblaciones normales
8.3.1 Varianza conocida
8.3.2 Varianza desconocida
8.4 Intervalo para medias. Caso general
8.4.1 Proporciones
8.5 Intervalo para varianzas de poblaciones normales
8.6 Intervalo para la diferencia de medias, poblaciones normales
8.6.1 Caso de varianzas iguales
8.6.2 Caso de varianzas desiguales
8 7 Diferencias de medias. Caso general
8.8 Intervalo para la razón de varianzas en poblaciones normales
8.9 Intervalos asintóticos
8.10 Determinación del tamaño muestral
8.11 La estimación autosuficiente de intervalos de confianza (bootstrap)
8.11.1 Introducción
8.11.2 La estimación autosuficiente (bootstrap)
8.12 Resumen del capítulo y consejos de cálculo
8.13 Lecturas recomendadas
Apéndice 8A: El método herramental (jackknife)
Apéndice 8B: Construcción mediante ordenador de intervalos de confianza por el método autosuficiente
9. Estimación bayesiana
9.1 Introducción
9.2 Distribuciones apriori
9.2.1 Distribuciones conjugadas
9.2.2 Distribuciones de referencia
9.3 Estimación puntual
9.4 Estimación de una proporción
9.5 Estimación de la media en poblaciones normales
9.6 Comparación con los métodos clásicos
9.7 Resumen del capítulo y consejos de cálculo
9.8 Lecturas recomendadas
10. Contraste de hipótesis
10.1 Introducción
10.2 Tipos de hipótesis
10.2.1 Hipótesis nula
10.2.2 Hipótesis alternativa
10.3 Metodología del contraste
10.3.1 Medidas de discrepancia
10.3.2 Nivel de significación y región de rechazo
10.3.3 El nivel crítico p
10.3.4 Potencia de un contraste
10.4 Contrastes para una población
10.4.1 Contraste para una proporción
10.4.2 Contraste de la media
10.4.3 Contraste de varianzas, poblaciones normales
10.5 Comparación de dos poblaciones
10.5.1 Comparación de dos proporciones
10.5.2 Comparación de medias, varianzas iguales, muestras independientes
10.5.3 Comparación de medias, muestras dependientes apareadas
10.5.4 Comparación de varianzas
10.5.5 Comparación de medias, muestras independientes, varianzas distintas
10.6 Interpretación de un contraste de hipótesis
10.6.1 Intervalos y contrastes
10.6.2 Resultados significativos y no significativos
10.7 Contrastes de la razón de verosimilitudes
10.7.1 Introducción
10.7.2 Contraste de hipótesis simple frente alternativa simple
10.7.3 Contrastes de hipótesis compuestas
10.7.4 Contrastes para varios parámetros
10.8 Resumen del capítulo
10.9 Lecturas recomendadas
Apéndice 10A: Deducción del contraste de verosimilitudes
Apéndice 10B: Test de razón de verosimilitudes y test de multiplicadores de Lagrange
11. Decisiones en incertidumbre
11.1 Introducción
11.2 Costes de oportunidad
11.3 El valor de la información
11.4 Decisiones con información muestral
11.4.1 El valor de la muestra
11.5 Utilidad
11.5.1 El criterio del valor esperado
11.5.2 El riesgómetro
11.5.3 La función de utilidad
11.6 La curva de utilidad monetaria
11.7 Inferencia y decisión
11.7.1 Estimación y decisión
11.7.2 Contrastes y decisiones
11.8 Resumen del capítulo
11.9 Lecturas recomendadas
12. Diagnosis y crítica del modelo
12.1 Introducción
12.2 La hipótesis sobre la distribución
12.2.1 Efecto de un modelo distinto del supuesto
12.2.2 El contraste x2 de Pearson
12.2.3 El contraste de Kolmogorov-Smirnov
12.2.4 Contrastes de normalidad
12.2.5 Soluciones
12.2.6 Transformaciones para conseguir la normalidad
12.2.7 Estimación no paramétrica de densidades
12.3 La hipótesis de independencia
12.3.1 Dependencia y sus consecuencias
12.3.2 Identificación
12.3.3 Contraste de rachas
12.3.4 Contraste de autocorrelación
12.3.5 Tratamiento de la dependencia
12.4 La homogeneidad de la muestra
12.4.1 Heterogeneidad y sus consecuencias
12.4.2 Poblaciones heterogéneas: la paradoja de Simpson
12.4.3 Identificación de la heterogeneidad: contraste de Wilcoxon
12.4.4 Análisis de tablas de contingencia
12.4.5 El efecto de datos atípicos
12.4.6 Test de valores atípicos
12.4.7 Tratamiento de los atípicos
12.5 Resumen del capítulo
12.6 Lecturas recomendadas
Apéndice 12A: El contraste x2 de Pearson
Apéndice 12B: Deducción del contraste de Shapiro y Wilk
Apéndice 12C: Selección gráfica de la transformación
Apéndice 12D: Estimadores robustos iterativos
Cuarta parte
Control de calidad
13. Control de calidad
13.1 Introducción
13.1.1 Historia del control de calidad
13.1.2 Clasificación de los sistemas de control
13.2 Fundamentos del control de procesos
13.2.1 El concepto de proceso bajo control
13.2.2 Gráficos de control
13.3 El control de procesos por variables
13.3.1 Introducción
13.3.2 Determinación de la variabilidad del proceso
13.4 Gráficos de control por variables
13.4.1 Gráfico de control para medias
13.4.2 Gráfico de control para desviaciones típicas
13.4.3 Gráfico de control para rangos
13.4.4 Estimación de las características del proceso
13.5 Implantación del control por variables
13.5.1 Eficacia del gráfico de la media
13.5.2 Curva característica de operación
13.5.3 Interpretación de gráficos de control
13.6 Intervalos de tolerancia
13.6.1 La función de costes para el cliente
13.6.2 La determinación de tolerancias justas para el cliente
13.6.3 El coste de no calidad
13.7 El concepto de capacidad y su importancia
13.7.1 Índice de capacidad
13.7.2 Un indicador alternativo de capacidad
13.8 El control de fabricación por atributos
13.8.1 Fundamentos
13.8.2 El estudio de capacidad
13.8.3 Gráficos de control
13.9 El control de fabricación por números de defectos
13.9.1 Fundamentos
13.9.2 Estudios de capacidad y gráficos de control
13.10 Los gráficos de control como herramientas de mejora del proceso
13.10.1 La mejora de procesos
13.10.2 El enfoque seis sigma
13.11 El control de recepción
13.11.1 Planteamiento del problema
13.11.2 El control simple por atributos
13.11.3 Planes de muestreo
13.11.4 Plan japonés JIS Z 9002
13.11.5 Plan Military-Standard (MIL-STD-105D; ISO 2859; UNE 66020)
13.11.6 Planes de control rectificativo: Dodge-Romig
13.12 Resumen del capítulo
13.13 Lecturas recomendadas
Apéndice 13A: Cálculo de gráficos de control
Tablas:
Explicación de las tablas
Tabla 1: Números aleatorios
Tabla 2: Probabilidades binomiales acumuladas
Tabla 3: Probabilidades de Poisson acumuladas
Tabla 4: Distribución normal estandarizada, N(0,1)
Tabla 5: Distribución t de Student
Tabla 6: Distribución chi-cuadrado de Pearson
Tabla 7: Distribución F
Tabla 8: Contraste de Kolmogorov-Smirnov
Tabla 9: Contraste de Kolmogorov-Smirnov (Lilliefors)
Tabla 10: Coeficientes del contraste de Shapiro-Wilk
Tabla 11: Percentiles del estadístico W de Shapiro y Wilk
Tabla 12: Test de rachas
Tabla 13: Papel probabilístico normal
Formulario
Resolución de ejercicios
Bibliografía
Índice analítico