ComenzarEmpieza gratis

Maximización de la verosimilitud, Parte 1

Antes, elegimos la mean de la muestra como estimación del parámetro del modelo poblacional mu. Pero ¿cómo sabemos que la media muestral es el mejor estimador? Esto es delicado, así que hagámoslo en dos partes.

En la Parte 1, usarás un enfoque computacional para calcular la log-verosimilitud de una estimación dada. Luego, en la Parte 2, veremos que, al calcular la log-verosimilitud para muchos posibles valores de la estimación, uno de ellos dará como resultado la verosimilitud máxima.

Este ejercicio forma parte del curso

Introducción al modelado lineal en Python

Ver curso

Instrucciones del ejercicio

  • Calcula mean() y std() de sample_distances (precargado) como los valores estimados de los parámetros del modelo de probabilidad.
  • Calcula la probabilidad, para cada distance, usando gaussian_model() construida a partir de sample_mean y sample_stdev.
  • Calcula la loglikelihood como la sum() del log() de las probabilidades probs.

Ejercicio interactivo práctico

Prueba este ejercicio y completa el código de muestra.

# Compute sample mean and stdev, for use as model parameter value guesses
mu_guess = np.____(sample_distances)
sigma_guess = np.____(sample_distances)

# For each sample distance, compute the probability modeled by the parameter guesses
probs = np.zeros(len(sample_distances))
for n, distance in enumerate(sample_distances):
    probs[n] = gaussian_model(____, mu=____, sigma=____)

# Compute and print the log-likelihood as the sum() of the log() of the probabilities
loglikelihood = np.____(np.____(probs))
print('For guesses mu={:0.2f} and sigma={:0.2f}, the loglikelihood={:0.2f}'.format(mu_guess, sigma_guess, ____))
Editar y ejecutar código