Tarea 2

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 14

el 

término de perturbación ui es un sustituto de todas las variables que se omiten en el


modelo, pero que, en conjunto, afectan a Y. La pregunta obvia es: ¿por qué no se
introducen explícitamente estas variables en el modelo? Las razones son muchas.

2. Responder: a) ¿Qué es un coeficiente beta? ¿Por qué la prueba de


significancia se basa en la hipótesis de que beta es igual a cero?

¿Qué es un coeficiente beta?

La Beta, es la forma que medimos la exposición al riesgo sistémico, estos riesgos


sistémicos son aquellos que no podemos diversificar, tales como cambios en los
impuestos del país, incrementos salariales, es así, que la suma entre el riesgo
sistémico y la del coeficiente, se conoce como volatilidad.

Dicho esto, la Beta nos indica la correlación que hay entre el comportamiento de
una acción y/o sector y otro índice representativo del valor del mercado, en otras
palabras, es un elemento que relaciona la evolución de la rentabilidad de una
acción respecto a la de un índice de referencia. Puesto que a una empresa en su
oscilación diaria le afecta el endeudamiento que tiene, a la Beta así obtenida se le
denomina Beta del equity o apalancada.

La Beta se sitúa en torno a uno y cuanto mayor es este coeficiente implica una
mayor volatilidad y por lo tanto un mayor riesgo. Cuando la Beta es igual a uno,
quiere decir que la rentabilidad de la acción se mueve en la misma
proporción que la de su índice de referencia.

Se debe tener en cuenta que existen tres tipos de Betas que son: Betas históricas,
Betas fundamentales y las Betas contables.

Para su cálculo se utiliza la siguiente fórmula:


Se debe tener en cuenta que beta son los parámetros de nuestro modelo.

¿Por qué la prueba de significancia se basa en la hipótesis de que beta


es igual a cero?

Significa de la hipótesis cero no es significativa, es decir al rechazarse la hipótesis


β 0=0, entonces se concluye que la relación tiene un comienzo ordenado,
diferente de cero.

El tratamiento de las hipótesis se debe tener en cuenta en una prueba de


correlación, se debe tener la hipótesis nula y la hipótesis alternativa.

La nula significa que la beta 0 es igual a cero lo que quiere decir que no es
significativa, en cambio la hipótesis alternativa o hipótesis 1 nos dice beta cero no
es igual a cero, es decir que es significativa es decir que tiene una relación lineal
entre la variable de respuesta y la variable explicativa, aumentando o
disminuyendo significativamente.

Prueba de hipótesis ordenada


H0: β 0= 0, es decir que no es una correlación lineal
H1: β 0≠ 0, es decir que existe es una correlación lineal

Prueba de hipótesis para la pendiente

H0: β 1= 0,
H1: β 1≠ 0,

b) Apoyándose en la función de la recta en la matemática, explique qué es el


intercepto y qué es la pendiente, y relaciónelos con los coeficientes beta de los
modelos de regresión.
La pendiente es la inclinación de la recta, calculada con la proporción de
elevación sobre el recorrido y el intercepto es el punto en donde la recta
cruza el eje y.

Se puede indicar que el intercepto y la pendiente se relacionan con los


coeficientes Beta por:

Beta 0: variable independiente es el punto de corte, es decir la constante, lo que


es el intercepto

Beta 1: es el cambio de y sobre el cambio de x siendo esta la pendiente

c) Qué significa el concepto de “determinación” en econometría, y por


tanto, qué mide el coeficiente de determinación? Y cómo se interpreta?

El coeficiente de determinación:

El coeficiente de determinación es una medida en los modelos de regresión, el


cual determina la proporción de variabilidad de la variable dependiente (y)
considerada o explicada por la variable independiente (x).

El coeficiente de determinación, también llamado R cuadrado, refleja la bondad del


ajuste de un modelo a la variable que pretender explicar.

El coeficiente de determinación oscila entre 0 y 1. cuando R2 esta más cerca a 0


significa que el pronosticador no considera ninguna viabilidad de la variable
dependiente y que no hay predicción de regresión de y por x, es decir menos
ajustado estará el modelo y, por tanto, menos fiable será, no hay relación entre
ella

Cuando R2 es más cercano o es 1, quiere decir que es una predicción perfecta de


y por x y que 100% de la variable y es considerada por x, es decir entre más
cercano sea mayor será el ajuste del modelo a la variable que estamos intentando
explicar.
En la expresión anterior tenemos una fracción. Así pues, vayamos por partes. En
primer lugar, analizaremos el numerador, es decir, la parte de arriba.

La primera diferencia es que la Y lleva un circunflejo o lo que los profesores llaman


de forma didáctica “sombrerito”. Ese sombrerito lo que detalla es que esa Y es la
estimación de un modelo sobre lo que según las variables explicativas vale Y, pero
no es el valor real de Y, sino una estimación de Y.

En segundo lugar, faltaría dividir entre T. Que, en otros casos, se nota como N o
número de observaciones. Sin embargo, dado que la fórmula del denominador
también la llevaría, eliminamos los denominadores (parte de abajo) de ambas
fórmulas para simplificar la expresión. De esta manera es más fácil trabajar con
ella.

A continuación, vamos a realizar el mismo análisis con la parte del denominador


(parte de abajo).

En este caso, la única diferencia existente respecto a la fórmula original de la


varianza es la ausencia de su denominador. Es decir, no dividimos entre T o N. De
esta manera, una vez explicadas las dos partes de la expresión genérica del R
cuadrado o coeficiente de determinación, vamos a ver un ejemplo.

Lo que mide es que tan probable es el ajuste del modelo a la variable que se esta
midiendo, entre mas cerca a uno es alto y entre más cercano o cero es nulo o
poco viable

Interpretación del coeficiente de determinación

Para determinar el coeficiente de determinación, se debe interpretar si un


coeficiente R2 particular es alto o bajo, dependiendo del uso del modelo y el
contexto dentro del cual se creó el modelo.

Para ello se requiere tener los datos que son la suma de cuadrados, la cual es la
variable dependiente y se pronostica en un modelo de regresión y tiene una
variación que se mide por la suma de cuadrados de y (SSyy)¿
(∑ y)2 ❑
∑ ( y−Ý )=∑ y 2− , obteniendo así que la sumatoria del cuadrado (SSyy)¿ es
n
igual de a la sumatoria los números de y SSR, más la sumatoria del error
SSE SEE
=1−
cuadrado de y SSE, así determinamos la formula de R =1- SSyy
2
( ∑ y)
2

∑ y 2− n

El coeficiente de determinación permite medir que el modelo cuyas estimaciones


esta ajustadas a la variable real o que coinciden bastante bien, a su vez
determinan que porcentaje de datos no se están considerando en el modelo.

d) Qué significa causalidad en estadística estadística?

La causalidad en estadística es el efecto que tiene una variable sobre la otra, es


decir que x causa a y o que, y causa a x, dándose dos motivos por lo que dos
variables pueden estar asociadas con una correlación positiva o negativa:

Causalidad simple: el nivel de la variable x determina el valor de la variable y, y


es representado por la fecha que inicia en x y se dirige a y así:
X y

Así mismo se pueden crear cadenas de causalidad, dado que la variable x puede
desarrollar efectos sobre más de una variable hasta llegar a y, por ejemplo, si se
tiene una relación de una enfermedad puede ser hipertensión con la enfermedad
coronaria, obtenemos que:

El oxígeno, lo que hace que se cierren las arterias y provoque la enfermedad


coronaria, es decir que la enfermedad coronaria si es producto de la hipertensión,
es presentada así: hipertensión, genera arteriosclerosis, la arteriosclerosis provoca
una falta de

Hipertensión arteriosclerosis Falta de oxígeno Enfermedad coronaria

Por otro lado, contamos con la causalidad inversa, que es el nivel de la variable y
determina el nivel de la variable x, es decir y causa a x

X y

La estadística, por su parte, sostiene que la causalidad es una relación de


necesidad de co-ocurrencia de dos variables, relacionada como lo que
comúnmente conocemos como causa y efecto.

e) Cuál es la diferencia entre el modelo simple y el modelo múltiple?


Y de dos ejemplos, a través de ecuaciones, donde se especifiquen las
variables

Regresión lineal frente a regresión


múltiple: descripción general
El análisis de regresión es un método estadístico común utilizado en finanzas e inversiones.
La regresión lineal es una de las técnicas más comunes para el análisis de regresión. La
regresión múltiple es una clase de regresión más amplia que incluye regresiones lineales y
no lineales con múltiples variables explicativas.

La regresión como herramienta de agrupación de datos ayuda a las personas y las empresas
a tomar decisiones informadas. La regresión involucra una variedad de variables, incluida
una variable dependiente, la variable principal que está tratando de comprender, y una
variable independiente, factores que pueden influir en la variable dependiente.

Para que el análisis de regresión funcione, debe recopilar todos los datos relevantes. Puede
presentarse en un gráfico, con eje xy eje y.

Hay una serie de razones principales por las que las personas utilizan el análisis de
regresión:

1. Predecir condiciones, tendencias o valores económicos futuros


2. Para determinar la relación entre dos o más variables
3. Comprender cómo cambia una variable cuando cambia otra

Hay muchos tipos diferentes de análisis de regresión. Para el propósito de este artículo,
veremos dos: regresión lineal y regresión múltiple.

Regresión lineal
También se le llama regresión lineal simple. Establece la relación entre dos variables
mediante una línea recta. La regresión lineal intenta dibujar una línea más cercana a los
datos al encontrar la pendiente y la intercepción que define la línea y minimizar los errores
de regresión.

Si dos o más variables explicativas tienen una relación lineal con la variable dependiente, la
regresión se denomina regresión lineal múltiple.

Muchas relaciones de datos no siguen una línea recta, por lo que los estadísticos utilizan la
regresión no lineal. Los dos son similares en que las dos respuestas se trazan gráficamente a
partir de un conjunto de variables. Pero los modelos no lineales son más complejos que los
modelos lineales porque la función se crea mediante una serie de supuestos que pueden
provenir de prueba y error.

Regresión múltiple
Las variables dependientes rara vez explican solo una variable dependiente. En este caso,
los analistas utilizan regresión múltiple, que intenta explicar una variable dependiente
utilizando más de una variable independiente. Varias transiciones pueden ser lineales y no
lineales.
Los múltiplos se basan en el supuesto de que existe una relación lineal entre las variables
dependientes e independientes. Tampoco asume ninguna correlación importante entre las
variables independientes.

Como se mencionó anteriormente, existen varias ventajas al utilizar el análisis de regresión.


Las empresas y los economistas pueden utilizar estos modelos para tomar decisiones
prácticas.

Una empresa no solo puede usar el análisis de regresión para comprender ciertas
situaciones, como por qué disminuyen las llamadas de servicio al cliente, sino también
hacer predicciones predictivas, como cifras de ventas futuras, y tomar decisiones
importantes como ventas y crecimiento, promociones especiales.

Regresión lineal frente a regresión


múltiple: un ejemplo
Considere un analista que quiere establecer una relación lineal entre el cambio diario en los
precios de las acciones de una empresa y otras variables explicativas, como el cambio
diario en el volumen comercial y el cambio diario en los resultados del mercado. Si ejecuta
una regresión con el cambio diario en los precios de las acciones de la empresa como una
variable dependiente y el cambio diario en el volumen de negociación como una variable
independiente, este es un ejemplo de una regresión lineal simple con una variable
explicativa.

Si el analista coloca el cambio diario en los rendimientos del mercado en la regresión, sería
una regresión lineal múltiple.

Conclusiones clave
 El análisis de regresión es un método estadístico común utilizado en finanzas e
inversiones.
 La regresión lineal es una de las técnicas más comunes para el análisis de
regresión.
 La regresión múltiple es una clase de regresión más amplia que incluye
regresiones lineales y no lineales con múltiples variables explicativas.

f) Cuál es la relación entre coeficiente de correlación y coeficiente de


determinación?
g) Cuál es la diferencia de cálculo entre el coeficiente de
determinación y el coeficiente de determinación ajustado?

3. Resolver los ejercicios de Gujarati (2009): 2.10, 2.12, 2.15 y 2.16.


4. Resolver los ejercicios de Wooldridge (2010): C3.3, C3.4, C3.6 y C3.8.
(Resolver en STATA)
5. Aplicar un modelo de regresión haciendo uso de la base de datos
auto.dta con el fin de validar los supuestos clásicos.

También podría gustarte