<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel rdf:about="https://hdl.handle.net/10481/15033">
<title>DEIO - Cursos</title>
<link>https://hdl.handle.net/10481/15033</link>
<description/>
<items>
<rdf:Seq>
<rdf:li rdf:resource="https://hdl.handle.net/10481/106345"/>
<rdf:li rdf:resource="https://hdl.handle.net/10481/106341"/>
<rdf:li rdf:resource="https://hdl.handle.net/10481/106340"/>
<rdf:li rdf:resource="https://hdl.handle.net/10481/106337"/>
<rdf:li rdf:resource="https://hdl.handle.net/10481/106336"/>
</rdf:Seq>
</items>
<dc:date>2026-04-27T04:44:34Z</dc:date>
</channel>
<item rdf:about="https://hdl.handle.net/10481/106345">
<title>Probabilidad - Leyes de los grandes números</title>
<link>https://hdl.handle.net/10481/106345</link>
<description>Probabilidad - Leyes de los grandes números
Romero Béjar, José Luis
El documento aborda tres pilares fundamentales de la teoría de la probabilidad: la convergencia de variables aleatorias, las leyes de los grandes números y el teorema central del límite. Se explican distintos tipos de convergencia (puntual, uniforme, casi segura, en probabilidad y en distribución), junto con sus implicaciones teóricas. Las leyes de los grandes números se presentan en sus versiones débil y fuerte, incluyendo teoremas como los de Bernoulli, Khintchine, Kolmogorov y Borel, que establecen condiciones para la convergencia de medias de variables aleatorias independientes. Finalmente, se desarrolla el problema clásico del límite central, destacando los teoremas de De Moivre-Laplace y Lévy, que demuestran cómo la suma normalizada de variables aleatorias tiende a una distribución normal bajo ciertas condiciones. El documento incluye demostraciones matemáticas rigurosas y referencias bibliográficas clave para profundizar en el estudio.; The document explores three core topics in probability theory: convergence of random variables, laws of large numbers, and the central limit theorem. It explains various types of convergence (pointwise, uniform, almost sure, in probability, and in distribution), along with their theoretical implications. The laws of large numbers are presented in both weak and strong forms, including theorems by Bernoulli, Khintchine, Kolmogorov, and Borel, which establish conditions for the convergence of averages of independent random variables. Finally, it addresses the classical central limit problem, highlighting the De Moivre-Laplace and Lévy theorems, which show how normalized sums of random variables tend toward a normal distribution under certain conditions. The document includes rigorous mathematical proofs and key bibliographic references for further study.
Tema 6
</description>
</item>
<item rdf:about="https://hdl.handle.net/10481/106341">
<title>Probabilidad - Esperanza condicionada</title>
<link>https://hdl.handle.net/10481/106341</link>
<description>Probabilidad - Esperanza condicionada
Romero Béjar, José Luis
El documento desarrolla el concepto de esperanza condicionada como extensión de la esperanza matemática. Se define para variables discretas y continuas, mostrando que representa el valor esperado de una variable dado el conocimiento de otra. Se presentan sus propiedades fundamentales, como la no negatividad, la linealidad, la conservación del orden, la compatibilidad con funciones medibles y el hecho de que, en caso de independencia, la esperanza condicionada coincide con la marginal.&#13;
&#13;
Se introducen los momentos condicionados (no centrados y centrados), con especial énfasis en la varianza condicionada y la descomposición de la varianza total en dos componentes: la varianza de la esperanza condicionada y la esperanza de la varianza condicionada.&#13;
&#13;
A continuación, se estudia la regresión de mínimos cuadrados, donde la mejor aproximación de una variable aleatoria mediante otra se obtiene con la esperanza condicionada. Esto da lugar a las curvas de regresión, que describen la relación entre variables en forma general. Se analiza su interpretación, propiedades y error cuadrático medio asociado.&#13;
&#13;
El texto introduce también las razones de correlación, que miden la proporción de varianza explicada por la regresión. Finalmente, se desarrolla la regresión lineal de mínimos cuadrados, presentando las rectas de regresión, los coeficientes de regresión, el coeficiente de determinación y el coeficiente de correlación lineal, como medidas de la fuerza y dirección de la relación lineal entre variables.; The document addresses the concept of conditional expectation as a generalization of mathematical expectation. It is defined for both discrete and continuous random variables, representing the expected value of one variable given knowledge of another. Its key properties are presented, including non-negativity, linearity, order preservation, compatibility with measurable functions, and the result that under independence, the conditional expectation coincides with the marginal expectation.&#13;
&#13;
The text then introduces conditional moments (both raw and central), with particular focus on conditional variance and the variance decomposition formula: the total variance equals the variance of the conditional expectation plus the expected conditional variance.&#13;
&#13;
The next section covers the least squares regression, showing that the optimal approximation of one variable by another is the conditional expectation. This leads to regression curves, which describe the dependence structure between variables. Their interpretation, properties, and associated mean squared error are discussed.&#13;
&#13;
The document also introduces correlation ratios, which quantify the proportion of variance explained by regression. Finally, it develops linear least squares regression, presenting the regression lines, regression coefficients, the coefficient of determination, and the linear correlation coefficient, which measure the strength and direction of linear dependence between variables and assess the goodness of linear fit.
</description>
</item>
<item rdf:about="https://hdl.handle.net/10481/106340">
<title>Probabilidad - Algunos modelos multivariantes</title>
<link>https://hdl.handle.net/10481/106340</link>
<description>Probabilidad - Algunos modelos multivariantes
Romero Béjar, José Luis
El documento aborda dos modelos fundamentales en estadística multivariante: la distribución multinomial y la distribución normal bidimensional. La distribución multinomial se presenta como una generalización de la binomial para experimentos con más de dos resultados posibles. Se detallan su función de masa de probabilidad, propiedades marginales y condicionadas, función generatriz de momentos, y su comportamiento bajo combinaciones lineales e independencia. También se analizan aspectos como la regresión y correlación entre variables.&#13;
&#13;
La segunda parte se centra en la distribución normal bidimensional, describiendo su función de densidad, matriz de covarianzas, y propiedades marginales y condicionadas. Se estudian las curvas de regresión, el coeficiente de correlación lineal, y el error cuadrático medio. Además, se demuestra que cualquier combinación lineal de variables normales bidimensionales sigue una distribución normal, lo que refuerza su utilidad en modelos estadísticos.; The document explores two key models in multivariate statistics: the multinomial distribution and the bivariate normal distribution. The multinomial model is introduced as a generalization of the binomial for experiments with more than two outcomes. It covers the probability mass function, marginal and conditional distributions, moment-generating function, and behavior under linear combinations and independence. Regression and correlation aspects are also analyzed.&#13;
&#13;
The second part focuses on the bivariate normal distribution, detailing its density function, covariance matrix, and marginal and conditional properties. Regression curves, linear correlation coefficient, and mean squared error are examined. It is also shown that any linear combination of bivariate normal variables results in a normal distribution, highlighting its relevance in statistical modeling.
Tema 5
</description>
</item>
<item rdf:about="https://hdl.handle.net/10481/106337">
<title>Probabilidad - Independencia de variables aleatorias</title>
<link>https://hdl.handle.net/10481/106337</link>
<description>Probabilidad - Independencia de variables aleatorias
Romero Béjar, José Luis
El documento desarrolla el concepto de independencia de variables aleatorias, fundamental en la probabilidad y la estadística. En primer lugar, se presenta la definición y caracterización de independencia, tanto para variables discretas como continuas, mostrando que la independencia implica la factorización de la distribución conjunta en el producto de las distribuciones marginales. Se incluyen formulaciones equivalentes a partir de probabilidades, densidades y funciones generatrices de momentos.&#13;
&#13;
En la segunda parte se estudian las propiedades de la independencia, destacando que variables degeneradas son independientes de cualquier otra, que la independencia se preserva en subconjuntos, y que las distribuciones condicionadas coinciden con las marginales. Además, se introduce el teorema de la multiplicación de esperanzas, según el cual la esperanza de un producto de variables independientes es el producto de sus esperanzas, y se muestra su relación con la covarianza y la varianza de combinaciones lineales.&#13;
&#13;
La tercera sección trata la reproductividad de distribuciones, una propiedad clave por la cual sumas de variables independientes de ciertas distribuciones pertenecen a la misma familia. Se ilustran los casos de las distribuciones Binomial, Poisson, Binomial Negativa, Geométrica, Normal, Gamma y Exponencial.&#13;
&#13;
Finalmente, se amplía el concepto a la independencia de vectores aleatorios, generalizando los resultados previos y mostrando condiciones equivalentes en términos de funciones de distribución, densidad y generatrices de momentos.; The document explores the concept of independence of random variables, a cornerstone of probability and statistics. First, it introduces the definition and characterization of independence for both discrete and continuous random variables, emphasizing that independence requires the joint distribution to factorize into the product of marginal distributions. Equivalent formulations are given in terms of probabilities, densities, and moment generating functions.&#13;
&#13;
The second section analyzes the properties of independence, noting that degenerate variables are independent of any other, independence is preserved within subsets, and conditional distributions coincide with the corresponding marginals. The expectation multiplication theorem is introduced: the expectation of the product of independent variables equals the product of their expectations. Related implications for covariance (zero under independence) and variance of linear combinations are also presented.&#13;
&#13;
The third part focuses on the reproducibility of distributions, meaning that sums of independent variables from certain distributions belong to the same family. Classical cases include the Binomial, Poisson, Negative Binomial, Geometric, Normal, Gamma, and Exponential distributions, each demonstrated through moment generating functions.&#13;
&#13;
Finally, the text extends the framework to independence of random vectors, generalizing the univariate results. Equivalent conditions are provided using joint and marginal probability functions, densities, and moment generating functions, along with properties preserved under measurable transformations.
</description>
</item>
<item rdf:about="https://hdl.handle.net/10481/106336">
<title>Análisis de Riesgos - Modelos y Técnicas de Análisis y Evaluación de Riesgos</title>
<link>https://hdl.handle.net/10481/106336</link>
<description>Análisis de Riesgos - Modelos y Técnicas de Análisis y Evaluación de Riesgos
Romero Béjar, José Luis
El documento aborda modelos y técnicas de análisis y evaluación de riesgos, centrándose en tres bloques principales. En primer lugar, se estudia la volatilidad como medida fundamental de riesgo financiero, explicando su cálculo mediante datos históricos y su modelización con modelos GARCH, que permiten capturar la variabilidad y persistencia de los mercados. Además, se muestran aplicaciones prácticas en el software R, incluyendo la estimación y predicción de volatilidad con datos reales.&#13;
&#13;
En segundo lugar, se analiza el Valor en Riesgo (VaR) condicional utilizando modelos GARCH. Se explica su definición como un cuantil de la distribución de pérdidas futuras y se detalla el procedimiento de simulación y estimación en R. Se presentan ejemplos gráficos que permiten anticipar la evolución de la volatilidad y el VaR a diferentes horizontes temporales.&#13;
&#13;
En tercer lugar, el texto aborda el análisis de riesgos en contextos espaciales mediante campos aleatorios. Se desarrollan conceptos de procesos espaciales, funciones de covarianzas, homogeneidad e isotropía, así como medidas de riesgo adaptadas a entornos espaciales y espacio-temporales (VaR y AVaR). Se incluyen ilustraciones aplicadas a precipitaciones, mostrando cómo generar mapas de riesgo regionales.; The document explores models and techniques for risk analysis and assessment, structured into three main sections. First, it examines volatility as a key financial risk measure, explaining its calculation from historical data and its modeling through GARCH models, which capture the dynamic and persistent behavior of markets. Practical applications in R are provided, including estimation and forecasting of volatility using real market data.&#13;
&#13;
Second, the study focuses on Conditional Value at Risk (VaR) estimated via GARCH models. VaR is defined as a quantile of the future loss distribution, and the document outlines simulation and estimation procedures in R. Graphical examples illustrate how volatility and VaR can be projected over different time horizons to support financial decision-making.&#13;
&#13;
Third, the text introduces risk analysis in spatial contexts using random fields. It presents spatial process theory, covariance functions, homogeneity and isotropy, and extends risk measures such as VaR and Expected Shortfall (AVaR) to spatial and spatiotemporal settings. Methodological aspects include threshold exceedance, simulation, and risk mapping. The approach is illustrated with case studies on precipitation, demonstrating the generation of spatial risk maps.
Tema 4
</description>
</item>
</rdf:RDF>
