Участник:ДеминаВалерия/SimpleEconomy

Материал из Поле цифровой дидактики
Версия от 13:24, 9 декабря 2025; Демина Валерия (обсуждение | вклад) (Новая страница: «== Примеры математических формул == === 1. Ковариация двух переменных === <math>\text{Cov}(X, Y) = \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})</math> где: * <math>x_i, y_i</math> — парные наблюдения * <math>\bar{x}, \bar{y}</math> — выборочные средние * Положительная ковариация указывает на прямую свя...»)
(разн.) ← Предыдущая версия | Текущая версия (разн.) | Следующая версия → (разн.)

Примеры математических формул

1. Ковариация двух переменных

[math]\displaystyle{ \text{Cov}(X, Y) = \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y}) }[/math]

где:

  • [math]\displaystyle{ x_i, y_i }[/math] — парные наблюдения
  • [math]\displaystyle{ \bar{x}, \bar{y} }[/math] — выборочные средние
  • Положительная ковариация указывает на прямую связь между переменными

2. Коэффициент корреляции Пирсона

[math]\displaystyle{ r = \frac{\text{Cov}(X, Y)}{s_X s_Y} = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum_{i=1}^{n} (x_i - \bar{x})^2 \sum_{i=1}^{n} (y_i - \bar{y})^2}} }[/math]

где:

  • [math]\displaystyle{ s_X, s_Y }[/math] — стандартные отклонения переменных
  • [math]\displaystyle{ -1 \le r \le 1 }[/math]
  • [math]\displaystyle{ |r| \approx 1 }[/math] указывает на сильную линейную зависимость

3. Коэффициент детерминации (R²)

[math]\displaystyle{ R^2 = 1 - \frac{\text{SS}_{\text{res}}}{\text{SS}_{\text{tot}}} = 1 - \frac{\sum_{i=1}^{n} (y_i - \hat{y}_i)^2}{\sum_{i=1}^{n} (y_i - \bar{y})^2} }[/math]

где:

  • [math]\displaystyle{ \text{SS}_{\text{res}} }[/math] — сумма квадратов остатков
  • [math]\displaystyle{ \text{SS}_{\text{tot}} }[/math] — общая сумма квадратов
  • [math]\displaystyle{ \hat{y}_i }[/math] — предсказанное значение
  • R² показывает долю дисперсии зависимой переменной, объяснённую моделью

4. Коэффициент наклона в простой линейной регрессии

[math]\displaystyle{ b_1 = \frac{\sum_{i=1}^{n} (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^{n} (x_i - \bar{x})^2} = r \cdot \frac{s_Y}{s_X} }[/math]

где:

  • [math]\displaystyle{ b_1 }[/math] — угловой коэффициент линии регрессии
  • Модель: [math]\displaystyle{ \hat{y} = b_0 + b_1 x }[/math]
  • [math]\displaystyle{ b_1 }[/math] показывает изменение Y при изменении X на единицу

5. Интерцепт в простой линейной регрессии

[math]\displaystyle{ b_0 = \bar{y} - b_1 \bar{x} }[/math]

где:

  • [math]\displaystyle{ b_0 }[/math] — свободный член (значение Y при X = 0)
  • Линия регрессии проходит через точку [math]\displaystyle{ (\bar{x}, \bar{y}) }[/math]

6. Стандартизованная оценка (z-оценка)

[math]\displaystyle{ z_i = \frac{x_i - \bar{x}}{s} }[/math]

где:

  • [math]\displaystyle{ z_i }[/math] — стандартизованное значение наблюдения
  • [math]\displaystyle{ \bar{x} }[/math] — выборочное среднее
  • [math]\displaystyle{ s }[/math] — выборочное стандартное отклонение
  • z-оценки имеют среднее 0 и стандартное отклонение 1