# 6.1 単回帰分析

1つの説明変数で目的変数を予測するシンプルな回帰分析です。

## 回帰式

$$
y = a + bx + \varepsilon
$$

* y: 目的変数（従属変数）
* x: 説明変数（独立変数）
* a: 切片
* b: 傾き（回帰係数）
* ε: 誤差項

## 最小二乗法

残差の二乗和を最小にする直線を求める

**回帰係数の計算式:**

$$
b = \frac{\sum(x\_i - \bar{x})(y\_i - \bar{y})}{\sum(x\_i - \bar{x})^2}
$$

$$
a = \bar{y} - b\bar{x}
$$

## 決定係数（R²）

モデルの当てはまりの良さを示す指標（0〜1）

$$
R^2 = \frac{回帰による変動}{全変動} = 1 - \frac{残差変動}{全変動}
$$

**解釈:**

* R² = 0.8: xがyの変動の80%を説明
* R² = 1: 完全な予測
* R² = 0: xはyを全く説明しない

## 実践例

**データ:** 勉強時間と試験成績

| 勉強時間(h) | 成績(点) |
| ------- | ----- |
| 2       | 65    |
| 3       | 70    |
| 5       | 80    |
| 6       | 85    |
| 8       | 95    |

**計算:**

* 平均: $\bar{x}$ = 4.8, $\bar{y}$ = 79

回帰係数:

* b = 5.5（勉強時間1時間で5.5点上昇）
* a = 52.6

**回帰式:**

$$
成績 = 52.6 + 5.5 \times 勉強時間
$$

**予測:** 7時間勉強した場合

$$
y = 52.6 + 5.5 \times 7 = 91.1点
$$

## 相関係数

2変数の線形関係の強さ（-1〜1）

$$
r = \frac{\sum(x\_i - \bar{x})(y\_i - \bar{y})}{\sqrt{\sum(x\_i - \bar{x})^2 \sum(y\_i - \bar{y})^2}}
$$

**解釈:**

* r = 1: 完全な正の相関
* r = 0: 相関なし
* r = -1: 完全な負の相関

**注意:** 相関 ≠ 因果関係

## 練習問題

**問1:** 以下のデータから回帰式を求めてください:

| x | 1 | 2 | 3 | 4 | 5  |
| - | - | - | - | - | -- |
| y | 3 | 5 | 7 | 9 | 11 |

**問2:** R² = 0.6の意味を説明してください。

***

次のセクション: [6.2 重回帰分析](https://ringa-hyjs-organization.gitbook.io/ringa_read_site/ying-yong-bian/chapter6/section2)
