Skip to content

九州大学 システム情報科学府 情報理工学専攻 2019年度 情報理論

Author

Yu

Description

【問 1】

情報源アルファベットが \(\mathcal{X}=\{a,b,c,d\}\) の離散無記憶情報源があり, 記号 \(x \in \mathcal{X}\) の出現確率 \(p(x)\) が以下の表で与えられている。ただし, \(0 <\alpha \le \frac{1}{2}\) とする。

\(x\) \(a\) \(b\) \(c\) \(d\)
\(p(x)\) \(\frac{\alpha}{2}\) \(\frac{1-\alpha}{2}\) \(\frac{1}{4}\) \(\frac{1}{4}\)

以下の問いに答えよ。

(1) この情報源のエントロピーを \(\alpha\) の関数として求めよ。

(2) \(0 < \alpha < \frac{1}{4}\) のときのこの情報源に対する \(2\) 元ハフマン符号を \(1\) つ求めよ。

(3) (2)の符号の平均符号長 (符号長の期待値)を \(\alpha\) の関数として求めよ。

(4) \(\frac{1}{4} \le \alpha \le \frac{1}{2}\) のときのこの情報源に対する \(2\) 元ハフマン符号の平均符号長を求めよ。

(5) この情報源に対する \(2\) 元ハフマン符号の平均符号長を \(L(\alpha)\) とおく。 \(\alpha \in (0,\frac{1}{2}]\) に対する \(L(\alpha)\) のガラフをかけ。

【問 2】

アルファベット \(\{1,2,3\}\) 上の \(\text{Markov}\) 情報源 \(X_1X_2\cdots\) の遷移確率行列が

\[ P = (p_{ij}) = \begin{pmatrix} 0.25 & 0.25 & 0.5 \\ 0.4 & 0.6 & 0 \\ 0 & 0.2 & 0.8 \end{pmatrix} \]

で与えられているとき, 次の各問に答えよ。ただし, \(p_{ij}\)\(X_t = i\) のもとで \(X_{t + 1} = j\) となる条件付き確率を表す。

(1) \(P\) の固有値の一つが \(1\) であることを示せ。

(2) 行ベクトル \(v\) が固有値 \(1\) に対応する \(P\) の左固有ベクトルであり, その要素の総和が \(1\) であるとする。\(v\) の持つ意味を述べよ。ただし, 固有値 \(\lambda\) に対応する \(P\) の左固有ベクトルとは, \(vP = \lambda v\) を満たすゼロでない行ベクトル \(v\) のことである。

(3) 固有値 \(1\) に対応する \(P\) の右固有ベクトルを求めよ。ただし, 固有値 \(\lambda\) に対応する \(P\) の右固有ベクトルとは, \(Pu = \lambda u\) を満たすゼロでない列ベクトル \(u\) のことである。

(4) 任意のベクトル \(v\) について, \(||v||_1\) でその要素の絶対値の総和を表す。行ベクトル \(v\) について, \(||vP||_1 \le ||v||_1\) を示せ。

(5) \(P\) の任意の固有値の絶対値は \(1\) 以下であることを示せ。

Kai

【問 1】

(1)

\[ H(S) = 1 - \frac{\alpha}{2}\log_2\frac{\alpha}{2} - \frac{1 - \alpha}{2} \log_2\frac{1-\alpha}{2} \]

(2)

(3)

\[ \bar{L} = \frac{1 - \alpha}{2} + \frac{1}{4} \cdot 2 + (\frac{1}{4} + \frac{\alpha}{2}) \cdot 3 = \frac{7}{4} - \frac{\alpha}{3} (\text{ビット}) \]

(4)

(5)

【問 2】

(1)

\[ |T| = |\lambda E - P| = \begin{vmatrix} \lambda - 0.25 & -0.25 & -0.5\\ -0.4 & \lambda - 0.6 & 0 \\ 0 & -0.2 & \lambda - 0.8 \end{vmatrix} \]
\[ \lambda = 1 \text{とすると, } |T| = \begin{vmatrix} 0.75 & -0.25 & -0.5 \\ -0.4 & 0.4 & 0 \\ 0 & -0.2 & 0.2 \end{vmatrix} = 0 \]

(2)

\(v\) はマルコフ情報源の定常分布

(3)

\[ Tu = 0 \Rightarrow u = \begin{bmatrix} 1 \\ 1 \\ 1 \\ \end{bmatrix} \]

(4)

\[ \begin{aligned} ||vP||_1 &= |v_1p_{11} + v_2p_{21} + v_3p_{31}| + |v_1p_{12} + v_2p_{22} + v_3p_{32}| + |v_1p_{13} + v_2p_{23} + v_3p_{33}| \\ &\le (|v_1p_{11}| + |v_2p_{21}| + |v_3p_{31}|) + (|v_1p_{12}| + |v_2p_{22}| + |v_3p_{32}|) + (|v_1p_{13}| + |v_2p_{23}| + |v_3p_{33}|) \\ &= |v_1|\sum_{j = 1}^3p_{1j} + |v_2|\sum_{j = 1}^3p_{2j} +|v_3|\sum_{j = 1}^3p_{3j} \\ &= |v_1| + |v_2| + |v_3| \\ &= ||v||_1 \end{aligned} \]

(5)

\[ \begin{aligned} ||Pv||_1 &= |p_{11}v_1 + p_{12}v_1 + p_{13}v_1| + |p_{21}v_2 + p_{22}v_2 + p_{23}v_2| + |p_{31}v_3 + p_{32}v_3 + p_{33}v_3| \\ &\le (|p_{11}v_1 | + |p_{12}v_1| + |p_{13}v_1|) + (|p_{21}v_2| + |p_{22}v_2| + |p_{23}v_2|) + (|p_{31}v_3| + |p_{32}v_3| + |p_{33}v_3|) \\ &= |v_1|\sum_{j = 1}^3 p_{1j} + |v_2|\sum_{j = 1}^3 p_{2j} + |v_3|\sum_{j = 1}^3 p_{3j} \\ &= |v_1| + |v_2| + |v_3| \\ &= ||v||_1 \\ Pv &= \lambda v \text{とすると,}||Pv||_1 = ||\lambda v||_1 = |\lambda v_1| + |\lambda v_2| + |\lambda v_3| = |\lambda| \cdot ||v||_1 \\ ||Pv||_1 &\le ||v||_1 \Rightarrow |\lambda| \cdot ||v||_1 \le ||v||_1 \Rightarrow |\lambda| \le 1 \end{aligned} \]