線形代数II/基底の変換 のバックアップソース(No.10)
更新- バックアップ一覧
- 差分 を表示
- 現在との差分 を表示
- バックアップ を表示
- 線形代数II/基底の変換 へ行く。
[[線形代数Ⅱ]] #contents #mathjax * 基底の変換 [#lb2f5ba0] ** $\mathbb R^3$ の数ベクトル表現 [#ff3539d9] 次の3つのベクトルは &math(\mathbb R^3); の基底を為す。 &math( \bm b_1=\begin{pmatrix}1\\0\\0\end{pmatrix}, \bm b_2=\begin{pmatrix}1\\1\\0\end{pmatrix}, \bm b_3=\begin{pmatrix}1\\1\\1\end{pmatrix} ); つまり、次の2つが成り立つ。 + &math(\bm b_1,\bm b_2,\bm b_3); は線形独立である + &math(\bm b_1,\bm b_2,\bm b_3); は &math(\mathbb R^3); を張る 1. はほぼ自明 2. は、&math(\forall \bm x=\begin{pmatrix}x\\y\\z\end{pmatrix}\in \mathbb R^3); を、 &math(\bm x=\bm b_1 x' +\bm b_2 y'+\bm b_3 z'); として表せると言う意味。あるいはこれを満たす &math(x',y',z'); を見つけられるという意味。 &math( \bm x=\begin{pmatrix}\bigg.\bm b_1&\bm b_2&\bm b_3\end{pmatrix}\begin{pmatrix}x'\\y'\\z'\end{pmatrix} =B\bm x'); と書き直すと、1. より &math(B); は正則行列であるから、どんな &math(\bm x); を与えられたとしても &math(\bm x'=B^{-1}\bm x); とすれば &math(\bm x'); を見つけられることが分かる。 すなわち、&math(\mathbb R^3); のベクトル &math(\begin{pmatrix}x\\y\\z\end{pmatrix}); の、 基底 &math(\bm b_1,\bm b_2,\bm b_3); に対する数ベクトル表現は、 &math(\begin{pmatrix}x'\\y'\\z'\end{pmatrix}=\begin{pmatrix}\bm b_1&\bm b_2&\bm b_3\end{pmatrix}^{-1}\begin{pmatrix}x\\y\\z\end{pmatrix}); と書けることが分かる。 実は上記の議論は線形独立な任意の &math(\bm b_1,\bm b_2,\bm b_3); にあてはまる。 ** 基底の変換行列 [#bebc4cfe] &math(n); 次元線形空間 &math(V); に2つの基底を取る &math(\widetilde A=\set{\bm a_1,\bm a_2,\dots,\bm a_n}); &math(\widetilde B=\set{\bm b_1,\bm b_2,\dots,\bm b_n}); これらの基底に対するベクトル &math(\bm x\in V); の表現 &math(\bm x_{\widetilde A}, \bm x_{\widetilde B}\in K^n); は、 (1) &math( \bm x=\begin{pmatrix}\bm a_1&\bm a_2&\dots&\bm a_n\end{pmatrix}\bm x_{\widetilde A} ); (2) &math( \bm x=\begin{pmatrix}\bm b_1&\bm b_2&\dots&\bm b_n\end{pmatrix}\bm x_{\widetilde B} ); の関係を満たす。図に表わせば、 &attachref(基底の変換.png,,50%); &math(\bm x_{\widetilde A}\to \bm x); および &math(\bm x\to \bm x_{\widetilde B}); はともに 線形写像となるから、その合成写像 &math(\bm x_{\widetilde A}\to \bm x_{\widetilde B}); も線形写像である。 線形代数I において &math(K^n\to K^n); の線形変換は &math(n\times n); 行列の積で表せることを学んだ。 すなわち、ある行列 &math(P_{\widetilde B\to \widetilde A}); を用いて、 (3) &math(\bm x_{\widetilde B}=P_{\widetilde B\to \widetilde A}\bm x_{\widetilde A}); と表せる。 このとき、&math(P_{\widetilde B\to \widetilde A}); を 基底 &math(\widetilde B); から 基底 &math(\widetilde A); への基底の変換行列と呼ぶ。 ** 変換の向き [#ma60dc7d] 上記を良く読んで「変換の向きは逆じゃないの?」と思うのは正しい感覚。 どうしてこの向きかというと、 (2) に (3) を代入して、 &math( \bm x=\begin{pmatrix}\bm b_1&\bm b_2&\dots&\bm b_n\end{pmatrix}P_{\widetilde B\to \widetilde A}\bm x_{\widetilde A} ); と (1) とを比べると、 (4) &math( \begin{pmatrix}\bm a_1&\bm a_2&\dots&\bm a_n\end{pmatrix}= \begin{pmatrix}\bm b_1&\bm b_2&\dots&\bm b_n\end{pmatrix}P_{\widetilde B\to \widetilde A} ); となり、&math(\widetilde B); の基底ベクトルを並べて右から &math(P_{\widetilde B\to \widetilde A}); を掛けることで &math(\widetilde A); の基底ベクトルが得られる。 こう書けば変換の向きは正しく思えるはず。 ** 変換行列 $P_{\widetilde B\to \widetilde A}$ の具体的な形 [#d7adb478] 変換行列の列ベクトルを次のように置けば、 &math(P_{\widetilde B\to \widetilde A}=\begin{pmatrix}\bm p_1&\bm p_2&\dots&\bm p_n\end{pmatrix}); (4) より、 &math( \bm a_i= \begin{pmatrix}\bm b_1&\bm b_2&\dots&\bm b_n\end{pmatrix}\bm p_i ); 一方、&math(\bm a_i); の &math(\widetilde B); に対する表現 &math(\bm a_{i\widetilde B}); は &math( \bm a_i= \begin{pmatrix}\bm b_1&\bm b_2&\dots&\bm b_n\end{pmatrix}\bm a_{i\widetilde B} ); であるから、 &math(\bm p_i=\bm a_{i\widetilde B}); すなわち、 &math(P_{\widetilde B\to \widetilde A}=\begin{pmatrix}\bm a_{1\widetilde B}&\bm a_{2\widetilde B}&\dots&\bm a_{n\widetilde B}\end{pmatrix}); となる。 ** 正則性 [#p6b07f11] 当然、逆写像も線形写像であるから、 &math(\bm x_{\widetilde A}=P_{\widetilde A\to \widetilde B}\bm x_{\widetilde B}); であり、 &math(P_{\widetilde A\to \widetilde B}=P_{\widetilde B\to \widetilde A}^{-1}); の関係がある。すなわち、基底の変換行列は正則行列である。 * 質問・コメント [#ca406670] #article_kcaptcha
Counter: 126997 (from 2010/06/03),
today: 8,
yesterday: 0