削除された内容 追加された内容
リンク貼替え (Wikipedia:Bot作業依頼, oldid=57465452 による)
 
(17人の利用者による、間の29版が非表示)
1行目:
[[画像:Vec-indep.png|thumb|例:線型独立なベクトルの集合]]
{{technical|date=April 2014}}
[[画像:Vec-dep.png|thumb|例:線型従属なベクトルの集合]]
[[線型代数学]]において、{{mvar|n}} 本の[[ベクトル空間|ベクトル]]が'''線型独立'''(せんけいどくりつ、{{lang-en-short|linearly independent}})または'''一次独立'''であるとは、それらのベクトルが張る空間が {{mvar|n}} 次元部分線形空間になることである。
 
線型独立であるベクトルたちは、何れも、[[零ベクトル]]でない。
[[File:Vec-indep.png|thumb|right|'''R'''<sup>3</sup> において線型独立なベクトル]]
[[File:Vec-dep.png|thumb|right|'''R'''<sup>3</sup> の平面において線型従属なベクトル]]
 
具体的には、{{mvar|n}} 本の[[ベクトル空間|ベクトル]] {{math2|''v''{{sub|1}}, …, ''v{{sub|n}}''}} が'''線型独立'''であるとは、<math>c_1,\ldots,c_n</math> を[[スカラー (数学)|スカラー]]として、
[[線型代数学]]において、線型独立性の 2 つの僅かに異なる概念が用いられる: ベクトルの''族''の線型独立性と、ベクトルの''集合''の線型独立性である。
:<math>\textstyle \sum\limits_{i=1}^n c_i \boldsymbol v_i =\mathbf{0} \Rightarrow c_1 = \cdots = c_n =0</math>
が成り立つことである([[#定義]])。
 
線型独立でないことを線型従属(一次従属)という。
* [[ベクトル空間|ベクトル]]の[[添え字づけられた族]]が'''線型独立な族''' (linearly independent family) であるとは、族のベクトルを族の他の有限個のベクトルの[[線型結合]]として書くことができないということである。線型独立でないベクトルの族は'''線型従属''' (linearly dependent) と呼ばれる。
 
* ベクトルの[[集合]]が'''線型独立な集合''' (linearly independent set) であるとは、(それ自身によって添え字づけられた族と見て)集合が線型独立な族であるということである。
 
これらの 2 つの概念は同値でない: 違いは、族では重複する元があってもよいが、集合ではいけない。例えば <math>V</math> がベクトル空間であれば、族 <math>F : \{1,2\} \to V</math> であって <math>f(1) = v</math> および <math>f(2) = v</math> なるものは''線型従属な族''であるが、その族の像の集合は''線型従属な集合''であるシングルトン <math>\{v\}</math> である。
 
どちらの概念も重要であり一般に使われ、ときどき文献においてさえ混同される。
 
例えば、3 次元[[実ベクトル空間]] <math>\mathbb{R}^3</math> において、次の例がある:
 
:<math>
\begin{matrix}
\mbox{independent}\qquad\\
\underbrace{
\overbrace{
\begin{bmatrix}0\\0\\1\end{bmatrix},
\begin{bmatrix}0\\2\\-2\end{bmatrix},
\begin{bmatrix}1\\-2\\1\end{bmatrix}
},
\begin{bmatrix}4\\2\\3\end{bmatrix}
}\\
\mbox{dependent}\\
\end{matrix}
</math><!-- weights 9, 5, 4 -->
ここで最初の 3 つのベクトルは線型独立である; しかし、4 つ目のベクトルは 9 掛ける 最初 足す 5 掛ける 二番目 足す 4 掛ける 三番目 に等しいので、4 つのベクトルを合わせると線型従属である。線型従属性その族の性質であって、任意の特定のベクトルの性質ではない; 例えばこのケースにおいて最初のベクトルを後ろ 3 つの線型結合として書くこともできる。
:<math>\bold{v}_1 = \left(-\frac{5}{9}\right) \bold{v}_2 + \left(-\frac{4}{9}\right) \bold{v}_3 + \frac{1}{9} \bold{v}_4 . </math>
 
[[確率論]]と[[統計学]]において、[[確率変数]]の間の線型従属の無関係な考えがある。
 
== 定義 ==
=== 自明な線型関係 ===
[[ベクトル空間]] ''V'' の[[部分集合]] ''S'' は次のとき'''線型従属''' (linearly dependent) と呼ばれる。''有限''個の''相異なる''ベクトル ''v''<sub>1</sub>, ''v''<sub>2</sub>, ..., ''v<sub>n</sub>'' &isin; ''S'' とスカラー ''a''<sub>1</sub>, ''a''<sub>2</sub>, ..., ''a<sub>n</sub>'', [すべてが 0] ではない、が存在して、
[[画像:Basis graph (no label).svg|300px|thumb|例:ベクトル空間 '''R'''{{sup|2}} の部分集合 {(1, 0), (0, 1), (-2, 1)} は非自明な線型関係 2(1, 0) - (0, 1) + (-2, 1) = 0 を満たすので線型従属である。他方 {(1, 0), (0, 1)} は線型独立である。]]
:<math> a_1 v_1 + a_2 v_2 + \cdots + a_n v_n = 0. </math>
任意の[[ベクトル空間|ベクトル]] {{math2|''v''{{sub|1}}, ''v''{{sub|2}}, …, ''v{{sub|n}}''}} に対して
:<math>0 \boldsymbol v_1 + 0 \boldsymbol v_2 + \dotsb + 0 \boldsymbol v_n = \boldsymbol{0}</math>
である。これを {{math2|''v''{{sub|1}}, ''v''{{sub|2}}, …, ''v{{sub|n}}''}} の[[自明な (数学)|自明な]]線型関係と呼ぶ。これ以外の線型関係があるかないかで線型従属、線型独立になる。
 
=== 線型従属 ===
右辺のゼロは[[ゼロベクトル]]であって数のゼロではないことに注意しよう。
線型関係
:<math>c_1 \boldsymbol v_1 + c_2 \boldsymbol v_2 + \dotsb + c_n \boldsymbol v_n = \boldsymbol{0}</math>
において、ある {{mvar|i}} で {{math|''c{{sub|i}}'' ≠ 0}} であるとき、{{math2|''v''{{sub|1}}, ''v''{{sub|2}}, ..., ''v{{sub|n}}''}} は'''線型従属'''('''一次従属''')であるという。このとき {{math|''v{{sub|i}}''}} は残り {{math|''n'' &minus; 1}} 本のベクトルの[[線型結合]]で表せる。このとき {{math2|''v''{{sub|1}}, ''v''{{sub|2}}, ..., ''v{{sub|n}}''}} が張る線形空間の[[次元]]は {{mvar|n}} 未満になる。
 
=== 線型独立 ===
任意のベクトル ''u''<sub>1</sub>, ''u''<sub>2</sub>, ..., ''u<sub>n</sub>'' に対して
ベクトル {{math2|''v''{{sub|1}}, ''v''{{sub|2}}, …, ''v{{sub|n}}''}} が線型従属でないときこの集合は'''線型独立'''('''一次独立''')であるという{{sfn|Dunford|Schwartz|1988|p=36}}<ref>{{Cite book |last=Friedberg, Insel, Spence |first=Stephen, Arnold, Lawrence |title=Linear Algebra |publisher=Pearson, 4th Edition |isbn=0130084514 |pages=48-49}}</ref>。つまり、スカラー {{math2|''a''{{sub|1}}, ''a''{{sub|2}}, …, ''a{{sub|n}}''}} に対して
:<math> 0 u_1 + 0 u_2 + \cdots + 0 u_n = 0 </math>
:<math>a_1 \boldsymbol v_1 + a_2 \boldsymbol v_2 + \dotsb + a_n \boldsymbol v_n = \boldsymbol{0} \Rightarrow a_1 = \cdots = a_n =0</math>
である。これは ''u''<sub>1</sub>, ''u''<sub>2</sub>, ..., ''u<sub>n</sub>'' の線型結合としての 0 の[[自明な (数学)|自明な]]表現と呼ばれる。これは線型独立性と線型従属性の両方の非常に単純な定義を動機付ける。集合が線型従属であるためには、集合のベクトルの線型結合としての 0 の非自明な表現が存在しなければならない。
このとき、どのベクトルも残り {{math|''n'' &minus; 1}} 本が張る線形部分空間外のベクトルである。
{{See also|基底 (線型代数学)|正則行列}}
 
文脈から明らかなときには単に従属、独立などと言うこともある{{sfn|Halmos|1995|pp={{google books quote|id=SY-_COzW4toC|page=36|36}}&ndash;{{google books quote|id=SY-_COzW4toC|page=37|37}}}}{{sfn|Halmos|1995|p={{google books quote|id=SY-_COzW4toC|page=37|37}}}}。
ベクトル空間 ''V'' の部分集合 ''S'' は線型従属でないとき'''線型独立''' (linearly independent) であると言う。言い換えると、集合が線型独立であるとは、そのベクトルの線型結合としての 0 の唯一の表現が自明な表現であるということである<ref>{{cite book|last=Friedberg, Insel, Spence|first=Stephen, Arnold, Lawrence|title=Linear Algebra|publisher=Pearson, 4th Edition|isbn=0130084514|pages=48-49}}</ref>。
 
== 基本的な性質 ==
両方の定義において部分集合 ''S'' のベクトルは線型従属あるいは線型独立であるとも言うことに言及しておく。
* 線型独立であるベクトルたちはどれも、[[零ベクトル]]でない。
* 零ベクトルでないベクトル {{math|''v'' ≠ '''0'''}} に対して一元集合 {{math|{''v''{{)}}}} は線型独立である。
* 線型独立な集合の部分集合は線型独立である。特に[[空集合]]は線型独立である。
<!-- 以下、必要ならばZornの補題を使って -->
* 線型独立な集合は[[基底]]に拡張できる。
* ベクトル空間全体を[[線型包|生成]]する集合の線型独立な部分集合全体は[[極大元]](=基底)をもつ。
 
== 例 ==
より一般に、''V'' を[[可換体|体]] ''K'' 上のベクトル空間とし、{''v''<sub>''i''</sub> | ''i''∈''I''} を ''V'' の元で[[添え字づけられた族|族]]とする。族が ''K'' 上''線型従属''であるとは、 ''K'' の元の族 {''a''<sub>''j''</sub> | ''j''∈''J''}、[すべてが0]ではない、が存在して、
=== 数ベクトル空間における例 ===
==== {{math|R{{sup|2}}}} のベクトル ====
* <math>\mathbb{R}^2</math> のベクトル {{math|(1, 1)}} と {{math|(&minus;3, 2)}} は線型独立である。
実際 {{math|λ{{sub|1}}, λ{{sub|2}}}} を二つの[[実数]]として <math> (1, 1) \lambda_1 + (-3, 2) \lambda_2 = (0, 0)</math> を {{math|λ{{sub|1}}, λ{{sub|2}}}} に関して解けば {{math|1=λ{{sub|1}}&nbsp;= 0, λ{{sub|2}}&nbsp;= 0}} がわかる。
 
; 行列式による別法 : 別の方法は<math>\mathbb{R}^n</math> の ''n'' 個のベクトルが線型'''独立'''であることとベクトルをその列として取ることによって形成される[[行列]]の[[行列式]]が 0 でないことは[[同値]]であるという事実を用いる。
:<math> \sum_{j \in J} a_j v_j = 0 \,</math>
 
ただし添え字集合 ''J'' は ''I'' の空でない有限部分集合である。
 
''V'' の元の集合 ''X'' が''線型独立''であるとは、対応する族 {''x''}<sub>'''x'''∈''X''</sub> が線型独立であることである。
 
同値なことだが、族が従属であるとは、元が族の残りの[[線型包]]に入っている、すなわち元が族の残りの[[線型結合]]であるということである。
 
空な族と言う自明な場合には定理が適用するために線型独立と見なされなければならない。
 
線型独立かつあるベクトル空間を[[線型包|張る]]ベクトルの集合はそのベクトル空間の[[基底 (線型代数学)|基底]]をなす。例えば、実数上の ''x'' のすべての多項式のなすベクトル空間は(無限)部分集合 {1, ''x'', ''x''<sup>2</sup>, ...} を基底として持つ。
 
== 幾何学的な意味 ==
 
地理的な例は線型独立性の概念を明確にする助けとなるだろう。ある場所の位置を記述している人は「それはここから3キロ北で4キロ東」と言うかもしれない。これは位置を記述するのに十分な情報である、なぜならば地理的な座標系は 2-次元ベクトル空間と考えることができるからである(高度と地球の表面の曲がりは無視して)。その人は「その場所はここから北東に5キロ」と付け加えるかもしれない。この主張は''正しい''が、必要でない。
 
この例において「3キロ北」ベクトルと「4キロ東」ベクトルは線型独立である。つまり、北ベクトルを東ベクトルの言葉では記述できないし、逆もまたしかり。三番目の「5キロ北東」ベクトルは他の 2 つのベクトルの[[線型結合]]であり、ベクトルの集合を「線型従属」にする、つまり、3つのベクトルのうち1つは不要である。
 
また次のことにも注意しよう。高度が無視されない場合、線型独立な集合に第三のベクトルを付け加えることが必要になる。一般に、''n'' 個の線型独立なベクトルは ''n''-次元空間の任意の位置を記述するために必要である。
 
== 例 I ==
<math>\mathbb{R}^2</math> のベクトル (1, 1) と (&minus;3, 2) は線型独立である。
 
=== 証明 ===
 
λ<sub>1</sub> と λ<sub>2</sub> を 2 つの[[実数]]であって
 
:<math> (1, 1) \lambda_1 + (-3, 2) \lambda_2 = (0, 0) \,\! </math>
 
とする。各座標を別個にすると、これは
 
:<math> \begin{align}
\lambda_1 - 3 \lambda_2 &{}= 0 , \\
\lambda_1 + 2 \lambda_2 &{}= 0
\end{align} </math>
 
を意味する。λ<sub>1</sub> と λ<sub>2</sub> に対して解いて、λ<sub>1</sub>&nbsp;= 0 と λ<sub>2</sub>&nbsp;= 0 がわかる。
 
=== 行列式を用いた別の方法 ===
 
別の方法は<math>\mathbb{R}^n</math> の ''n'' 個のベクトルが線型'''独立'''であることとベクトルをその列として取ることによって形成される[[行列]]の[[行列式]]が 0 でないことは[[同値]]であるという事実を用いる。
 
この場合、ベクトルによって形成される行列は
101 ⟶ 55行目:
行列式が 0 でないから、ベクトル (1, 1) と (&minus;3, 2) は線型独立である。
 
別のやり方で、''n'' 座標の ''m'' ベクトルを持っていて ''m''&nbsp;&lt;&nbsp;''n'' とする。このとき ''A'' は ''n''×''m'' 行列であり Λ は ''m'' 成分を持つ列ベクトルで、再び ''A''Λ&nbsp;= '''0''' に興味がある。前に見たように、これは ''n'' 方程式のリストに同値である。''A'' の最初の ''m'' 列、最初の ''m'' 方程式を考えよう; 方程式の全リストの任意の解は減らされたリストでも解でなければならない。実は、〈''i''<{{sub>|1</sub>}},...,''i''<{{sub>|''m''</sub>}}〉 が ''m'' 行の任意のリストであれば、方程式はそれらの行に対して正しくなければならない。
:<math> A_{{\lang i_1,\dots,i_m} \rang} \Lambda = \boldmathbf{0} . \,\!</math>
さらに、逆も正しい。つまり、''m'' ベクトルが線型従属かどうかを ''m'' 行のすべての可能なリストに対して
:<math> \det A_{{\lang i_1,\dots,i_m} \rang} = 0 \,\!</math>
かどうかをテストすることによってテストできる。(''m''&nbsp;= ''n'' の場合、これは上のようにただ 1 つの行列式を要求する。''m''&nbsp;&gt;&nbsp;''n'' ならばベクトルは線型従属でなければならないことは定理である。)この事実は理論に値する; 実用計算においてはより効率的な方法が利用可能である。
 
==== {{math|R{{sup|4}}}} のベクトル ====
== 例 II ==
{{math|'''R'''{{sup|4}}}} の次のベクトルは線型従属である。
 
''V''&nbsp;=&nbsp;'''R'''<sup>''n''</sup> とし ''V'' の次の元を考える:
 
:<math>\begin{matrix}
\mathbf{e}_1 & = & (1,0,0,\ldots,0) \\
\mathbf{e}_2 & = & (0,1,0,\ldots,0) \\
& \vdots \\
\mathbf{e}_n & = & (0,0,0,\ldots,1).\end{matrix}</math>
 
すると '''e'''<sub>1</sub>, '''e'''<sub>2</sub>, ..., '''e<sub>n</sub>''' は線型独立である。
 
=== 証明 ===
 
''a''<sub>1</sub>, ''a''<sub>2</sub>, ..., ''a<sub>n</sub>'' は '''R''' の元で
 
:<math> a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = 0 \,\!</math>
 
とする。
:<math> a_1 \mathbf{e}_1 + a_2 \mathbf{e}_2 + \cdots + a_n \mathbf{e}_n = (a_1 ,a_2 ,\ldots, a_n) , \,\!</math>
 
なのですべての ''i'' &isin; {1, ..., ''n''} に対して ''a<sub>i</sub>'' = 0 である。
 
== 例 III ==
 
''V'' を実変数 ''t'' のすべての[[関数]]のベクトル空間とする。すると関数 ''e<sup>t</sup>'', ''e''<sup>2''t''</sup> &isin; ''V'' は線型独立である。
 
=== 証明 ===
''a'' と ''b'' を 2 つの実数で ''t'' の''すべての''値に対して
 
:''ae<sup>t</sup>'' + ''be''<sup>2''t''</sup> = 0
 
とする。''a'' = 0 と ''b'' = 0 を示す必要がある。これをするために、(決して 0 でない) ''e''<sup>''t''</sup> で割り、引くと、
:''be<sup>t</sup>'' = &minus;''a''
を得る。言い換えると、関数 ''be''<sup>''t''</sup> は ''t'' から独立でなければならず、これは ''b''&nbsp;=&nbsp;0 のときにのみ起こる。''a'' も 0 であることが従う。
 
== 例IV ==
'''R'''<sup>4</sup> の次のベクトルは線型従属である。
:<math>
\begin{bmatrix}1\\4\\2\\-3\end{bmatrix},\quad
\begin{matrix}
\begin{bmatrix}7\\10\\-4\\-1\end{bmatrix},\quad
\\
\begin{bmatrix}1-2\\41\\25\\-34\end{bmatrix},.
\begin{bmatrix}7\\10\\-4\\-1\end{bmatrix} \mathrm{and}
\begin{bmatrix}-2\\1\\5\\-4\end{bmatrix}
\\
\\
\end{matrix}
</math>
 
実際、線型関係式
=== 証明 ===
:<math>\lambda_1\begin{bmatrix}1\\4\\2\\-3\end{bmatrix}
 
+ \lambda_2\begin{bmatrix}7\\10\\-4\\-1\end{bmatrix}
[すべてが0]ではないスカラー <math>\lambda_1</math>, <math>\lambda_2</math>, <math>\lambda_3</math> であって
+ \lambda_3\begin{bmatrix}-2\\1\\5\\-4\end{bmatrix}
 
= \begin{bmatrix}0\\0\\0\\0\end{bmatrix}
:<math>
\begin{matrix}
\\
\lambda_1 \begin{bmatrix}1\\4\\2\\-3\end{bmatrix}+
\lambda_2 \begin{bmatrix}7\\10\\-4\\-1\end{bmatrix}+
\lambda_3 \begin{bmatrix}-2\\1\\5\\-4\end{bmatrix}=
\begin{bmatrix}0\\0\\0\\0\end{bmatrix}
\end{matrix}
</math>
において、{{math|&lambda;{{sub|3}}}} を任意として
 
: <math>
なるものを見つける必要がある。[[斉次方程式]]:
 
:<math>
\begin{align}
\lambda_1& \;+ 7\lambda_2& &- 2\lambda_3& = 0\\
4\lambda_1& \;+ 10\lambda_2& &+ \lambda_3& = 0\\
2\lambda_1& \;- 4\lambda_2& &+ 5\lambda_3& = 0\\
-3\lambda_1& \;- \lambda_2& &- 4\lambda_3& = 0\\
\end{align}
</math>
 
をなし、(例えば[[ガウスの消去法]]を用いて)解くことができ、次を得る:
:<math>
\begin{align}
\lambda_1 &= -3 \lambda_3 /2 \\
\lambda_2 &= \lambda_3/2 \\
\end{align}
</math>
とすれば非自明な関係を得る。
ただし <math>\lambda_3</math> は任意に選ぶことができる。
 
==== 標準基底ベクトル ====
これらは非自明な結果であるから、ベクトルは線型従属である。
{{math|1=''V'' = '''R'''{{sup|''n''}}}} とし {{math|''V''}} の次の元を考える:
:<math>\begin{align}
\boldsymbol{e}_1 &= (1,0,0,\ldots,0), \\
\boldsymbol{e}_2 &= (0,1,0,\ldots,0), \\
&\vdots \\
\boldsymbol{e}_n &= (0,0,0,\ldots,1).
\end{align}</math>
これら {{math|'''e'''{{sub|1}}, '''e'''{{sub|2}}, …, '''e'''{{sub|''n''}}}} は線型独立である。実際、{{math|''a''{{sub|1}}, ''a''{{sub|2}}, …, ''a{{sub|n}}''}} は {{math|'''R'''}} の元として
: <math>a_1 \boldsymbol{e}_1 + a_2 \boldsymbol{e}_2 + \cdots + a_n \boldsymbol{e}_n = \boldsymbol{0}</math>
は、すべての {{math|''i'' &isin; {1, …, ''n''}}} に対して {{math|1=''a{{sub|i}}'' = 0}} を意味する(<math>a_1 \boldsymbol{e}_1 + a_2 \boldsymbol{e}_2 + \cdots + a_n \boldsymbol{e}_n = (a_1 ,a_2 ,\ldots, a_n)</math> に注意する)。
 
=== linear dependences の射影函数空間における例 ===
* 実変数 {{mvar|t}} の[[関数 (数学)|関数]]全体の成すベクトル空間 {{mvar|V}} において関数 {{math|1=''f''(''t'') = ''e{{sup|t}}'', ''g''(t) = ''e''{{sup|2''t''}} &isin; ''V''}} は線型独立である。
実際、{{mvar|a, b}} を二つの実数として、線型関係式 {{math|1=''af'' + ''bg'' = 0}} は {{mvar|t}} の'''任意の'''値に対して {{math|1=''a''(''f''(''t'')) + ''b''(''g''(''t'')) = ''ae{{sup|t}}'' + ''be''{{sup|2''t''}} = 0}} が成り立つことを意味する。{{mvar|e{{exp|t}}}} は常に {{math|0}} でないから、これで両辺を割れば {{math|1=''be{{sup|t}}'' = &minus;''a''}} となり、右辺は {{mvar|t}} に依存しないから左辺 {{mvar|be{{exp|t}}}} もそうであり、{{math|1=''b'' = 0}} が必要とわかる。このとき {{math|1=''a'' = 0}} である。
 
== 線型従属関係のなす射影空間 ==
ベクトル '''v'''<sub>1</sub>, ..., '''v'''<sub>''n''</sub> の間の '''linear dependence''' は[すべてが0]ではない ''n'' 個の[[スカラー]]成分とともに[[タプル]] (''a''<sub>1</sub>, ..., ''a''<sub>''n''</sub>) であって、
ベクトル {{math|'''v'''{{sub|1}}, …, '''v'''{{sub|''n''}}}} の間に成り立つ線型従属関係 (linear dependence) の係数ベクトルとは、線型関係式
: <math>a_1 \boldsymbol{v}_1 + \cdots + a_n \boldsymbol{v}_n= \boldsymbol{0}</math>
を満たす {{mvar|n}} 個のスカラーを成分に持つベクトル {{math|(''a''{{sub|1}}, …, ''a''{{sub|''n''}})}} で少なくとも一つの成分が {{math|0}} でないものをいう。そのような係数ベクトル {{math|(''a''{{sub|1}}, …, ''a''{{sub|''n''}})}} が存在するとき、{{mvar|n}} 個のベクトル {{math|'''v'''{{sub|1}}, …, '''v'''{{sub|''n''}}}} は線型従属である。
 
{{mvar|n}} 個のベクトル {{math|'''v'''{{sub|1}}, …, '''v'''{{sub|''n''}}}} の間に二つの線型従属関係式が与えられたとき、一方の係数ベクトルが他方の非零定数倍となっているならば、これら二つは同じ線型関係を記述するものとなるから、これら二つを同一視することには意味がある。この同一視の下で、{{math|'''v'''{{sub|1}}, …, '''v'''{{sub|''n''}}}} の間の線型従属関係の全体は[[射影空間]]を成す。
:<math>a_1 \mathbf{v}_1 + \cdots + a_n \mathbf{v}_n=0. \,</math>
 
== 脚注 ==
そのような linear dependence が存在すれば、''n'' 個のベクトルは線型従属である。2つの linear dependence を一方が他方の非零倍として生じるときに同一視することは意味をなす、なぜならばこのとき2つはベクトルの間で同じ線型関係を記述するからである。この同一視の下、'''v'''<sub>1</sub>, ...., '''v'''<sub>''n''</sub> の間のすべての linear dependence の集合は[[射影空間]]である。
{{脚注ヘルプ}}
{{Reflist}}
 
== 参考文献 ==
== 確率変数の間の linear dependence ==
* {{Cite book
[[共分散]]は2つの[[確率変数]]の間の a measure of "linear dependence" と呼ばれることがある。それは[[線型代数学]]の文脈においてと同じものを意味しない。共分散が正規化されたとき、{{仮リンク|共関係行列|en|correlation matrix}}を得る。それから、{{仮リンク|ピアソン係数|en|Pearson coefficient<!-- リダイレクト先の「[[:en:Pearson product-moment correlation coefficient]]」は、[[:ja:相関係数]] とリンク -->|FIXME=1}}を得、これは変数の間の関係を記述する最善の[[線型関数]]のための適合の良さを我々に与える。この意味で共分散は dependence の線型ゲージである。
|last1 = Dunford
|first1 = Nelson
|last2 = Schwartz
|first2 = Jacob T.
|year = 1988
|title = Linear Operators Part I: General Theory
|series = Wiley Classics Library
|publisher = Wiley
|isbn = 0-471-60848-3
|mr = 1009162
|zbl = 0635.47001
|ref = harv
}}
* {{Cite book
|last1 = Halmos
|first1 = Paul R.
|year = 1995
|title = Linear Algebra Problem Book
|series = Dolciani Mathematical Exposition
|volume = 16
|url = {{google books|SY-_COzW4toC|plainurl=yes}}
|publisher = The Mathematical Association of America
|isbn = 0-88385-322-1
|mr = 1310775
|zbl = 0846.15001
|ref = harv
}}
 
== 関連項目 ==
* [[グラム行列]] ({{Lang|en|Gramian matrix}})
* [[マトロイド]] ({{Lang|en|Matroid}})
* [[正規直交系]]
* [[直交性]] ([[:en:Orthogonality<!-- [[:ja:直交]] とリンク -->|Orthogonality]])
* [[ロンスキアンー行列式]] ({{Lang|en|Wronskian}})
* [[多重共線性]] ([[:en:Multicollinearity|Multicollinearity]])
 
== 参考文献 ==
{{reflist}}
 
== 外部リンク ==
* {{高校数学の美しい物語|1193|ベクトルの一次独立,一次従属の定義と意味}}
* {{springer|title=Linear independence|id=p/l059290}}
* {{SpringerEOM|title=Linear independence|urlname=Linear_independence}}
* [http://mathworld.wolfram.com/LinearlyDependentFunctions.html Linearly Dependent Functions] at WolframMathWorld.
* {{MathWorld|title=Linearly Dependent Functions|urlname=LinearlyDependentFunctions}}
* [http://people.revoledu.com/kardi/tutorial/LinearAlgebra/LinearlyIndependent.html Tutorial and interactive program] on Linear Independence.
* [https://people.revoledu.com/kardi/tutorial/LinearAlgebra/LinearlyIndependent.html Tutorial and interactive program] on Linear Independence.
* [http://www.khanacademy.org/video/linear-algebra--introduction-to-linear-independence Introduction to Linear Independence] at KhanAcademy.
 
{{linear algebra線形代数}}
 
{{DEFAULTSORT:せんけいとくりつ}}