Kreuzprodukt
Das Kreuzprodukt , auch Vektorprodukt , vektorielles Produkt oder äußeres Produkt , ist eine Verknüpfung im dreidimensionalen euklidischen Vektorraum , die zwei Vektoren wieder einen Vektor zuordnet. Um es von anderen Produkten, insbesondere vom Skalarprodukt , zu unterscheiden, wird es im deutsch- und englischsprachigen Raum mit einem Malkreuz
×
{\displaystyle \times }
als Multiplikationszeichen geschrieben (vgl. Abschnitt Schreibweisen ). Die Bezeichnungen Kreuzprodukt und Vektorprodukt gehen auf den Physiker Josiah Willard Gibbs zurück, die Bezeichnung äußeres Produkt wurde von Hermann Graßmann geprägt.[ 1]
Das Kreuzprodukt der Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
ist ein Vektor, der senkrecht auf der von den beiden Vektoren aufgespannten Ebene steht und mit ihnen ein Rechtssystem bildet. Die Länge dieses Vektors entspricht dem Flächeninhalt des Parallelogramms , das von den Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
aufgespannt wird.
In der Physik tritt das Kreuzprodukt an vielen Stellen auf, zum Beispiel im Elektromagnetismus bei der Berechnung der Lorentzkraft oder des Poynting-Vektors . In der klassischen Mechanik wird es bei Drehgrößen wie dem Drehmoment und dem Drehimpuls oder bei Scheinkräften wie der Corioliskraft benutzt.
Rechte-Hand-Regel
Das Kreuzprodukt
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
von zwei Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
im dreidimensionalen Anschauungsraum ist ein Vektor, der orthogonal zu
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
, und damit orthogonal zu der von
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
aufgespannten Ebene ist.
Dieser Vektor ist so orientiert, dass
a
→
,
b
→
{\displaystyle {\vec {a}},{\vec {b}}}
und
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
in dieser Reihenfolge ein Rechtssystem bilden. Mathematisch heißt das, dass die drei Vektoren
a
→
,
b
→
{\displaystyle {\vec {a}},{\vec {b}}}
und
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
gleich orientiert sind wie die Vektoren
e
→
1
{\displaystyle {\vec {e}}_{1}}
,
e
→
2
{\displaystyle {\vec {e}}_{2}}
und
e
→
3
{\displaystyle {\vec {e}}_{3}}
der Standardbasis . Im physikalischen Raum bedeutet es, dass sie sich wie Daumen, Zeigefinger und abgespreizter Mittelfinger der rechten Hand verhalten (Rechte-Hand-Regel ). Ein Drehen des ersten Vektors
a
→
{\displaystyle {\vec {a}}}
in den zweiten Vektor
b
→
{\displaystyle {\vec {b}}}
ergibt die positive Richtung des Vektors
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
über den Rechtsschraubensinn .
Abhängigkeit des Kreuzproduktes und dessen Betrag vom Winkel
Der Betrag von
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
gibt den Flächeninhalt des von
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
aufgespannten Parallelogramms an. Ausgedrückt durch die Längen
|
a
→
|
{\displaystyle |{\vec {a}}|}
und
|
b
→
|
{\displaystyle |{\vec {b}}|}
der Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
sowie den von
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
eingeschlossenen Winkel
θ
=
∢
(
a
→
,
b
→
)
{\displaystyle \theta =\sphericalangle ({\vec {a}},{\vec {b}})}
gilt
|
a
→
×
b
→
|
=
|
a
→
|
|
b
→
|
sin
θ
{\displaystyle |{\vec {a}}\times {\vec {b}}|=|{\vec {a}}|\,|{\vec {b}}|\,\sin \theta }
,
wobei
sin
θ
{\displaystyle \sin \theta \,}
den Sinus des eingeschlossenen Winkels
θ
{\displaystyle \theta }
bezeichnet.
Streng genommen lässt sich diese Formel nur für
a
→
,
b
→
≠
0
→
{\displaystyle {\vec {a}},{\vec {b}}\neq {\vec {0}}}
anwenden, da ansonsten
θ
{\displaystyle \theta }
nicht erklärt ist.
Zusammenfassend gilt also
a
→
×
b
→
=
{
|
a
→
|
|
b
→
|
sin
θ
n
→
,
falls
a
→
,
b
→
≠
0
→
,
0
→
sonst,
{\displaystyle {\vec {a}}\times {\vec {b}}={\begin{cases}\displaystyle |{\vec {a}}||{\vec {b}}|\sin \theta \,{\vec {n}},&{\text{falls }}{\vec {a}},{\vec {b}}\neq {\vec {0}},\\{\vec {0}}&{\text{sonst,}}\end{cases}}}
wobei der Vektor
n
→
{\displaystyle {\vec {n}}}
derjenige zu
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
senkrechte Einheitsvektor ist, der diese zu einem Rechtssystem ergänzt.
Je nach Land sind für das Vektorprodukt zum Teil unterschiedliche Schreibweisen gebräuchlich. Im englisch- und deutschsprachigen Raum wird für das Vektorprodukt zweier Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
für gewöhnlich die Schreibweise
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
verwendet, in Frankreich und Italien wird dagegen die Schreibweise
a
→
∧
b
→
{\displaystyle {\vec {a}}\wedge {\vec {b}}}
bevorzugt. In Russland wird das Vektorprodukt oft in der Schreibweise
[
a
→
b
→
]
{\displaystyle [{\vec {a}}\ {\vec {b}}]}
oder
[
a
→
,
b
→
]
{\displaystyle [{\vec {a}},{\vec {b}}]}
notiert.
Die Schreibweise
a
→
∧
b
→
{\displaystyle {\vec {a}}\wedge {\vec {b}}}
und die Bezeichnung äußeres Produkt werden nicht nur für das Vektorprodukt verwendet, sondern auch für die Verknüpfung, die zwei Vektoren einen sogenannten Bivektor zuordnet, siehe Graßmann-Algebra .
In einem rechtshändigen kartesischen Koordinatensystem bzw. im reellen Koordinatenraum
R
3
{\displaystyle \mathbb {R} ^{3}}
mit dem Standardskalarprodukt und der Standardorientierung gilt für das Kreuzprodukt:
a
→
×
b
→
=
(
a
1
a
2
a
3
)
×
(
b
1
b
2
b
3
)
=
(
a
2
b
3
−
a
3
b
2
a
3
b
1
−
a
1
b
3
a
1
b
2
−
a
2
b
1
)
.
{\displaystyle {\vec {a}}\times {\vec {b}}={\begin{pmatrix}a_{1}\\a_{2}\\a_{3}\end{pmatrix}}\times {\begin{pmatrix}b_{1}\\b_{2}\\b_{3}\end{pmatrix}}={\begin{pmatrix}a_{2}b_{3}-a_{3}b_{2}\\a_{3}b_{1}-a_{1}b_{3}\\a_{1}b_{2}-a_{2}b_{1}\end{pmatrix}}\,.}
Ein Zahlenbeispiel:
(
1
2
3
)
×
(
−
7
8
9
)
=
(
2
⋅
9
−
3
⋅
8
3
⋅
(
−
7
)
−
1
⋅
9
1
⋅
8
−
2
⋅
(
−
7
)
)
=
(
−
6
−
30
22
)
.
{\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}\times {\begin{pmatrix}-7\\8\\9\end{pmatrix}}={\begin{pmatrix}2\cdot 9-3\cdot 8\\3\cdot (-7)-1\cdot 9\\1\cdot 8-2\cdot (-7)\end{pmatrix}}={\begin{pmatrix}-6\\-30\\22\end{pmatrix}}\,.}
Eine Merkregel für diese Formel beruht auf einer symbolischen Darstellung über die Determinante . Dabei notiert man eine
(
3
×
3
)
{\displaystyle (3\times 3)}
-Matrix, in deren erster Spalte die Symbole
e
→
1
{\displaystyle {\vec {e}}_{1}}
,
e
→
2
{\displaystyle {\vec {e}}_{2}}
und
e
→
3
{\displaystyle {\vec {e}}_{3}}
für die Standardbasis stehen. Die zweite Spalte wird von den Komponenten des Vektors
a
→
{\displaystyle {\vec {a}}}
und die dritte von denen des Vektors
b
→
{\displaystyle {\vec {b}}}
gebildet. Diese Determinante berechnet man nach den üblichen Regeln, zum Beispiel indem man sie nach der ersten Spalte entwickelt
a
→
×
b
→
=
det
(
e
→
1
a
1
b
1
e
→
2
a
2
b
2
e
→
3
a
3
b
3
)
=
e
→
1
|
a
2
b
2
a
3
b
3
|
−
e
→
2
|
a
1
b
1
a
3
b
3
|
+
e
→
3
|
a
1
b
1
a
2
b
2
|
=
(
a
2
b
3
−
a
3
b
2
)
e
→
1
+
(
a
3
b
1
−
a
1
b
3
)
e
→
2
+
(
a
1
b
2
−
a
2
b
1
)
e
→
3
,
{\displaystyle {\begin{aligned}{\vec {a}}\times {\vec {b}}&=\det {\begin{pmatrix}{\vec {e}}_{1}&a_{1}&b_{1}\\{\vec {e}}_{2}&a_{2}&b_{2}\\{\vec {e}}_{3}&a_{3}&b_{3}\end{pmatrix}}\\&={\vec {e}}_{1}{\begin{vmatrix}a_{2}&b_{2}\\a_{3}&b_{3}\end{vmatrix}}-{\vec {e}}_{2}{\begin{vmatrix}a_{1}&b_{1}\\a_{3}&b_{3}\end{vmatrix}}+{\vec {e}}_{3}{\begin{vmatrix}a_{1}&b_{1}\\a_{2}&b_{2}\end{vmatrix}}\\&=(a_{2}\,b_{3}-a_{3}\,b_{2})\,{\vec {e}}_{1}+(a_{3}\,b_{1}-a_{1}\,b_{3})\,{\vec {e}}_{2}+(a_{1}\,b_{2}-\,a_{2}\,b_{1})\,{\vec {e}}_{3}\,,\end{aligned}}}
oder mit Hilfe der Regel von Sarrus :
a
→
×
b
→
=
det
(
e
→
1
a
1
b
1
e
→
2
a
2
b
2
e
→
3
a
3
b
3
)
=
e
→
1
a
2
b
3
+
a
1
b
2
e
→
3
+
b
1
e
→
2
a
3
−
e
→
3
a
2
b
1
−
a
3
b
2
e
→
1
−
b
3
e
→
2
a
1
=
(
a
2
b
3
−
a
3
b
2
)
e
→
1
+
(
a
3
b
1
−
a
1
b
3
)
e
→
2
+
(
a
1
b
2
−
a
2
b
1
)
e
→
3
.
{\displaystyle {\begin{aligned}{\vec {a}}\times {\vec {b}}&=\det {\begin{pmatrix}{\vec {e}}_{1}&a_{1}&b_{1}\\{\vec {e}}_{2}&a_{2}&b_{2}\\{\vec {e}}_{3}&a_{3}&b_{3}\end{pmatrix}}\\&={\vec {e}}_{1}\,a_{2}\,b_{3}+a_{1}\,b_{2}\,{\vec {e}}_{3}+b_{1}\,{\vec {e}}_{2}\,a_{3}\\&\quad -{\vec {e}}_{3}\,a_{2}\,b_{1}-a_{3}\,b_{2}\,{\vec {e}}_{1}-b_{3}\,{\vec {e}}_{2}\,a_{1}\\&=(a_{2}\,b_{3}-a_{3}\,b_{2})\,{\vec {e}}_{1}+(a_{3}\,b_{1}-a_{1}\,b_{3})\,{\vec {e}}_{2}+(a_{1}\,b_{2}-\,a_{2}\,b_{1})\,{\vec {e}}_{3}\,.\end{aligned}}}
Mit dem Levi-Civita-Symbol
ε
i
j
k
{\displaystyle \varepsilon _{ijk}}
schreibt sich das Kreuzprodukt als
a
→
×
b
→
=
∑
i
,
j
,
k
=
1
3
ε
i
j
k
a
i
b
j
e
→
k
.
{\displaystyle {\vec {a}}\times {\vec {b}}=\sum _{i,j,k=1}^{3}\varepsilon _{ijk}a_{i}b_{j}{\vec {e}}_{k}\,.}
Führt man im euklidischen Raum ein rechtshändiges kartesisches Koordinatensystem mit den Basiseinheitsvektoren
e
→
1
,
e
→
2
,
e
→
3
{\displaystyle {\vec {e}}_{1},{\vec {e}}_{2},{\vec {e}}_{3}}
ein, so erhält man direkt aus der geometrischen Definition und der Antikommutativität
e
→
1
×
e
→
1
=
0
→
,
e
→
1
×
e
→
2
=
e
→
3
,
e
→
1
×
e
→
3
=
−
e
→
2
,
e
→
2
×
e
→
1
=
−
e
→
3
,
e
→
2
×
e
→
2
=
0
→
,
e
→
2
×
e
→
3
=
e
→
1
,
e
→
3
×
e
→
1
=
e
→
2
,
e
→
3
×
e
→
2
=
−
e
→
1
,
e
→
3
×
e
→
3
=
0
→
.
{\displaystyle {\begin{array}{lll}{\vec {e}}_{1}\times {\vec {e}}_{1}={\vec {0}},&{\vec {e}}_{1}\times {\vec {e}}_{2}={\vec {e}}_{3},&{\vec {e}}_{1}\times {\vec {e}}_{3}=-{\vec {e}}_{2},\\{\vec {e}}_{2}\times {\vec {e}}_{1}=-{\vec {e}}_{3},&{\vec {e}}_{2}\times {\vec {e}}_{2}={\vec {0}},&{\vec {e}}_{2}\times {\vec {e}}_{3}={\vec {e}}_{1},\\{\vec {e}}_{3}\times {\vec {e}}_{1}={\vec {e}}_{2},&{\vec {e}}_{3}\times {\vec {e}}_{2}=-{\vec {e}}_{1},&{\vec {e}}_{3}\times {\vec {e}}_{3}={\vec {0}}.\\\end{array}}}
Drückt man zwei Vektoren
a
→
,
b
→
{\displaystyle {\vec {a}},{\vec {b}}}
mithilfe der Basiseinheitsvektoren aus, so liest sich deren Kreuzprodukt als
a
→
×
b
→
=
(
a
1
e
→
1
+
a
2
e
→
2
+
a
3
e
→
3
)
×
(
b
1
e
→
1
+
b
2
e
→
2
+
b
3
e
→
3
)
.
{\displaystyle {\vec {a}}\times {\vec {b}}=\left(a_{1}{\vec {e}}_{1}+a_{2}{\vec {e}}_{2}+a_{3}{\vec {e}}_{3}\right)\times \left(b_{1}{\vec {e}}_{1}+b_{2}{\vec {e}}_{2}+b_{3}{\vec {e}}_{3}\right).}
Unter Vorwegnahme der Bilinearität des Kreuzprodukts (siehe Eigenschaften ) lässt sich die rechte Seite ausmultiplizieren:
a
→
×
b
→
=
a
1
b
1
(
e
→
1
×
e
→
1
)
+
a
1
b
2
(
e
→
1
×
e
→
2
)
+
a
1
b
3
(
e
→
1
×
e
→
3
)
+
a
2
b
1
(
e
→
2
×
e
→
1
)
+
a
2
b
2
(
e
→
2
×
e
→
2
)
+
a
2
b
3
(
e
→
2
×
e
→
3
)
+
a
3
b
1
(
e
→
3
×
e
→
1
)
+
a
3
b
2
(
e
→
3
×
e
→
2
)
+
a
3
b
3
(
e
→
3
×
e
→
3
)
.
{\displaystyle {\vec {a}}\times {\vec {b}}=a_{1}b_{1}\left({\vec {e}}_{1}\times {\vec {e}}_{1}\right)+a_{1}b_{2}\left({\vec {e}}_{1}\times {\vec {e}}_{2}\right)+a_{1}b_{3}\left({\vec {e}}_{1}\times {\vec {e}}_{3}\right)+a_{2}b_{1}\left({\vec {e}}_{2}\times {\vec {e}}_{1}\right)+a_{2}b_{2}\left({\vec {e}}_{2}\times {\vec {e}}_{2}\right)+a_{2}b_{3}\left({\vec {e}}_{2}\times {\vec {e}}_{3}\right)+a_{3}b_{1}\left({\vec {e}}_{3}\times {\vec {e}}_{1}\right)+a_{3}b_{2}\left({\vec {e}}_{3}\times {\vec {e}}_{2}\right)+a_{3}b_{3}\left({\vec {e}}_{3}\times {\vec {e}}_{3}\right).}
Einsetzen der obigen Kreuzprodukte liefert
a
→
×
b
→
=
a
1
b
2
e
→
3
+
a
1
b
3
(
−
e
→
2
)
+
a
2
b
1
(
−
e
→
3
)
+
a
2
b
3
e
→
1
+
a
3
b
1
e
→
2
+
a
3
b
2
(
−
e
→
1
)
.
{\displaystyle {\vec {a}}\times {\vec {b}}=a_{1}b_{2}{\vec {e}}_{3}+a_{1}b_{3}\left(-{\vec {e}}_{2}\right)+a_{2}b_{1}\left(-{\vec {e}}_{3}\right)+a_{2}b_{3}{\vec {e}}_{1}+a_{3}b_{1}{\vec {e}}_{2}+a_{3}b_{2}\left(-{\vec {e}}_{1}\right).}
Durch Zusammenfassung gleicher Terme erhält man hieraus
a
→
×
b
→
=
(
a
2
b
3
−
a
3
b
2
)
e
→
1
+
(
a
3
b
1
−
a
1
b
3
)
e
→
2
+
(
a
1
b
2
−
a
2
b
1
)
e
→
3
.
{\displaystyle {\vec {a}}\times {\vec {b}}=(a_{2}b_{3}-a_{3}b_{2})\,{\vec {e}}_{1}+(a_{3}b_{1}-a_{1}b_{3})\,{\vec {e}}_{2}+(a_{1}b_{2}-a_{2}b_{1})\,{\vec {e}}_{3}.}
Das Kreuzprodukt ist bilinear ,[ 2] das heißt, für alle reellen Zahlen
α
{\displaystyle \alpha }
,
β
{\displaystyle \beta }
und
γ
{\displaystyle \gamma }
und alle Vektoren
a
→
{\displaystyle {\vec {a}}}
,
b
→
{\displaystyle {\vec {b}}}
und
c
→
{\displaystyle {\vec {c}}}
gilt
a
→
×
(
β
b
→
+
γ
c
→
)
=
β
(
a
→
×
b
→
)
+
γ
(
a
→
×
c
→
)
,
(
α
a
→
+
β
b
→
)
×
c
→
=
α
(
a
→
×
c
→
)
+
β
(
b
→
×
c
→
)
.
{\displaystyle {\begin{aligned}{\vec {a}}\times (\beta \,{\vec {b}}+\gamma \,{\vec {c}})=\beta \,({\vec {a}}\times {\vec {b}})+\gamma \,({\vec {a}}\times {\vec {c}})\,,\\(\alpha \,{\vec {a}}+\beta \,{\vec {b}})\times {\vec {c}}=\alpha \,({\vec {a}}\times {\vec {c}})+\beta \,({\vec {b}}\times {\vec {c}})\,.\end{aligned}}}
Die Bilinearität impliziert insbesondere auch das folgende Verhalten hinsichtlich der Skalarmultiplikation
a
→
×
(
β
b
→
)
=
β
(
a
→
×
b
→
)
=
(
β
a
→
)
×
b
→
,
{\displaystyle \ {\vec {a}}\times (\beta \,{\vec {b}})=\beta \,({\vec {a}}\times {\vec {b}})=(\beta \,{\vec {a}})\times {\vec {b}}\,,}
(
α
a
→
)
×
(
β
b
→
)
=
α
β
(
a
→
×
b
→
)
=
(
β
a
→
)
×
(
α
b
→
)
.
{\displaystyle \ (\alpha \,{\vec {a}})\times (\beta \,{\vec {b}})=\alpha \,\beta \,({\vec {a}}\times {\vec {b}})=(\beta \,{\vec {a}})\times (\alpha \,{\vec {b}}).}
Das Kreuzprodukt eines Vektors mit sich selbst oder einem kollinearen Vektor ergibt den Nullvektor :
a
→
×
r
a
→
=
0
→
{\displaystyle {\vec {a}}\times r{\vec {a}}={\vec {0}}}
.
Bilineare Abbildungen, für die diese Gleichung gilt, werden alternierend genannt.[ 2]
Antikommutativität in einem Rechtssystem
Das Kreuzprodukt ist antikommutativ . Das heißt, bei Vertauschung der Argumente wechselt es das Vorzeichen :[ 2]
a
→
×
b
→
=
−
b
→
×
a
→
.
{\displaystyle {\vec {a}}\times {\vec {b}}=-\,{\vec {b}}\times {\vec {a}}\,.}
Dies folgt aus der Eigenschaft, (1) alternierend und (2) bilinear zu sein, da
0
→
=
(
1
)
(
a
→
+
b
→
)
×
(
a
→
+
b
→
)
=
(
2
)
a
→
×
a
→
+
a
→
×
b
→
+
b
→
×
a
→
+
b
→
×
b
→
=
(
1
)
0
→
+
a
→
×
b
→
+
b
→
×
a
→
+
0
→
=
a
→
×
b
→
+
b
→
×
a
→
{\displaystyle {\vec {0}}\,\mathrel {\stackrel {(1)}{=}} ({\vec {a}}+{\vec {b}})\times ({\vec {a}}+{\vec {b}})\mathrel {\stackrel {(2)}{=}} {\vec {a}}\times {\vec {a}}+{\vec {a}}\times {\vec {b}}+{\vec {b}}\times {\vec {a}}+{\vec {b}}\times {\vec {b}}\mathrel {\stackrel {(1)}{=}} {\vec {0}}+{\vec {a}}\times {\vec {b}}+{\vec {b}}\times {\vec {a}}+{\vec {0}}={\vec {a}}\times {\vec {b}}+{\vec {b}}\times {\vec {a}}}
für alle
a
→
,
b
→
∈
R
3
{\displaystyle {\vec {a}},{\vec {b}}\in \mathbb {R} ^{3}}
gilt.
Das Kreuzprodukt ist nicht assoziativ . Stattdessen gilt die Jacobi-Identität , das heißt die zyklische Summe wiederholter Kreuzprodukte verschwindet:
a
→
×
(
b
→
×
c
→
)
+
b
→
×
(
c
→
×
a
→
)
+
c
→
×
(
a
→
×
b
→
)
=
0
→
{\displaystyle {\vec {a}}\times ({\vec {b}}\times {\vec {c}})+{\vec {b}}\times ({\vec {c}}\times {\vec {a}})+{\vec {c}}\times ({\vec {a}}\times {\vec {b}})={\vec {0}}}
Aufgrund dieser Eigenschaft und den zuvor genannten bildet der
R
3
{\displaystyle \mathbb {R} ^{3}}
zusammen mit dem Kreuzprodukt eine Lie-Algebra .
Für jeden Vektor
v
→
{\displaystyle {\vec {v}}}
gilt
v
→
⋅
(
a
→
×
b
→
)
=
det
(
v
→
,
a
→
,
b
→
)
{\displaystyle {\vec {v}}\cdot ({\vec {a}}\times {\vec {b}})=\operatorname {det} ({\vec {v}},{\vec {a}},{\vec {b}})}
.
Dabei bezeichnet der Malpunkt das Skalarprodukt . Durch diese Bedingung ist das Kreuzprodukt eindeutig bestimmt:[ 2]
Für jeden Vektor
v
→
{\displaystyle {\vec {v}}}
gilt:
Sind zwei Vektoren
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
gegeben, so gibt es genau einen Vektor
c
→
{\displaystyle {\vec {c}}}
, so dass
v
→
⋅
c
→
=
det
(
v
→
,
a
→
,
b
→
)
{\displaystyle {\vec {v}}\cdot {\vec {c}}=\operatorname {det} ({\vec {v}},{\vec {a}},{\vec {b}})}
für alle Vektoren
v
→
{\displaystyle {\vec {v}}}
gilt. Dieser Vektor
c
→
{\displaystyle {\vec {c}}}
ist
a
→
×
b
→
{\displaystyle {\vec {a}}\times {\vec {b}}}
.
Für das wiederholte Kreuzprodukt von drei Vektoren (auch doppeltes Vektorprodukt genannt[ 3] ) gilt die Graßmann-Identität (auch Graßmannscher Entwicklungssatz , nach Hermann Graßmann ). Diese lautet:
a
→
×
(
b
→
×
c
→
)
=
(
a
→
⋅
c
→
)
b
→
−
(
a
→
⋅
b
→
)
c
→
{\displaystyle {\vec {a}}\times ({\vec {b}}\times {\vec {c}})=({\vec {a}}\cdot {\vec {c}})\,{\vec {b}}-({\vec {a}}\cdot {\vec {b}})\,{\vec {c}}}
bzw.
(
a
→
×
b
→
)
×
c
→
=
(
a
→
⋅
c
→
)
b
→
−
(
b
→
⋅
c
→
)
a
→
,
{\displaystyle ({\vec {a}}\times {\vec {b}})\times {\vec {c}}=({\vec {a}}\cdot {\vec {c}})\,{\vec {b}}\ -({\vec {b}}\cdot {\vec {c}})\,{\vec {a}},}
wobei die Malpunkte das Skalarprodukt bezeichnen.
In der Physik wird oft die Schreibweise
a
→
×
(
b
→
×
c
→
)
=
b
→
(
a
→
⋅
c
→
)
−
c
→
(
a
→
⋅
b
→
)
,
{\displaystyle {\vec {a}}\times ({\vec {b}}\times {\vec {c}})={\vec {b}}\,({\vec {a}}\cdot {\vec {c}})-{\vec {c}}\,({\vec {a}}\cdot {\vec {b}})\,,}
verwendet. Nach dieser Darstellung wird die Formel auch BAC-CAB-Formel genannt.
In Indexschreibweise lautet die Graßmann-Identität
∑
k
=
1
3
ε
i
j
k
ε
k
l
m
=
δ
i
l
δ
j
m
−
δ
i
m
δ
j
l
{\displaystyle \sum _{k=1}^{3}\varepsilon _{ijk}\varepsilon _{klm}=\delta _{il}\delta _{jm}-\delta _{im}\delta _{jl}}
.
Hierbei ist
ε
i
j
k
{\displaystyle \varepsilon _{ijk}}
das Levi-Civita-Symbol und
δ
i
j
{\displaystyle \delta _{ij}}
das Kronecker-Delta .
Für das Skalarprodukt von zwei Kreuzprodukten gilt[ 2]
(
a
→
×
b
→
)
⋅
(
c
→
×
d
→
)
=
(
a
→
⋅
c
→
)
(
b
→
⋅
d
→
)
−
(
b
→
⋅
c
→
)
(
a
→
⋅
d
→
)
=
det
(
(
a
→
⋅
c
→
)
(
a
→
⋅
d
→
)
(
b
→
⋅
c
→
)
(
b
→
⋅
d
→
)
)
.
{\displaystyle {\begin{aligned}({\vec {a}}\times {\vec {b}})\cdot ({\vec {c}}\times {\vec {d}})&=({\vec {a}}\cdot {\vec {c}})({\vec {b}}\cdot {\vec {d}})-({\vec {b}}\cdot {\vec {c}})({\vec {a}}\cdot {\vec {d}})\\&=\det {\begin{pmatrix}({\vec {a}}\cdot {\vec {c}})&({\vec {a}}\cdot {\vec {d}})\\({\vec {b}}\cdot {\vec {c}})&({\vec {b}}\cdot {\vec {d}})\end{pmatrix}}\;.\end{aligned}}}
Dabei bezeichnet der Malpunkt das Skalarprodukt .
Für das Quadrat der Norm erhält man hieraus
|
a
→
×
b
→
|
2
=
|
a
→
|
2
|
b
→
|
2
−
(
a
→
⋅
b
→
)
2
=
|
a
→
|
2
|
b
→
|
2
(
1
−
cos
2
θ
)
=
|
a
→
|
2
|
b
→
|
2
sin
2
θ
,
{\displaystyle {\begin{aligned}|{\vec {a}}\times {\vec {b}}|^{2}&=|{\vec {a}}|^{2}|{\vec {b}}|^{2}-({\vec {a}}\cdot {\vec {b}})^{2}\\&=|{\vec {a}}|^{2}|{\vec {b}}|^{2}(1-\cos ^{2}\theta )\\&=|{\vec {a}}|^{2}|{\vec {b}}|^{2}\sin ^{2}\theta \;,\end{aligned}}}
also gilt für den Betrag des Kreuzproduktes:
|
a
→
×
b
→
|
=
|
a
→
|
|
b
→
|
|
sin
θ
|
.
{\displaystyle |{\vec {a}}\times {\vec {b}}|=|{\vec {a}}|\,|{\vec {b}}|\,|\sin \theta |\;.}
Da
θ
{\displaystyle \theta }
, der Winkel zwischen
a
→
{\displaystyle {\vec {a}}}
und
b
→
{\displaystyle {\vec {b}}}
, immer zwischen 0° und 180° liegt, ist
0
≤
sin
θ
≤
1.
{\displaystyle 0\leq \sin \theta \leq 1.}
Daraus folgt die Abschätzung
|
a
→
×
b
→
|
≤
|
a
→
|
|
b
→
|
{\displaystyle |{\vec {a}}\times {\vec {b}}|\leq |{\vec {a}}||{\vec {b}}|}
.
(
a
→
×
b
→
)
×
(
c
→
×
d
→
)
=
b
→
⋅
det
(
a
→
,
c
→
,
d
→
)
−
a
→
⋅
det
(
b
→
,
c
→
,
d
→
)
=
c
→
⋅
det
(
a
→
,
b
→
,
d
→
)
−
d
→
⋅
det
(
a
→
,
b
→
,
c
→
)
{\displaystyle {\begin{aligned}({\vec {a}}\times {\vec {b}})\times ({\vec {c}}\times {\vec {d}})&={\vec {b}}\cdot \det({\vec {a}},{\vec {c}},{\vec {d}})-{\vec {a}}\cdot \det({\vec {b}},{\vec {c}},{\vec {d}})\\&={\vec {c}}\cdot \det({\vec {a}},{\vec {b}},{\vec {d}})-{\vec {d}}\cdot \det({\vec {a}},{\vec {b}},{\vec {c}})\end{aligned}}}
Sonderfälle:
(
a
→
×
b
→
)
×
(
b
→
×
c
→
)
=
b
→
⋅
det
(
a
→
,
b
→
,
c
→
)
{\displaystyle ({\vec {a}}\times {\vec {b}})\times ({\vec {b}}\times {\vec {c}})={\vec {b}}\cdot \det({\vec {a}},{\vec {b}},{\vec {c}})}
(
a
→
×
b
→
)
×
(
a
→
×
c
→
)
=
a
→
⋅
det
(
a
→
,
b
→
,
c
→
)
{\displaystyle ({\vec {a}}\times {\vec {b}})\times ({\vec {a}}\times {\vec {c}})={\vec {a}}\cdot \det({\vec {a}},{\vec {b}},{\vec {c}})}
(
a
→
×
b
→
)
×
(
a
→
×
b
→
)
=
0
→
{\displaystyle ({\vec {a}}\times {\vec {b}})\times ({\vec {a}}\times {\vec {b}})={\vec {0}}}
Das Kreuzprodukt definiert für einen festen Vektor
w
→
{\displaystyle {\vec {w}}}
eine lineare Abbildung , die einen Vektor
v
→
{\displaystyle {\vec {v}}}
auf den Vektor
w
→
×
v
→
{\displaystyle {\vec {w}}\times {\vec {v}}}
abbildet. Diese kann mit einem schiefsymmetrischen Tensor zweiter Stufe identifiziert werden . Bei Verwendung der Standardbasis
{
e
→
1
,
e
→
2
,
e
→
3
}
{\displaystyle \lbrace {\vec {e}}_{1},{\vec {e}}_{2},{\vec {e}}_{3}\rbrace }
entspricht die lineare Abbildung einer Matrixoperation . Die schiefsymmetrische Matrix
W
=
∑
i
=
1
3
(
w
→
×
e
→
i
)
⊗
e
→
i
=
(
0
−
w
3
w
2
w
3
0
−
w
1
−
w
2
w
1
0
)
{\displaystyle {W}=\sum _{i=1}^{3}({\vec {w}}\times {\vec {e}}_{i})\otimes {\vec {e}}_{i}=\left({\begin{array}{ccc}0&-w_{3}&w_{2}\\w_{3}&0&-w_{1}\\-w_{2}&w_{1}&0\end{array}}\right)}
mit
w
→
=
∑
i
=
1
3
w
i
e
→
i
=
(
w
1
w
2
w
3
)
{\displaystyle \displaystyle {\vec {w}}=\sum _{i=1}^{3}w_{i}{\vec {e}}_{i}=\left({\begin{array}{c}w_{1}\\w_{2}\\w_{3}\end{array}}\right)}
leistet das Gleiche wie das Kreuzprodukt mit
w
→
{\displaystyle {\vec {w}}}
, d. h.
W
v
→
=
w
→
×
v
→
{\displaystyle {W}{\vec {v}}={\vec {w}}\times {\vec {v}}}
:
(
0
−
w
3
w
2
w
3
0
−
w
1
−
w
2
w
1
0
)
(
v
1
v
2
v
3
)
=
(
−
w
3
v
2
+
w
2
v
3
w
3
v
1
−
w
1
v
3
−
w
2
v
1
+
w
1
v
2
)
=
(
w
1
w
2
w
3
)
×
(
v
1
v
2
v
3
)
{\displaystyle \left({\begin{array}{ccc}0&-w_{3}&w_{2}\\w_{3}&0&-w_{1}\\-w_{2}&w_{1}&0\end{array}}\right)\left({\begin{array}{c}v_{1}\\v_{2}\\v_{3}\end{array}}\right)=\left({\begin{array}{c}-w_{3}v_{2}+w_{2}v_{3}\\w_{3}v_{1}-w_{1}v_{3}\\-w_{2}v_{1}+w_{1}v_{2}\end{array}}\right)=\left({\begin{array}{c}w_{1}\\w_{2}\\w_{3}\end{array}}\right)\times \left({\begin{array}{c}v_{1}\\v_{2}\\v_{3}\end{array}}\right)}
.
Die Matrix
W
{\displaystyle W}
heißt Kreuzproduktmatrix . Sie wird auch mit
[
w
→
]
×
{\displaystyle [{\vec {w}}]_{\times }}
bezeichnet. In Indexnotation gilt
W
i
j
=
−
∑
k
=
1
3
ε
i
j
k
w
k
{\displaystyle W_{ij}=-\sum _{k=1}^{3}\varepsilon _{ijk}w_{k}}
mit
∑
j
=
1
3
W
i
j
v
j
=
(
w
→
×
v
→
)
i
{\displaystyle \sum _{j=1}^{3}W_{ij}v_{j}=({\vec {w}}\times {\vec {v}})_{i}}
.
Bei gegebener schiefsymmetrischer Matrix
W
{\displaystyle {W}}
gilt
W
=
∑
i
=
1
3
∑
j
=
1
3
W
i
j
e
→
i
⊗
e
→
j
=
−
W
T
{\displaystyle {W}=\sum _{i=1}^{3}\sum _{j=1}^{3}W_{ij}{\vec {e}}_{i}\otimes {\vec {e}}_{j}=-W^{T}}
,
wobei
W
T
{\displaystyle {W}^{T}}
die Transponierte von
W
{\displaystyle {W}}
ist, und man erhält den zugehörigen Vektor aus
w
→
=
−
1
2
∑
i
=
1
3
∑
j
=
1
3
W
i
j
e
→
i
×
e
→
j
{\displaystyle {\vec {w}}=-{\frac {1}{2}}\sum _{i=1}^{3}\sum _{j=1}^{3}W_{ij}{\vec {e}}_{i}\times {\vec {e}}_{j}}
.
Hat
w
→
{\displaystyle {\vec {w}}}
die Gestalt
w
→
=
b
→
×
a
→
{\displaystyle {\vec {w}}={\vec {b}}\times {\vec {a}}}
, so gilt für die zugehörige Kreuzproduktmatrix:
W
=
[
w
→
]
×
=
a
→
⊗
b
→
−
b
→
⊗
a
→
{\displaystyle {W}=[{\vec {w}}]_{\times }={\vec {a}}\otimes {\vec {b}}-{\vec {b}}\otimes {\vec {a}}}
und
W
i
j
=
a
i
b
j
−
b
i
a
j
{\displaystyle W_{ij}=a_{i}b_{j}-b_{i}a_{j}}
für alle
i
,
j
{\displaystyle i,j}
.
Hierbei bezeichnet „
⊗
{\displaystyle \otimes }
“ das dyadische Produkt .
Bei der Anwendung des Kreuzprodukts auf vektorielle physikalische Größen spielt die Unterscheidung in polare oder Schubvektoren (das sind solche, die sich wie Differenzen zweier Ortsvektoren verhalten, zum Beispiel Geschwindigkeit , Beschleunigung , Kraft , elektrische Feldstärke ) einerseits und axiale oder Drehvektoren , auch Pseudovektoren genannt, andererseits (das sind solche, die sich wie Drehachsen verhalten, zum Beispiel Winkelgeschwindigkeit , Drehmoment , Drehimpuls , magnetische Flussdichte ) eine wichtige Rolle.
Polaren oder Schubvektoren ordnet man dabei die Signatur (oder Parität ) +1 zu, axialen oder Drehvektoren die Signatur −1. Bei der vektoriellen Multiplikation zweier Vektoren schließlich multiplizieren sich diese Signaturen: zwei Vektoren mit gleicher Signatur liefern ein axiales, zwei mit verschiedener Signatur ein polares Vektorprodukt. Operationell ausgedrückt: Ein Vektor überträgt seine Signatur auf das Kreuzprodukt mit einem anderen Vektor, wenn dieser axial ist; ist der andere Vektor dagegen polar, bekommt das Kreuzprodukt die entgegengesetzte Signatur.
Die Kombination von Kreuz- und Skalarprodukt in der Form
(
a
→
×
b
→
)
⋅
c
→
{\displaystyle ({\vec {a}}\times {\vec {b}})\cdot {\vec {c}}}
wird als Spatprodukt bezeichnet. Das Ergebnis ist eine Zahl, die dem orientierten Volumen des durch die drei Vektoren aufgespannten Spats (Parallelepipeds) entspricht. Das Spatprodukt lässt sich auch als Determinante der benannten drei Vektoren darstellen
V
=
(
a
→
×
b
→
)
⋅
c
→
=
det
(
a
→
,
b
→
,
c
→
)
.
{\displaystyle V=({\vec {a}}\times {\vec {b}})\cdot {\vec {c}}=\det \left({\vec {a}},{\vec {b}},{\vec {c}}\right).}
In der Vektoranalysis wird das Kreuzprodukt zusammen mit dem Nabla-Operator
∇
{\displaystyle \nabla }
verwendet, um den Differentialoperator „Rotation“ zu bezeichnen.
Ist
V
→
{\displaystyle {\vec {V}}}
ein Vektorfeld im
R
3
{\displaystyle \mathbb {R} ^{3}}
, so ist
rot
V
→
=
∇
×
V
→
=
(
∂
∂
x
1
∂
∂
x
2
∂
∂
x
3
)
×
(
V
1
V
2
V
3
)
=
(
∂
∂
x
2
V
3
−
∂
∂
x
3
V
2
∂
∂
x
3
V
1
−
∂
∂
x
1
V
3
∂
∂
x
1
V
2
−
∂
∂
x
2
V
1
)
=
(
∂
V
3
∂
x
2
−
∂
V
2
∂
x
3
∂
V
1
∂
x
3
−
∂
V
3
∂
x
1
∂
V
2
∂
x
1
−
∂
V
1
∂
x
2
)
{\displaystyle \operatorname {rot} {\vec {V}}=\nabla \times {\vec {V}}={\begin{pmatrix}{\frac {\partial }{\partial x_{1}}}\\[.5em]{\frac {\partial }{\partial x_{2}}}\\[.5em]{\frac {\partial }{\partial x_{3}}}\end{pmatrix}}\times {\begin{pmatrix}V_{1}\\[.5em]V_{2}\\[.5em]V_{3}\end{pmatrix}}={\begin{pmatrix}{\frac {\partial }{\partial x_{2}}}V_{3}-{\frac {\partial }{\partial x_{3}}}V_{2}\\[.5em]{\frac {\partial }{\partial x_{3}}}V_{1}-{\frac {\partial }{\partial x_{1}}}V_{3}\\[.5em]{\frac {\partial }{\partial x_{1}}}V_{2}-{\frac {\partial }{\partial x_{2}}}V_{1}\end{pmatrix}}={\begin{pmatrix}{\frac {\partial V_{3}}{\partial x_{2}}}-{\frac {\partial V_{2}}{\partial x_{3}}}\\[.5em]{\frac {\partial V_{1}}{\partial x_{3}}}-{\frac {\partial V_{3}}{\partial x_{1}}}\\[.5em]{\frac {\partial V_{2}}{\partial x_{1}}}-{\frac {\partial V_{1}}{\partial x_{2}}}\end{pmatrix}}}
wieder ein Vektorfeld, die Rotation von
V
→
{\displaystyle {\vec {V}}}
.
Formal wird dieses Vektorfeld also als Kreuzprodukt des Nabla-Operators und des Vektorfelds
V
→
{\displaystyle {\vec {V}}}
berechnet.
Die hierbei auftretenden Ausdrücke
∂
∂
x
i
V
j
{\displaystyle {\tfrac {\partial }{\partial x_{i}}}V_{j}}
sind jedoch keine Produkte, sondern Anwendungen des Differentialoperators
∂
∂
x
i
{\displaystyle {\tfrac {\partial }{\partial x_{i}}}}
auf die Funktion
V
j
{\displaystyle V_{j}}
. Deshalb sind die oben angeführten Rechenregeln wie z. B. die Graßmann-Identität in diesem Fall nicht gültig. Stattdessen gelten für doppelte Kreuzprodukte mit dem Nabla-Operator besondere Rechenregeln .
Das Kreuzprodukt lässt sich für beliebige Dimension
n
≥
2
{\displaystyle n\geq 2}
auf den n-dimensionalen Raum
R
n
{\displaystyle \mathbb {R} ^{n}}
verallgemeinern. Dabei ist das Kreuzprodukt im
R
n
{\displaystyle \mathbb {R} ^{n}}
kein Produkt von zwei Faktoren, sondern von
n
−
1
{\displaystyle n-1}
Faktoren.
Das Kreuzprodukt
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
{\displaystyle {\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1}}
der Vektoren
a
→
1
,
…
,
a
→
n
−
1
∈
R
n
{\displaystyle {\vec {a}}_{1},\dots ,{\vec {a}}_{n-1}\in \mathbb {R} ^{n}}
ist dadurch charakterisiert, dass für jeden Vektor
v
→
∈
R
n
{\displaystyle {\vec {v}}\in \mathbb {R} ^{n}}
gilt
v
→
⋅
(
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
)
=
det
(
v
→
,
a
→
1
,
…
,
a
→
n
−
1
)
.
{\displaystyle {\vec {v}}\cdot ({\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1})=\operatorname {det} ({\vec {v}},{\vec {a}}_{1},\dots ,{\vec {a}}_{n-1}).}
In Koordinaten lässt sich das Kreuzprodukt im
R
n
{\displaystyle \mathbb {R} ^{n}}
wie folgt berechnen.
Es sei
e
→
i
{\displaystyle {\vec {e}}_{i}}
der zugehörige
i
{\displaystyle i}
-te kanonische Einheitsvektor . Für
n
−
1
{\displaystyle n-1}
Vektoren
a
→
1
=
(
a
11
a
21
⋮
a
n
1
)
,
a
→
2
=
(
a
12
a
22
⋮
a
n
2
)
,
…
,
a
→
n
−
1
=
(
a
1
(
n
−
1
)
a
2
(
n
−
1
)
⋮
a
n
(
n
−
1
)
)
∈
R
n
{\displaystyle {\vec {a}}_{1}={\begin{pmatrix}a_{11}\\a_{21}\\\vdots \\a_{n1}\end{pmatrix}},\ {\vec {a}}_{2}={\begin{pmatrix}a_{12}\\a_{22}\\\vdots \\a_{n2}\end{pmatrix}},\ \dots ,\ {\vec {a}}_{n-1}={\begin{pmatrix}a_{1\,(n-1)}\\a_{2\,(n-1)}\\\vdots \\a_{n\,(n-1)}\end{pmatrix}}\in \mathbb {R} ^{n}}
gilt
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
=
det
(
e
→
1
a
11
⋯
a
1
(
n
−
1
)
e
→
2
a
21
⋯
a
2
(
n
−
1
)
⋮
⋮
⋱
⋮
e
→
n
a
n
1
…
a
n
(
n
−
1
)
)
,
{\displaystyle {\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1}=\det {\begin{pmatrix}{\vec {e}}_{1}&a_{11}&\cdots &a_{1(n-1)}\\{\vec {e}}_{2}&a_{21}&\cdots &a_{2(n-1)}\\\vdots &\vdots &\ddots &\vdots \\{\vec {e}}_{n}&a_{n1}&\dots &a_{n(n-1)}\end{pmatrix}},}
analog zu der oben erwähnten Berechnung mit Hilfe einer Determinante.
Der Vektor
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
{\displaystyle {\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1}}
ist orthogonal zu
a
→
1
,
a
→
2
,
…
,
a
→
n
−
1
{\displaystyle {\vec {a}}_{1},{\vec {a}}_{2},\dotsc ,{\vec {a}}_{n-1}}
. Die Orientierung ist so, dass die Vektoren
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
,
a
→
1
,
a
→
2
,
…
,
a
→
n
−
1
{\displaystyle {\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1},{\vec {a}}_{1},{\vec {a}}_{2},\dotsc ,{\vec {a}}_{n-1}}
in dieser Reihenfolge ein Rechtssystem bilden.
Der Betrag von
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
{\displaystyle {\vec {a}}_{1}\times {\vec {a}}_{2}\times \cdots \times {\vec {a}}_{n-1}}
ist gleich dem
(
n
−
1
)
{\displaystyle (n-1)}
-dimensionalen Volumen des von
a
→
1
,
a
→
2
,
…
,
a
→
n
−
1
{\displaystyle {\vec {a}}_{1},{\vec {a}}_{2},\dotsc ,{\vec {a}}_{n-1}}
aufgespannten Parallelotops .
Für
n
=
2
{\displaystyle n=2}
erhält man dabei kein Produkt, sondern nur eine lineare Abbildung
R
2
→
R
2
;
(
a
1
a
2
)
↦
(
a
2
−
a
1
)
{\displaystyle \mathbb {R} ^{2}\to \mathbb {R} ^{2};\ {\begin{pmatrix}a_{1}\\a_{2}\end{pmatrix}}\mapsto {\begin{pmatrix}a_{2}\\-a_{1}\end{pmatrix}}}
,
die Rotation um 90° im Uhrzeigersinn.
Hieran ist auch zu erkennen, dass die Komponentenvektoren des Kreuzprodukts inklusive des Ergebnisvektors in dieser Reihenfolge – anders als aus dem
R
3
{\displaystyle \mathbb {R} ^{3}}
gewohnt – im Allgemeinen kein Rechtssystem bilden; diese entstehen nur in reellen Vektorräumen mit ungeradem
n
{\displaystyle n}
, bei geraden
n
{\displaystyle n}
bildet der Ergebnisvektor mit den Komponentenvektoren ein Linkssystem. Dies liegt wiederum daran, dass die Basis
(
a
→
1
,
a
→
2
,
…
,
a
→
n
−
1
,
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
)
{\displaystyle ({\vec {a}}_{1},{\vec {a}}_{2},\dotsc ,{\vec {a}}_{n-1},{\vec {a}}_{1}\times {\vec {a}}_{2}\times \dotsb \times {\vec {a}}_{n-1})}
in Räumen geradzahliger Dimension nicht dasselbe ist wie die Basis
(
a
→
1
×
a
→
2
×
⋯
×
a
→
n
−
1
,
a
→
1
,
a
→
2
,
…
,
a
→
n
−
1
)
{\displaystyle ({\vec {a}}_{1}\times {\vec {a}}_{2}\times \dotsb \times {\vec {a}}_{n-1},{\vec {a}}_{1},{\vec {a}}_{2},\dotsc ,{\vec {a}}_{n-1})}
, die per Definition (siehe oben) ein Rechtssystem ist. Zwar würde eine kleine Veränderung der Definition dazu führen, dass die Vektoren in der erstgenannten Reihenfolge im
R
n
{\displaystyle \mathbb {R} ^{n}}
stets ein Rechtssystem bilden, nämlich wenn in der symbolischen Determinante die Spalte der Einheitsvektoren ganz nach rechts gesetzt würde, diese Definition hat sich allerdings nicht durchgesetzt.
Eine noch weitergehende Verallgemeinerung führt auf die Graßmann-Algebren . Anwendung finden diese Algebren etwa in Formulierungen der Differentialgeometrie , welche die rigorose Beschreibung der klassischen Mechanik (Symplektische Mannigfaltigkeiten ), der Quantengeometrie sowie in allererster Linie der Allgemeinen Relativitätstheorie erlaubt. In der Literatur wird das Kreuzprodukt im höherdimensionalen und ggf. gekrümmten Raum meist indexweise mit Levi-Civita-Symbol ausgeschrieben.
Behandelt man Vektoren aus komplexen Vektorräumen, z. B. in
C
3
{\displaystyle \mathbb {C} ^{3}}
, muss das Kreuzprodukt entsprechend angepasst werden. Die konkrete Realisation hängt dabei von der gewählten Definition des komplexen Skalarprodukts ab. Wählt man das Standardskalarprodukt zweier Vektoren
x
,
y
∈
C
3
{\displaystyle x,y\in \mathbb {C} ^{3}}
, bei dem der erste Vektor als komplexe Konjugation eingeht:
⟨
x
→
,
y
→
⟩
:=
x
¯
1
y
1
+
x
¯
2
y
2
+
⋯
+
x
¯
n
y
n
=
∑
i
=
1
n
x
¯
i
y
i
=
x
→
H
y
→
{\displaystyle \langle {\vec {x}},{\vec {y}}\rangle :={\bar {x}}_{1}y_{1}+{\bar {x}}_{2}y_{2}+\dotsb +{\bar {x}}_{n}y_{n}=\sum _{i=1}^{n}{\bar {x}}_{i}y_{i}={\vec {x}}^{H}{\vec {y}}}
,
dann wird das Kreuzprodukt wie im
R
3
{\displaystyle \mathbb {R} ^{3}}
berechnet und das Ergebnis anschließend komplex konjugiert:
x
→
×
y
→
=
(
x
1
x
2
x
3
)
×
(
y
1
y
2
y
3
)
=
(
x
2
y
3
−
x
3
y
2
¯
x
3
y
1
−
x
1
y
3
¯
x
1
y
2
−
x
2
y
1
¯
)
.
{\displaystyle {\vec {x}}\times {\vec {y}}={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}\times {\begin{pmatrix}y_{1}\\y_{2}\\y_{3}\end{pmatrix}}={\begin{pmatrix}{\overline {x_{2}y_{3}-x_{3}y_{2}}}\\{\overline {x_{3}y_{1}-x_{1}y_{3}}}\\{\overline {x_{1}y_{2}-x_{2}y_{1}}}\end{pmatrix}}\,.}
Das Kreuzprodukt findet Anwendung in vielen Bereichen der Mathematik und Physik, unter anderem bei folgenden Themen:
↑ Max Päsler: Grundzüge der Vektor- und Tensorrechnung . Walter de Gruyter, 1977, ISBN 3-11-082794-8 , S. 33 .
↑ a b c d e Herbert Amann, Joachim Escher : Analysis. 2. Band 2. korrigierte Auflage. Birkhäuser-Verlag, Basel u. a. 2006, ISBN 3-7643-7105-6 (Grundstudium Mathematik ), S. 312–313
↑ Doppeltes Vektorprodukt (Vorlesungsskript Klassische und relativistische Mechanik, Othmar Marti , abgerufen am 2. Oktober 2020)