L'objectif est ici de retrouver quelques résultats des géométries sphérique, euclidienne et hyperbolique, et notamment les lois des cosinus et des sinus en conservant autant que faire se peut une écriture générale, à l'aide d'un unique paramètre représentant une courbure.
K
{\displaystyle \mathrm {K} }
-Quaternions
modifier
T
a
b
l
e
d
e
m
u
l
t
i
p
l
i
c
a
t
i
o
n
{\displaystyle \mathrm {Table\ de\ multiplication} }
d
e
s
K
−
q
u
a
t
e
r
n
i
o
n
s
{\displaystyle \mathrm {des\ } \mathrm {K} -\mathrm {quaternions} }
×
{\displaystyle \times }
1
{\displaystyle 1}
i
{\displaystyle i}
j
{\displaystyle j}
k
{\displaystyle k}
1
{\displaystyle 1}
1
{\displaystyle 1}
i
{\displaystyle i}
j
{\displaystyle j}
k
{\displaystyle k}
i
{\displaystyle i}
i
{\displaystyle i}
−
K
{\displaystyle -\mathrm {K} }
K
⋅
k
{\displaystyle \mathrm {K} \cdot k}
−
j
{\displaystyle -j}
j
{\displaystyle j}
j
{\displaystyle j}
−
K
⋅
k
{\displaystyle -\mathrm {K} \cdot k}
−
K
{\displaystyle -\mathrm {K} }
i
{\displaystyle i}
k
{\displaystyle k}
k
{\displaystyle k}
j
{\displaystyle j}
−
i
{\displaystyle -i}
−
1
{\displaystyle -1}
Soit
K
∈
R
{\displaystyle \mathrm {K} \in \mathbb {R} }
. On considère l'espace vectoriel
R
3
{\displaystyle \mathbb {R} ^{3}}
muni de la forme quadratique
Q
K
{\displaystyle Q_{\mathrm {K} }}
définie par :
Q
K
:
{
R
3
→
R
(
x
,
y
,
z
)
↦
K
⋅
x
2
+
K
⋅
y
2
+
z
2
{\displaystyle Q_{\mathrm {K} }:\left\{{\begin{array}{cl}\mathbb {R} ^{3}&\to &\mathbb {R} \\(x,y,z)&\mapsto &\mathrm {K} \cdot x^{2}+\mathrm {K} \cdot y^{2}+z^{2}\end{array}}\right.}
L'algèbre de Clifford associée est engendrée par les éléments
i
{\displaystyle i}
,
j
{\displaystyle j}
et
k
{\displaystyle k}
vérifiant la table de multiplication ci-contre. Cette algèbre sera appelée algèbre des
K
{\displaystyle \mathrm {K} }
-quaternions , et sera notée
H
K
{\displaystyle \mathbb {H} _{\mathrm {K} }}
.
Il existe une injection canonique de
R
3
{\displaystyle \mathbb {R} ^{3}}
dans
H
K
{\displaystyle \mathbb {H} _{\mathrm {K} }}
:
{
R
3
→
H
K
(
x
,
y
,
z
)
↦
x
⋅
i
+
y
⋅
j
+
z
⋅
k
{\displaystyle \left\{{\begin{array}{cl}\mathbb {R} ^{3}&\to &\mathbb {H} _{\mathrm {K} }\\(x,y,z)&\mapsto &x\cdot i+y\cdot j+z\cdot k\end{array}}\right.}
Par la suite, on considèrera
R
3
{\displaystyle \mathbb {R} ^{3}}
comme un simple sous-espace vectoriel de
H
K
{\displaystyle \mathbb {H} _{\mathrm {K} }}
. Aussi, on s'autorisera à ne pas écrire l'indice
K
{\displaystyle _{\mathrm {K} }}
en l'absence d'ambiguïté.
Parties scalaire et vectorielle
modifier
Tout élément de
H
K
{\displaystyle \mathbb {H} _{\mathrm {K} }}
peut s'écrire sous la forme :
q
=
t
+
x
⋅
i
+
y
⋅
j
+
z
⋅
k
{\displaystyle q=t+x\cdot i+y\cdot j+z\cdot k}
. Pour un tel
K
{\displaystyle \mathrm {K} }
-quaternion, on définit ses parties scalaire (ou partie réelle ) et vectorielle (ou partie imaginaire ), respectivement notées
Re
{\displaystyle \operatorname {Re} }
et
Im
{\displaystyle \operatorname {Im} }
:
Re
(
q
)
=
t
{\displaystyle \operatorname {Re} (q)=t}
Im
(
q
)
=
x
⋅
i
+
y
⋅
j
+
z
⋅
k
{\displaystyle \operatorname {Im} (q)=x\cdot i+y\cdot j+z\cdot k}
Propriétés de
Re
{\displaystyle \operatorname {Re} }
et
Im
{\displaystyle \operatorname {Im} }
Le conjugué de
q
{\displaystyle q}
est noté
q
∗
{\displaystyle q^{*}}
et est défini par :
q
∗
=
Re
(
q
)
−
Im
(
q
)
{\displaystyle q^{*}=\operatorname {Re} (q)-\operatorname {Im} (q)}
. On a :
(
q
0
⋅
q
1
)
∗
=
q
1
∗
⋅
q
0
∗
{\displaystyle (q_{0}\cdot q_{1})^{*}=q_{1}^{*}\cdot q_{0}^{*}}
.
Ainsi, un scalaire est son propre conjugué, quand un vecteur est l'opposé du sien.
Si
u
{\displaystyle u}
et
v
{\displaystyle v}
sont deux vecteurs, alors
v
u
=
(
u
v
)
∗
{\displaystyle vu=(uv)^{*}}
.
Démonstration
(
u
v
)
∗
=
v
∗
u
∗
=
(
−
v
)
(
−
u
)
=
v
u
{\displaystyle (uv)^{*}=v^{*}u^{*}=(-v)(-u)=vu}
Produits réel et imaginaire
modifier
On peut définir une forme bilinéaire symétrique, que nous appellerons produit réel :
{
R
3
×
R
3
→
R
(
u
,
v
)
↦
Re
(
v
u
∗
)
{\displaystyle \left\{{\begin{array}{cl}\mathbb {R} ^{3}\times \mathbb {R} ^{3}&\to &\mathbb {R} \\(u,v)&\mapsto &\operatorname {Re} (vu^{*})\end{array}}\right.}
Le produit réel est analogue au produit scalaire , mais il n'en est un que si
K
>
0
{\displaystyle \mathrm {K} >0}
(dans le cas général le produit réel n'est pas défini positif).
En particulier, pour tout vecteur
v
∈
R
3
{\displaystyle v\in \mathbb {R} ^{3}}
,
Q
(
v
)
=
Re
(
v
v
∗
)
=
v
v
∗
{\displaystyle \ Q(v)=\operatorname {Re} (vv^{*})=vv^{*}}
.
Nous pouvons de même définir un produit bilinéaire antisymétrique que nous appellerons produit imaginaire :
{
R
3
×
R
3
→
R
3
(
u
,
v
)
↦
Im
(
v
u
∗
)
{\displaystyle \left\{{\begin{array}{cl}\mathbb {R} ^{3}\times \mathbb {R} ^{3}&\to &\mathbb {R} ^{3}\\(u,v)&\mapsto &\operatorname {Im} (vu^{*})\end{array}}\right.}
Le produit imaginaire est analogue au produit vectoriel . Il est d'ailleurs identique au produit vectoriel classique dans le cas où
K
=
1
{\displaystyle \mathrm {K} =1}
.
Pour tout
u
∈
R
3
{\displaystyle u\in \mathbb {R} ^{3}}
, notons
C
o
l
(
u
)
{\displaystyle \mathrm {Col} (u)}
l'ensemble des vecteurs colinéaires à
u
{\displaystyle u}
, c'est-à-dire :
{
v
∈
R
3
|
∃
(
λ
,
μ
)
∈
R
2
∖
{
0
}
,
λ
u
+
μ
v
=
0
}
{\displaystyle {\big \{}v\in \mathbb {R} ^{3}\ |\ \exists \ (\lambda ,\mu )\in \mathbb {R} ^{2}\setminus \{0\},\ \lambda u+\mu v=0{\big \}}}
.
Propriété : Pour tout
K
{\displaystyle \mathrm {K} }
non-nul, deux vecteurs sont colinéaires si et seulement leur produit imaginaire est nul.
Démonstration
(
⟹
{\displaystyle \Longrightarrow }
)
Soient
u
{\displaystyle u}
et
v
{\displaystyle v}
deux vecteurs colinéaires, et soient
(
λ
,
μ
)
∈
R
2
∖
{
0
}
{\displaystyle (\lambda ,\mu )\in \mathbb {R} ^{2}\setminus \{0\}}
tels que
λ
u
+
μ
v
=
0
{\displaystyle \lambda u+\mu v=0}
.
Si
u
=
0
{\displaystyle u=0}
, alors
Im
(
v
u
∗
)
=
Im
(
0
)
=
0
{\displaystyle \operatorname {Im} (vu^{*})=\operatorname {Im} (0)=0}
.
De même si
v
=
0
{\displaystyle v=0}
.
Si
u
{\displaystyle u}
et
v
{\displaystyle v}
sont non-nuls, alors, comme
(
λ
,
μ
)
≠
(
0
,
0
)
{\displaystyle (\lambda ,\mu )\neq (0,0)}
,
λ
≠
0
{\displaystyle \lambda \neq 0}
.
Nous pouvons donc écrire :
Im
(
v
u
∗
)
=
−
μ
λ
Im
(
v
v
∗
)
=
−
μ
λ
⋅
0
=
0
{\displaystyle \operatorname {Im} (vu^{*})=-{\frac {\mu }{\lambda }}\operatorname {Im} (vv^{*})=-{\frac {\mu }{\lambda }}\cdot 0=0}
(
⟸
{\displaystyle \Longleftarrow }
)
Soient
u
{\displaystyle u}
et
v
{\displaystyle v}
deux vecteurs de produit imaginaire nul.
Si
u
=
0
{\displaystyle u=0}
, alors
u
=
0
v
{\displaystyle u=0v}
donc
u
{\displaystyle u}
et
v
{\displaystyle v}
sont colinéaires.
De même si
v
=
0
{\displaystyle v=0}
.
Sinon, alors
u
{\displaystyle u}
et
v
{\displaystyle v}
sont non-nuls, posons :
u
=
x
0
i
+
y
0
j
+
z
0
k
v
=
x
1
i
+
y
1
j
+
z
1
k
{\displaystyle {\begin{aligned}u&=x_{0}i+y_{0}j+z_{0}k\\v&=x_{1}i+y_{1}j+z_{1}k\end{aligned}}}
Alors :
Im
(
v
u
∗
)
=
(
y
0
z
1
−
z
0
y
1
)
⋅
i
+
(
z
0
x
1
−
x
0
z
1
)
⋅
j
+
K
⋅
(
x
0
y
1
−
y
0
x
1
)
⋅
k
{\displaystyle \operatorname {Im} (vu^{*})=(y_{0}z_{1}-z_{0}y_{1})\cdot i+(z_{0}x_{1}-x_{0}z_{1})\cdot j+\mathrm {K} \cdot (x_{0}y_{1}-y_{0}x_{1})\cdot k}
.
On a :
Im
(
v
u
∗
)
=
0
⟹
(
y
0
z
1
−
z
0
y
1
)
⋅
i
+
(
z
0
x
1
−
x
0
z
1
)
⋅
j
+
K
⋅
(
x
0
y
1
−
y
0
x
1
)
⋅
k
=
0
⟹
(
y
0
z
1
−
z
0
y
1
=
0
)
∧
(
z
0
x
1
−
x
0
z
1
=
0
)
∧
(
K
⋅
(
x
0
y
1
−
y
0
x
1
)
=
0
)
⟹
(
y
0
z
1
−
z
0
y
1
=
0
)
∧
(
z
0
x
1
−
x
0
z
1
=
0
)
∧
(
x
0
y
1
−
y
0
x
1
=
0
)
{\displaystyle {\begin{aligned}&\operatorname {Im} (vu^{*})=0\\\Longrightarrow \ &(y_{0}z_{1}-z_{0}y_{1})\cdot i+(z_{0}x_{1}-x_{0}z_{1})\cdot j+\mathrm {K} \cdot (x_{0}y_{1}-y_{0}x_{1})\cdot k=0\\\Longrightarrow \ &(y_{0}z_{1}-z_{0}y_{1}=0)\ \land \ (z_{0}x_{1}-x_{0}z_{1}=0)\ \land \ {\big (}\mathrm {K} \cdot (x_{0}y_{1}-y_{0}x_{1})=0{\big )}\\\Longrightarrow \ &(y_{0}z_{1}-z_{0}y_{1}=0)\ \land \ (z_{0}x_{1}-x_{0}z_{1}=0)\ \land \ (x_{0}y_{1}-y_{0}x_{1}=0)\\\end{aligned}}}
Comme
u
≠
0
{\displaystyle u\neq 0}
, l'un au moins de ces trois cas est vrai :
x
0
≠
0
{\displaystyle x_{0}\neq 0}
.
Posons
λ
=
x
1
x
0
{\displaystyle \lambda ={\frac {x_{1}}{x_{0}}}}
. Alors :
x
1
=
λ
x
0
{\displaystyle x_{1}=\lambda x_{0}}
(
x
0
y
1
−
y
0
x
1
=
0
)
⟹
(
(
y
1
−
λ
y
0
)
⋅
x
0
=
0
)
⟹
(
y
1
=
λ
y
0
)
{\displaystyle (x_{0}y_{1}-y_{0}x_{1}=0)\Longrightarrow {\big (}(y_{1}-\lambda y_{0})\cdot x_{0}=0{\big )}\Longrightarrow (y_{1}=\lambda y_{0})}
(
z
0
x
1
−
x
0
z
1
=
0
)
⟹
(
(
λ
z
0
−
z
1
)
⋅
x
0
=
0
)
⟹
(
z
1
=
λ
z
0
)
{\displaystyle (z_{0}x_{1}-x_{0}z_{1}=0)\Longrightarrow {\big (}(\lambda z_{0}-z_{1})\cdot x_{0}=0{\big )}\Longrightarrow (z_{1}=\lambda z_{0})}
Donc
v
=
λ
u
{\displaystyle v=\lambda u}
.
y
0
≠
0
{\displaystyle y_{0}\neq 0}
.
Posons
λ
=
y
1
y
0
{\displaystyle \lambda ={\frac {y_{1}}{y_{0}}}}
. Alors :
y
1
=
λ
y
0
{\displaystyle y_{1}=\lambda y_{0}}
(
y
0
z
1
−
z
0
y
1
=
0
)
⟹
(
(
z
1
−
λ
z
0
)
⋅
y
0
=
0
)
⟹
(
z
1
=
λ
z
0
)
{\displaystyle (y_{0}z_{1}-z_{0}y_{1}=0)\Longrightarrow {\big (}(z_{1}-\lambda z_{0})\cdot y_{0}=0{\big )}\Longrightarrow (z_{1}=\lambda z_{0})}
(
x
0
y
1
−
y
0
x
1
=
0
)
⟹
(
(
λ
x
0
−
x
1
)
⋅
y
0
=
0
)
⟹
(
x
1
=
λ
x
0
)
{\displaystyle (x_{0}y_{1}-y_{0}x_{1}=0)\Longrightarrow {\big (}(\lambda x_{0}-x_{1})\cdot y_{0}=0{\big )}\Longrightarrow (x_{1}=\lambda x_{0})}
Donc
v
=
λ
u
{\displaystyle v=\lambda u}
.
z
0
≠
0
{\displaystyle z_{0}\neq 0}
.
Posons
λ
=
z
1
z
0
{\displaystyle \lambda ={\frac {z_{1}}{z_{0}}}}
. Alors :
z
1
=
λ
z
0
{\displaystyle z_{1}=\lambda z_{0}}
(
z
0
x
1
−
x
0
z
1
=
0
)
⟹
(
(
x
1
−
λ
x
0
)
⋅
z
0
=
0
)
⟹
(
x
1
=
λ
x
0
)
{\displaystyle (z_{0}x_{1}-x_{0}z_{1}=0)\Longrightarrow {\big (}(x_{1}-\lambda x_{0})\cdot z_{0}=0{\big )}\Longrightarrow (x_{1}=\lambda x_{0})}
(
y
0
z
1
−
z
0
y
1
=
0
)
⟹
(
(
λ
y
0
−
y
1
)
⋅
z
0
=
0
)
⟹
(
y
1
=
λ
y
0
)
{\displaystyle (y_{0}z_{1}-z_{0}y_{1}=0)\Longrightarrow {\big (}(\lambda y_{0}-y_{1})\cdot z_{0}=0{\big )}\Longrightarrow (y_{1}=\lambda y_{0})}
Donc
v
=
λ
u
{\displaystyle v=\lambda u}
.
Remarque : le résultat ne s'applique pas si
K
=
0
{\displaystyle \mathrm {K} =0}
.
Un
K
{\displaystyle \mathrm {K} }
-quaternion
q
{\displaystyle q}
est dit inversible si et seulement s'il existe un
K
{\displaystyle \mathrm {K} }
-quaternion, noté
q
−
1
{\displaystyle q^{-1}}
, tel que
q
q
−
1
=
q
−
1
q
=
1
{\displaystyle qq^{-1}=q^{-1}q=1}
.
L'inverse est unique s'il existe.
Tout élément
q
∈
H
K
{\displaystyle q\in \mathbb {H} _{\mathrm {K} }}
est inversible si et seulement si
q
q
∗
≠
0
{\displaystyle qq^{*}\neq 0}
, auquel cas
q
−
1
=
1
q
q
∗
⋅
q
∗
{\displaystyle q^{-1}={\frac {1}{qq^{*}}}\cdot q^{*}}
.
Démonstration
Montrons que si
q
q
∗
=
0
{\displaystyle qq^{*}=0}
, alors
q
{\displaystyle q}
n'est pas inversible.
Par l'absurde, supposons
q
′
∈
H
K
{\displaystyle q'\in \mathbb {H} _{\mathrm {K} }}
tel que
q
q
′
=
1
{\displaystyle qq'=1}
.
Posons :
t
=
Re
(
q
)
{\displaystyle t=\operatorname {Re} (q)}
,
v
=
Im
(
q
)
{\displaystyle v=\operatorname {Im} (q)}
,
t
′
=
Re
(
q
′
)
{\displaystyle t'=\operatorname {Re} (q')}
et
v
′
=
Im
(
q
′
)
{\displaystyle v'=\operatorname {Im} (q')}
.
Comme
q
q
∗
=
0
{\displaystyle qq^{*}=0}
, on a
t
2
=
v
2
=
−
v
v
∗
{\displaystyle t^{2}=v^{2}=-vv^{*}}
.
Comme
q
q
′
=
1
=
t
t
′
+
v
v
′
+
t
v
′
+
t
′
v
{\displaystyle qq'=1=tt'+vv'+tv'+t'v}
, on a
t
t
′
+
Re
(
v
v
′
)
=
1
{\displaystyle tt'+\operatorname {Re} (vv')=1}
.
q
q
′
=
1
{\displaystyle qq'=1}
donc, en particulier,
q
q
′
q
=
q
{\displaystyle qq'q=q}
. En développant :
q
q
′
q
=
(
t
+
v
)
(
t
′
+
v
′
)
(
t
+
v
)
=
(
t
t
′
+
v
v
′
+
t
v
′
+
t
′
v
)
(
t
+
v
)
=
t
2
t
′
+
t
v
v
′
+
t
2
v
′
+
t
t
′
v
+
t
t
′
v
+
v
v
′
v
+
t
v
′
v
+
t
′
v
2
=
t
2
(
t
′
+
v
′
)
+
2
t
Re
(
v
v
′
)
+
2
t
t
′
v
+
(
v
v
∗
)
v
′
+
t
′
(
t
2
)
=
t
2
(
2
t
′
+
v
′
)
+
2
t
Re
(
v
v
′
)
+
2
t
t
′
v
−
t
2
v
′
=
t
2
(
2
t
′
)
+
2
t
Re
(
v
v
′
)
+
2
t
t
′
v
=
2
t
(
t
t
′
+
Re
(
v
v
′
)
+
t
′
v
)
=
2
t
(
1
+
t
′
v
)
{\displaystyle {\begin{aligned}qq'q&=(t+v)(t'+v')(t+v)\\&=(tt'+vv'+tv'+t'v)(t+v)\\&=t^{2}t'+tvv'+t^{2}v'+tt'v+tt'v+vv'v+tv'v+t'v^{2}\\&=t^{2}(t'+v')+2t\operatorname {Re} (vv')+2tt'v+(vv^{*})v'+t'(t^{2})\\&=t^{2}(2t'+v')+2t\operatorname {Re} (vv')+2tt'v-t^{2}v'\\&=t^{2}(2t')+2t\operatorname {Re} (vv')+2tt'v\\&=2t{\Big (}tt'+\operatorname {Re} (vv')+t'v{\Big )}\\&=2t(1+t'v)\\\end{aligned}}}
Donc
q
q
′
q
=
2
t
(
1
+
t
′
v
)
=
t
+
v
=
q
{\displaystyle qq'q=2t(1+t'v)=t+v=q}
, en particulier
2
t
=
t
{\displaystyle 2t=t}
(c'est-à-dire
t
=
0
{\displaystyle t=0}
) et
v
=
2
t
t
′
v
=
0
{\displaystyle v=2tt'v=0}
.
q
{\displaystyle q}
vaudrait donc nécessairement
0
{\displaystyle 0}
, qui n'est pas inversible. Il est donc impossible d'inverser
q
{\displaystyle q}
.
Un
K
{\displaystyle \mathrm {K} }
-quaternion
q
{\displaystyle q}
est dit unitaire si et seulement s'il vérifie :
q
q
∗
=
1
{\displaystyle qq^{*}=1}
, c'est-à-dire
q
−
1
=
q
∗
{\displaystyle q^{-1}=q^{*}}
.
Exponentielle sur
H
K
{\displaystyle \mathbb {H} _{\mathrm {K} }}
modifier
On définit la fonction exponentielle classiquement :
∀
q
∈
H
K
,
e
q
=
∑
n
=
0
∞
q
n
n
!
{\displaystyle \forall \ q\in \mathbb {H} _{\mathrm {K} },\ e^{q}=\sum _{n=0}^{\infty }{\frac {q^{n}}{n!}}}
Fonctions trigonométriques et identité d'Euler
modifier
∀
u
∈
R
3
,
∀
λ
∈
R
,
{\displaystyle \forall \ u\in \mathbb {R} ^{3},\ \forall \ \lambda \in \mathbb {R} ,}
e
λ
u
=
∑
n
=
0
∞
(
λ
u
)
n
n
!
=
∑
p
=
0
∞
(
λ
u
)
2
p
(
2
p
)
!
+
∑
p
=
0
∞
(
λ
u
)
2
p
+
1
(
2
p
+
1
)
!
=
∑
p
=
0
∞
(
−
u
u
∗
)
p
(
2
p
)
!
⋅
λ
2
p
+
∑
p
=
0
∞
(
−
u
u
∗
)
p
(
2
p
+
1
)
!
⋅
λ
2
p
+
1
⋅
u
{\displaystyle {\begin{aligned}e^{\lambda u}&=\sum _{n=0}^{\infty }{\frac {(\lambda u)^{n}}{n!}}\\&=\sum _{p=0}^{\infty }{\frac {(\lambda u)^{2p}}{(2p)!}}+\sum _{p=0}^{\infty }{\frac {(\lambda u)^{2p+1}}{(2p+1)!}}\\&=\sum _{p=0}^{\infty }{\frac {(-uu^{*})^{p}}{(2p)!}}\cdot \lambda ^{2p}+\sum _{p=0}^{\infty }{\frac {(-uu^{*})^{p}}{(2p+1)!}}\cdot \lambda ^{2p+1}\cdot u\end{aligned}}}
On définit ainsi les fonctions :
cos
u
u
∗
:
{
R
→
R
λ
↦
Re
(
e
λ
u
)
=
e
λ
u
+
e
−
λ
u
2
{\displaystyle \cos _{uu^{*}}:\left\{{\begin{array}{cl}\mathbb {R} &\to &\mathbb {R} \\\lambda &\mapsto &\operatorname {Re} (e^{\lambda u})&=&{\frac {e^{\lambda u}+e^{-\lambda u}}{2}}\end{array}}\right.}
sin
u
u
∗
:
{
R
→
R
λ
↦
Im
(
e
λ
u
)
⋅
u
∗
u
u
∗
=
e
λ
u
−
e
−
λ
u
2
u
{\displaystyle \sin _{uu^{*}}:\left\{{\begin{array}{cl}\mathbb {R} &\to &\mathbb {R} \\\lambda &\mapsto &\operatorname {Im} (e^{\lambda u})\cdot {\frac {u^{*}}{uu^{*}}}&=&{\frac {e^{\lambda u}-e^{-\lambda u}}{2u}}\end{array}}\right.}
On obtient alors, par définition, l'identité d'Euler suivante :
∀
u
∈
R
3
,
∀
λ
∈
R
,
{\displaystyle \forall \ u\in \mathbb {R} ^{3},\ \forall \ \lambda \in \mathbb {R} ,}
e
λ
u
=
cos
u
u
∗
λ
+
sin
u
u
∗
λ
⋅
u
{\displaystyle e^{\lambda u}=\cos _{uu^{*}}\lambda +\sin _{uu^{*}}\lambda \cdot u}
Propriétés des fonctions trigonométriques
modifier
Les définitions de
cos
u
u
∗
{\displaystyle \cos _{uu^{*}}}
et
sin
u
u
∗
{\displaystyle \sin _{uu^{*}}}
ne dépendent que de la valeur de
κ
=
u
u
∗
{\displaystyle \kappa =uu^{*}}
, ce qui justifie la notation.
cos
κ
{\displaystyle \cos _{\kappa }}
est une fonction paire et
sin
κ
{\displaystyle \sin _{\kappa }}
est une fonction impaire.
cos
1
=
cos
,
sin
1
=
sin
cos
−
1
=
cosh
,
sin
−
1
=
sinh
cos
0
=
1
,
sin
0
=
i
d
{\displaystyle {\begin{array}{cl}&\quad &\cos _{1}&=&\cos ,&\sin _{1}&=&\sin \\&\quad &\cos _{-1}&=&\cosh ,&\sin _{-1}&=&\sinh \\&\quad &\cos _{0}&=&1,&\sin _{0}&=&\mathrm {id} \end{array}}}
Bien que ce ne soit pas nécessaire, il peut être plus commode – notamment pour retrouver les formules de trigonométrie (voir ci-dessous) – d'exprimer
cos
κ
{\displaystyle \cos _{\kappa }}
et
sin
κ
{\displaystyle \sin _{\kappa }}
à partir des fonctions classiques de trigonométrie.
Ainsi, pour
κ
∈
R
{\displaystyle \kappa \in \mathbb {R} }
, prenons
r
{\displaystyle r}
un point de la sphère de Riemann tel que
κ
=
1
r
2
{\displaystyle \kappa ={\frac {1}{r^{2}}}}
.
r
{\displaystyle r}
peut-être un réel (si
κ
>
0
{\displaystyle \kappa >0}
), un imaginaire pur (
κ
<
0
{\displaystyle \kappa <0}
), ou le point à l'infini (
κ
=
0
{\displaystyle \kappa =0}
).
On obtient alors les expressions suivantes :
cos
κ
(
x
)
=
cos
(
x
/
r
)
sin
κ
(
x
)
=
r
⋅
sin
(
x
/
r
)
{\displaystyle {\begin{aligned}\cos _{\kappa }(x)&=\cos(x/r)\\\\\sin _{\kappa }(x)&=r\cdot \sin(x/r)\end{aligned}}}
Formulaire de trigonométrie
Deux vecteurs
u
{\displaystyle u}
et
v
{\displaystyle v}
de
R
3
{\displaystyle \mathbb {R} ^{3}}
sont dits orthogonaux si et seulement si leur produit réel est nul.
Orthogonalité du produit imaginaire
modifier
Pour tous vecteurs
u
{\displaystyle u}
et
v
{\displaystyle v}
,
Im
(
v
u
∗
)
{\displaystyle \operatorname {Im} (vu^{*})}
est orthogonal à
u
{\displaystyle u}
et
v
{\displaystyle v}
.
Orthogonalité à deux vecteurs
modifier
Soient
v
0
{\displaystyle v_{0}}
,
v
1
{\displaystyle v_{1}}
et
v
2
{\displaystyle v_{2}}
trois vecteurs, et supposons
K
≠
0
{\displaystyle \mathrm {K} \neq 0}
.
Alors :
v
2
{\displaystyle v_{2}}
est orthogonal à
v
0
{\displaystyle v_{0}}
et à
v
1
{\displaystyle v_{1}}
, si et seulement s'il est colinéaire au produit imaginaire de
v
0
{\displaystyle v_{0}}
et de
v
1
{\displaystyle v_{1}}
.
Remarque : le résultat ne s'applique pas si
K
=
0
{\displaystyle \mathrm {K} =0}
.
Propriétés diverses
modifier
Anticommutativité des vecteurs orthogonaux
modifier
∀
u
,
v
∈
R
3
,
{\displaystyle \forall \ u,\ v\in \mathbb {R} ^{3},}
u
v
=
−
v
u
⟺
Re
(
v
u
∗
)
=
0
{\displaystyle uv=-vu\iff \operatorname {Re} (vu^{*})=0}
Démonstration
u
v
=
Re
(
u
v
)
+
Im
(
u
v
)
{\displaystyle uv=\operatorname {Re} (uv)+\operatorname {Im} (uv)}
v
u
=
Re
(
v
u
)
+
Im
(
v
u
)
=
Re
(
u
v
)
−
Im
(
u
v
)
{\displaystyle {\begin{aligned}vu&=\operatorname {Re} (vu)+\operatorname {Im} (vu)\\&=\operatorname {Re} (uv)-\operatorname {Im} (uv)\end{aligned}}}
Donc
u
v
=
−
v
u
⟺
Re
(
v
u
∗
)
=
−
Re
(
u
v
)
=
0
{\displaystyle uv=-vu\iff \operatorname {Re} (vu^{*})=-\operatorname {Re} (uv)=0}
.
Si
u
{\displaystyle u}
et
v
{\displaystyle v}
sont deux vecteurs, alors
u
v
u
=
(
u
u
∗
)
⋅
v
{\displaystyle uvu=(uu^{*})\cdot v}
.
Démonstration
En utilisant les propriétés de symétrie et d'antisymétrie sus-mentionnées :
u
v
u
=
Re
(
u
v
u
)
+
Im
(
u
v
u
)
=
Re
(
u
2
v
)
−
Im
(
u
2
v
)
=
(
u
u
∗
)
(
−
Re
(
v
)
+
Im
(
v
)
)
=
(
u
u
∗
)
⋅
Im
(
v
)
=
(
u
u
∗
)
⋅
v
{\displaystyle {\begin{aligned}uvu&=\operatorname {Re} (uvu)+\operatorname {Im} (uvu)\\&=\operatorname {Re} (u^{2}v)-\operatorname {Im} (u^{2}v)\\&=(uu^{*}){\big (}-\operatorname {Re} (v)+\operatorname {Im} (v){\big )}\\&=(uu^{*})\cdot \operatorname {Im} (v)\\&=(uu^{*})\cdot v\\\end{aligned}}}
Produit d'un vecteur par un
K
{\displaystyle \mathrm {K} }
-quaternion unitaire
modifier
Propriété : deux vecteurs
u
{\displaystyle u}
et
v
{\displaystyle v}
sont colinéaires si et seulement si, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
e
λ
u
⋅
v
=
v
⋅
e
λ
u
{\displaystyle e^{\lambda u}\cdot v=v\cdot e^{\lambda u}}
.
Démonstration
∀
λ
∈
R
,
{\displaystyle \forall \ \lambda \in \mathbb {R} ,}
e
λ
u
⋅
v
=
(
cos
u
u
∗
λ
+
sin
u
u
∗
λ
⋅
u
)
⋅
v
=
cos
u
u
∗
λ
⋅
v
+
sin
u
u
∗
λ
⋅
u
v
{\displaystyle {\begin{aligned}e^{\lambda u}\cdot v&=(\cos _{uu^{*}}\lambda +\sin _{uu^{*}}\lambda \cdot u)\cdot v\\&=\cos _{uu^{*}}\lambda \cdot v+\sin _{uu^{*}}\lambda \cdot uv\end{aligned}}}
v
⋅
e
λ
u
=
v
⋅
(
cos
u
u
∗
λ
+
sin
u
u
∗
λ
⋅
u
)
=
cos
u
u
∗
λ
⋅
v
+
sin
u
u
∗
λ
⋅
v
u
{\displaystyle {\begin{aligned}v\cdot e^{\lambda u}&=v\cdot (\cos _{uu^{*}}\lambda +\sin _{uu^{*}}\lambda \cdot u)\\&=\cos _{uu^{*}}\lambda \cdot v+\sin _{uu^{*}}\lambda \cdot vu\end{aligned}}}
Donc
e
λ
u
⋅
v
=
v
⋅
e
λ
u
⟺
sin
u
u
∗
λ
⋅
(
u
v
−
v
u
)
=
2
sin
u
u
∗
λ
⋅
Im
(
u
v
)
=
0
{\displaystyle e^{\lambda u}\cdot v=v\cdot e^{\lambda u}\iff \sin _{uu^{*}}\lambda \cdot (uv-vu)=2\sin _{uu^{*}}\lambda \cdot \operatorname {Im} (uv)=0}
.
Or
sin
u
u
∗
≠
0
{\displaystyle \sin _{uu^{*}}\neq 0}
donc :
(
∀
λ
∈
R
,
e
λ
u
⋅
v
=
v
⋅
e
λ
u
)
⟺
Im
(
u
v
)
=
0
{\displaystyle {\big (}\forall \ \lambda \in \mathbb {R} ,\ e^{\lambda u}\cdot v=v\cdot e^{\lambda u}{\big )}\iff \operatorname {Im} (uv)=0}
,
ce qui termine la preuve.
Propriété : deux vecteurs
u
{\displaystyle u}
et
v
{\displaystyle v}
sont orthogonaux si et seulement si, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
e
λ
u
⋅
v
=
v
⋅
e
−
λ
u
{\displaystyle e^{\lambda u}\cdot v=v\cdot e^{-\lambda u}}
.
Démonstration
∀
λ
∈
R
,
{\displaystyle \forall \ \lambda \in \mathbb {R} ,}
e
λ
u
⋅
v
=
(
cos
u
u
∗
λ
+
sin
u
u
∗
λ
⋅
u
)
⋅
v
=
cos
u
u
∗
λ
⋅
v
+
sin
u
u
∗
λ
⋅
u
v
{\displaystyle {\begin{aligned}e^{\lambda u}\cdot v&=(\cos _{uu^{*}}\lambda +\sin _{uu^{*}}\lambda \cdot u)\cdot v\\&=\cos _{uu^{*}}\lambda \cdot v+\sin _{uu^{*}}\lambda \cdot uv\end{aligned}}}
v
⋅
e
−
λ
u
=
v
⋅
(
cos
u
u
∗
λ
−
sin
u
u
∗
λ
⋅
u
)
=
cos
u
u
∗
λ
⋅
v
−
sin
u
u
∗
λ
⋅
v
u
{\displaystyle {\begin{aligned}v\cdot e^{-\lambda u}&=v\cdot (\cos _{uu^{*}}\lambda -\sin _{uu^{*}}\lambda \cdot u)\\&=\cos _{uu^{*}}\lambda \cdot v-\sin _{uu^{*}}\lambda \cdot vu\end{aligned}}}
Donc
e
λ
u
⋅
v
=
v
⋅
e
−
λ
u
⟺
sin
u
u
∗
λ
⋅
(
u
v
+
v
u
)
=
2
sin
u
u
∗
λ
⋅
Re
(
u
v
)
=
0
{\displaystyle e^{\lambda u}\cdot v=v\cdot e^{-\lambda u}\iff \sin _{uu^{*}}\lambda \cdot (uv+vu)=2\sin _{uu^{*}}\lambda \cdot \operatorname {Re} (uv)=0}
.
Or
sin
u
u
∗
≠
0
{\displaystyle \sin _{uu^{*}}\neq 0}
donc :
(
∀
λ
∈
R
,
e
λ
u
⋅
v
=
v
⋅
e
−
λ
u
)
⟺
Re
(
u
v
)
=
0
{\displaystyle {\big (}\forall \ \lambda \in \mathbb {R} ,\ e^{\lambda u}\cdot v=v\cdot e^{-\lambda u}{\big )}\iff \operatorname {Re} (uv)=0}
,
ce qui termine la preuve.
Soit
u
∈
R
3
{\displaystyle u\in \mathbb {R} ^{3}}
un vecteur inversible.
Pour tout vecteur
v
∈
R
3
{\displaystyle v\in \mathbb {R} ^{3}}
, on a :
v
u
∗
=
Re
(
v
u
∗
)
+
Im
(
v
u
∗
)
{\displaystyle vu^{*}=\operatorname {Re} (vu^{*})+\operatorname {Im} (vu^{*})}
Comme
u
∗
{\displaystyle u^{*}}
est inversible, on peut écrire :
v
=
Re
(
v
u
∗
)
⋅
(
u
∗
)
−
1
+
Im
(
v
u
∗
)
⋅
(
u
∗
)
−
1
{\displaystyle v=\operatorname {Re} (vu^{*})\cdot (u^{*})^{-1}+\operatorname {Im} (vu^{*})\cdot (u^{*})^{-1}}
En posant
v
∥
=
Re
(
v
u
∗
)
⋅
(
u
∗
)
−
1
{\displaystyle v_{\parallel }=\operatorname {Re} (vu^{*})\cdot (u^{*})^{-1}}
et
v
⊥
=
Im
(
v
u
∗
)
⋅
(
u
∗
)
−
1
{\displaystyle v_{\perp }=\operatorname {Im} (vu^{*})\cdot (u^{*})^{-1}}
, on a :
v
∥
{\displaystyle v_{\parallel }}
est colinéaire à
u
{\displaystyle u}
;
v
⊥
{\displaystyle v_{\perp }}
est orthogonal à
u
{\displaystyle u}
;
donc
v
∥
{\displaystyle v_{\parallel }}
est orthogonal à
v
⊥
{\displaystyle v_{\perp }}
.
Un
K
{\displaystyle \mathrm {K} }
-quaternion
q
{\displaystyle q}
est dit polarisable s'il existe
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
, tel que
q
=
e
λ
Im
(
q
)
{\displaystyle q=e^{\lambda \operatorname {Im} (q)}}
.
Premier théorème de polarisation
modifier
∀
q
∈
H
K
,
{\displaystyle \forall \ q\in \mathbb {H} _{\mathrm {K} },}
(
∃
λ
∈
R
,
q
=
e
λ
Im
(
q
)
)
⟺
(
(
q
q
∗
=
1
)
∧
(
Re
(
q
)
>
−
1
)
)
{\displaystyle {\Big (}\exists \ \lambda \in \mathbb {R} ,\ \ q=e^{\lambda \operatorname {Im} (q)}{\Big )}\iff {\Big (}{\big (}qq^{*}=1{\big )}\ \land \ {\big (}\operatorname {Re} (q)>-1{\big )}{\Big )}}
Démonstration
Posons
t
=
Re
(
q
)
{\displaystyle t=\operatorname {Re} (q)}
et
v
=
Im
(
q
)
{\displaystyle v=\operatorname {Im} (q)}
.
Posons également
κ
=
v
v
∗
{\displaystyle \kappa =vv^{*}}
.
Par unitarité de
q
{\displaystyle q}
, on a :
t
2
+
v
v
∗
=
t
2
+
κ
=
1
{\displaystyle t^{2}+vv^{*}=t^{2}+\kappa =1}
, c'est-à-dire
t
2
=
1
+
v
2
=
1
−
v
v
∗
=
1
−
κ
{\displaystyle t^{2}=1+v^{2}=1-vv^{*}=1-\kappa }
, ou
κ
=
1
−
t
2
≤
1
{\displaystyle \kappa =1-t^{2}\leq 1}
Preuve par disjonction de cas.
Si
κ
>
0
{\displaystyle \kappa >0}
(
0
<
κ
≤
1
{\displaystyle 0<\kappa \leq 1}
) :
Comme écrit précédemment,
t
2
=
1
−
κ
{\displaystyle t^{2}=1-\kappa }
, donc
|
t
|
=
1
−
κ
<
1
{\displaystyle |t|={\sqrt {1-\kappa }}<1}
. En particulier,
t
>
−
1
{\displaystyle t>-1}
.
Soit
r
=
1
κ
∈
R
+
{\displaystyle r={\frac {1}{\sqrt {\kappa }}}\in \mathbb {R} _{+}}
c'est-à-dire tel que
κ
=
1
r
2
{\displaystyle \kappa ={\frac {1}{r^{2}}}}
.
D'après ce qui précède,
(
t
)
2
+
(
1
r
)
2
=
1
{\displaystyle (t)^{2}+{\bigg (}{\frac {1}{r}}{\bigg )}^{2}=1}
, donc il existe
θ
∈
R
{\displaystyle \theta \in \mathbb {R} }
tel que :
cos
θ
=
t
{\displaystyle \cos \theta =t}
sin
θ
=
1
r
{\displaystyle \sin \theta ={\frac {1}{r}}}
Posons
λ
=
r
θ
∈
R
{\displaystyle \lambda =r\theta \in \mathbb {R} }
, nous pouvons alors réécrire les égalités précédentes :
cos
κ
λ
=
t
{\displaystyle \cos _{\kappa }\lambda =t}
sin
κ
λ
=
1
{\displaystyle \sin _{\kappa }\lambda =1}
Mais encore :
q
=
t
+
v
=
cos
v
v
∗
λ
+
sin
v
v
∗
λ
⋅
v
=
e
λ
v
{\displaystyle q=t+v=\cos _{vv^{*}}\lambda +\sin _{vv^{*}}\lambda \cdot v=e^{\lambda v}}
Si
κ
=
0
{\displaystyle \kappa =0}
:
Alors
t
2
=
1
{\displaystyle t^{2}=1}
. Or, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
cos
0
λ
=
1
{\displaystyle \cos _{0}\lambda =1}
.
Il n'y a donc pas de solution possible si
t
=
−
1
{\displaystyle t=-1}
. En revanche, si
t
=
1
{\displaystyle t=1}
(et donc,
t
>
−
1
{\displaystyle t>-1}
), alors :
q
=
1
+
v
=
cos
0
1
+
sin
0
1
⋅
v
=
cos
v
v
∗
1
+
sin
v
v
∗
1
⋅
v
=
e
v
{\displaystyle q=1+v=\cos _{0}1+\sin _{0}1\cdot v=\cos _{vv^{*}}1+\sin _{vv^{*}}1\cdot v=e^{v}}
Si
κ
<
0
{\displaystyle \kappa <0}
:
Comme écrit précédemment,
t
2
=
1
−
κ
{\displaystyle t^{2}=1-\kappa }
, donc
|
t
|
=
1
−
κ
>
1
{\displaystyle |t|={\sqrt {1-\kappa }}>1}
. Or
cosh
≥
1
{\displaystyle \cosh \geq 1}
donc
cos
κ
≥
1
{\displaystyle \cos _{\kappa }\geq 1}
.
Il n'y a donc pas de solution possible si
t
<
−
1
{\displaystyle t<-1}
.
En revanche, si
t
>
1
{\displaystyle t>1}
(et donc,
t
>
−
1
{\displaystyle t>-1}
), posons
r
=
1
−
κ
∈
R
+
{\displaystyle r={\frac {1}{\sqrt {-\kappa }}}\in \mathbb {R} _{+}}
c'est-à-dire tel que
κ
=
−
1
r
2
{\displaystyle \kappa =-{\frac {1}{r^{2}}}}
.
D'après ce qui précède,
(
t
)
2
−
(
1
r
)
2
=
1
{\displaystyle (t)^{2}-{\bigg (}{\frac {1}{r}}{\bigg )}^{2}=1}
et comme
t
>
1
{\displaystyle t>1}
, il existe
x
∈
R
{\displaystyle x\in \mathbb {R} }
tel que :
cosh
x
=
t
{\displaystyle \cosh x=t}
sinh
x
=
1
r
{\displaystyle \sinh x={\frac {1}{r}}}
Posons
λ
=
r
x
∈
R
{\displaystyle \lambda =rx\in \mathbb {R} }
, nous pouvons alors réécrire les égalités précédentes :
cos
κ
λ
=
t
{\displaystyle \cos _{\kappa }\lambda =t}
sin
κ
λ
=
1
{\displaystyle \sin _{\kappa }\lambda =1}
Mais encore :
q
=
t
+
v
=
cos
v
v
∗
λ
+
sin
v
v
∗
λ
⋅
v
=
e
λ
v
{\displaystyle q=t+v=\cos _{vv^{*}}\lambda +\sin _{vv^{*}}\lambda \cdot v=e^{\lambda v}}
Nous venons donc de prouver :
(
q
q
∗
=
1
)
∧
(
Re
(
q
)
>
−
1
)
⟹
(
∃
λ
∈
R
,
q
=
e
λ
Im
(
q
)
)
{\displaystyle (qq^{*}=1)\ \land \ {\big (}\operatorname {Re} (q)>-1{\big )}\Longrightarrow {\Big (}\exists \ \lambda \in \mathbb {R} ,\ \ q=e^{\lambda \operatorname {Im} (q)}{\Big )}}
.
La réciproque est facile, et procède de même par disjonction de cas pour montrer que :
(
∃
λ
∈
R
,
q
=
e
λ
Im
(
q
)
)
⟹
(
Re
(
q
)
>
−
1
)
{\displaystyle {\Big (}\exists \ \lambda \in \mathbb {R} ,\ \ q=e^{\lambda \operatorname {Im} (q)}{\Big )}\Longrightarrow {\big (}\operatorname {Re} (q)>-1{\big )}}
.
Si deux vecteurs
u
,
v
∈
R
3
{\displaystyle u,\ v\in \mathbb {R} ^{3}}
sont tels que
(
u
u
∗
)
(
v
v
∗
)
>
0
{\displaystyle (uu^{*})(vv^{*})>0}
et tels que
v
u
∗
(
u
u
∗
)
(
v
v
∗
)
{\displaystyle {\frac {vu^{*}}{\sqrt {(uu^{*})(vv^{*})}}}}
est de partie réelle strictement supérieure à
−
1
{\displaystyle -1}
, alors il existe
ω
∈
R
3
{\displaystyle \omega \in \mathbb {R} ^{3}}
tel que :
v
u
∗
=
(
u
u
∗
)
(
v
v
∗
)
⋅
e
ω
{\displaystyle vu^{*}={\sqrt {(uu^{*})(vv^{*})}}\cdot e^{\omega }}
On obtient aussi les expressions suivantes :
Re
(
v
u
∗
)
=
(
u
u
∗
)
(
v
v
∗
)
⋅
cos
ω
ω
∗
1
{\displaystyle \operatorname {Re} (vu^{*})={\sqrt {(uu^{*})(vv^{*})}}\cdot \cos _{\omega \omega ^{*}}1}
Im
(
v
u
∗
)
=
(
u
u
∗
)
(
v
v
∗
)
⋅
sin
ω
ω
∗
1
⋅
ω
{\displaystyle \operatorname {Im} (vu^{*})={\sqrt {(uu^{*})(vv^{*})}}\cdot \sin _{\omega \omega ^{*}}1\cdot \omega }
Second théorème de polarisation
modifier
Soient
M
0
,
M
1
∈
R
3
{\displaystyle M_{0},\ M_{1}\in \mathbb {R} ^{3}}
deux vecteurs unitaires, et posons :
z
0
=
Re
(
M
0
k
∗
)
{\displaystyle z_{0}=\operatorname {Re} (M_{0}k^{*})}
et
z
1
=
Re
(
M
1
k
∗
)
{\displaystyle z_{1}=\operatorname {Re} (M_{1}k^{*})}
.
On a alors :
(
∃
m
∈
R
3
,
m
⊥
M
0
,
m
⊥
M
1
,
M
1
M
0
∗
=
e
m
)
⟺
(
(
K
>
0
)
∨
(
z
0
z
1
≥
0
)
)
{\displaystyle {\big (}\exists \ m\in \mathbb {R} ^{3},\ m\perp M_{0},\ m\perp M_{1},\ M_{1}M_{0}^{*}=e^{m}{\big )}\iff {\big (}(\mathrm {K} >0)\ \lor \ (z_{0}z_{1}\geq 0){\big )}}
.
Démonstration
Premier cas :
M
0
=
M
1
{\displaystyle M_{0}=M_{1}}
Alors
z
0
z
1
=
z
0
2
≥
0
{\displaystyle z_{0}z_{1}=z_{0}^{2}\geq 0}
et
m
=
0
{\displaystyle m=0}
convient, donc le théorème est vérifié.
Deuxième cas :
M
0
=
−
M
1
{\displaystyle M_{0}=-M_{1}}
(
⟸
{\displaystyle \Longleftarrow }
)
K
>
0
{\displaystyle \mathrm {K} >0}
, montrons qu'il existe
m
∈
R
3
{\displaystyle m\in \mathbb {R} ^{3}}
, non-nul et orthogonal à
M
0
{\displaystyle M_{0}}
(et donc, à
M
1
{\displaystyle M_{1}}
).
Si
M
0
{\displaystyle M_{0}}
est colinéaire à
k
{\displaystyle k}
, alors
m
=
i
{\displaystyle m=i}
convient.
Sinon, alors
m
=
Im
(
k
M
0
∗
)
⋅
M
0
{\displaystyle m=\operatorname {Im} (kM_{0}*)\cdot M_{0}}
convient. En effet,
Re
(
m
M
0
∗
)
=
Re
(
Im
(
k
M
0
∗
)
)
=
0
{\displaystyle \operatorname {Re} (mM_{0}^{*})=\operatorname {Re} {\big (}\operatorname {Im} (kM_{0}*){\big )}=0}
, donc
m
{\displaystyle m}
est orthogonal à
M
0
{\displaystyle M_{0}}
.
Par ailleurs, comme
M
0
≠
0
{\displaystyle M_{0}\neq 0}
et, comme
M
0
{\displaystyle M_{0}}
et
k
{\displaystyle k}
ne sont pas colinéaires,
Im
(
k
M
0
∗
)
≠
0
{\displaystyle \operatorname {Im} (kM_{0}*)\neq 0}
.
Montrons que : si
K
>
0
{\displaystyle \mathrm {K} >0}
alors, pour tous
u
,
v
∈
R
3
{\displaystyle u,\ v\in \mathbb {R} ^{3}}
,
v
u
∗
=
0
⟹
(
u
=
0
)
∨
(
v
=
0
)
{\displaystyle vu^{*}=0\Longrightarrow (u=0)\ \lor \ (v=0)}
.
(
v
u
∗
=
0
)
⟹
(
Im
(
v
u
∗
)
=
0
)
⟺
(
v
∈
C
o
l
(
u
)
)
{\displaystyle (vu^{*}=0)\Longrightarrow {\big (}\operatorname {Im} (vu^{*})=0{\big )}\iff {\big (}v\in \mathrm {Col} (u){\big )}}
Si
v
=
0
{\displaystyle v=0}
, la proposition est donc vérifiée. Sinon, alors il existe
μ
∈
R
{\displaystyle \mu \in \mathbb {R} }
tel que
u
=
μ
v
{\displaystyle u=\mu v}
.
Si
μ
=
0
{\displaystyle \mu =0}
, alors
u
=
0
{\displaystyle u=0}
et la proposition est vérifiée. Sinon,
(
v
u
∗
=
0
)
⟹
(
Re
(
v
u
∗
)
=
μ
u
u
∗
=
0
)
⟹
u
u
∗
=
0
{\displaystyle (vu^{*}=0)\Longrightarrow {\big (}\operatorname {Re} (vu^{*})=\mu uu^{*}=0{\big )}\Longrightarrow uu^{*}=0}
.
Or
K
>
0
{\displaystyle \mathrm {K} >0}
donc
u
u
∗
=
0
⟺
u
=
0
{\displaystyle uu^{*}=0\iff u=0}
.
Donc il existe
m
{\displaystyle m}
non-nul et orthogonal à
M
0
{\displaystyle M_{0}}
(et donc, à
M
1
{\displaystyle M_{1}}
).
Posons alors
κ
=
m
m
∗
>
0
{\displaystyle \kappa =mm^{*}>0}
(car
K
>
0
{\displaystyle \mathrm {K} >0}
), puis
r
=
1
κ
∈
R
{\displaystyle r={\frac {1}{\sqrt {\kappa }}}\in \mathbb {R} }
.
Posons enfin
λ
0
=
1
2
(
2
π
)
⋅
r
≠
0
{\displaystyle \lambda _{0}={\frac {1}{2}}(2\pi )\cdot r\neq 0}
. Il est facile de vérifier l'égalité :
e
λ
0
m
=
−
1
{\displaystyle e^{\lambda _{0}m}=-1}
.
En choisissant
m
′
=
λ
0
m
{\displaystyle m'=\lambda _{0}m}
, nous avons donc trouvé un vecteur orthogonal à
M
0
{\displaystyle M_{0}}
et à
M
1
{\displaystyle M_{1}}
, tel que
M
1
M
0
∗
=
e
m
′
{\displaystyle M_{1}M_{0}^{*}=e^{m'}}
.
(
⟹
{\displaystyle \Longrightarrow }
)
Notons :
M
0
=
x
0
⋅
i
+
y
0
⋅
j
+
z
0
⋅
k
{\displaystyle M_{0}=x_{0}\cdot i+y_{0}\cdot j+z_{0}\cdot k}
m
=
x
2
⋅
i
+
y
2
⋅
j
+
z
2
⋅
k
{\displaystyle m=x_{2}\cdot i+y_{2}\cdot j+z_{2}\cdot k}
Posons
κ
=
m
m
∗
{\displaystyle \kappa =mm^{*}}
et remarquons que,
(
e
m
=
−
1
)
⟹
(
cos
κ
=
−
1
)
⟹
(
κ
>
0
)
{\displaystyle {\big (}e^{m}=-1{\big )}\Longrightarrow {\big (}\cos _{\kappa }=-1{\big )}\Longrightarrow {\big (}\kappa >0{\big )}}
.
Nous avons les égalités suivantes :
K
⋅
x
0
2
+
K
⋅
y
0
2
+
z
0
2
=
1
K
⋅
x
0
x
2
+
K
⋅
y
0
y
2
+
z
0
z
2
=
0
K
⋅
x
2
2
+
K
⋅
y
2
2
+
z
2
2
=
κ
{\displaystyle {\begin{aligned}&\mathrm {K} \cdot x_{0}^{2}+\mathrm {K} \cdot y_{0}^{2}+z_{0}^{2}&=1\\&\mathrm {K} \cdot x_{0}x_{2}+\mathrm {K} \cdot y_{0}y_{2}+z_{0}z_{2}&=0\\&\mathrm {K} \cdot x_{2}^{2}+\mathrm {K} \cdot y_{2}^{2}+z_{2}^{2}&=\kappa \end{aligned}}}
D'après l'inégalité de Cauchy-Schwarz ,
(
x
0
x
2
+
y
0
y
2
)
2
≤
(
x
0
2
+
y
0
2
)
(
x
2
2
+
y
2
2
)
{\displaystyle (x_{0}x_{2}+y_{0}y_{2})^{2}\leq (x_{0}^{2}+y_{0}^{2})(x_{2}^{2}+y_{2}^{2})}
, d'où :
z
0
2
z
2
2
=
(
−
K
⋅
x
0
x
2
−
K
⋅
y
0
y
2
)
2
=
K
2
⋅
(
x
0
x
2
+
y
0
y
2
)
2
≤
K
2
⋅
(
x
0
2
+
y
0
2
)
(
x
2
2
+
y
2
2
)
≤
(
K
⋅
x
0
2
+
K
⋅
y
0
2
)
(
K
⋅
x
2
2
+
K
⋅
y
2
2
)
z
2
2
−
(
1
−
z
0
2
)
⋅
z
2
2
≤
(
1
−
z
0
2
)
(
κ
−
z
2
2
)
{\displaystyle {\begin{aligned}z_{0}^{2}z_{2}^{2}&={\big (}-\mathrm {K} \cdot x_{0}x_{2}-\mathrm {K} \cdot y_{0}y_{2}{\big )}^{2}\\&=\mathrm {K} ^{2}\cdot (x_{0}x_{2}+y_{0}y_{2})^{2}\\&\leq \mathrm {K} ^{2}\cdot (x_{0}^{2}+y_{0}^{2})(x_{2}^{2}+y_{2}^{2})\\&\leq (\mathrm {K} \cdot x_{0}^{2}+\mathrm {K} \cdot y_{0}^{2})(\mathrm {K} \cdot x_{2}^{2}+\mathrm {K} \cdot y_{2}^{2})\\z_{2}^{2}-(1-z_{0}^{2})\cdot z_{2}^{2}&\leq (1-z_{0}^{2})(\kappa -z_{2}^{2})\\\end{aligned}}}
D'où il vient que :
z
2
2
≤
κ
⋅
(
1
−
z
0
2
)
z
2
2
≤
κ
⋅
(
x
0
2
+
y
0
2
)
⋅
K
{\displaystyle {\begin{aligned}z_{2}^{2}&\leq \kappa \cdot (1-z_{0}^{2})\\z_{2}^{2}&\leq \kappa \cdot (x_{0}^{2}+y_{0}^{2})\cdot \mathrm {K} \\\end{aligned}}}
Donc
K
≥
0
{\displaystyle \mathrm {K} \geq 0}
.
Or,
K
=
0
{\displaystyle \mathrm {K} =0}
implique :
z
0
2
=
1
z
0
z
2
=
0
z
2
2
=
κ
≠
0
{\displaystyle {\begin{aligned}&z_{0}^{2}&=&\ 1\\&z_{0}z_{2}&=&\ 0\\&z_{2}^{2}&=&\ \kappa \neq 0\end{aligned}}}
Ce qui est impossible. Donc
K
<
0
{\displaystyle \mathrm {K} <0}
.
Troisième cas :
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
ne sont pas colinéaires
Nous allons devoir distinguer deux sous-cas, selon que
K
{\displaystyle \mathrm {K} }
est nul ou non.
Nous noterons :
M
0
=
x
0
⋅
i
+
y
0
⋅
j
+
z
0
⋅
k
{\displaystyle M_{0}=x_{0}\cdot i+y_{0}\cdot j+z_{0}\cdot k}
M
1
=
x
1
⋅
i
+
y
1
⋅
j
+
z
1
⋅
k
{\displaystyle M_{1}=x_{1}\cdot i+y_{1}\cdot j+z_{1}\cdot k}
m
=
x
⋅
i
+
y
⋅
j
+
z
⋅
k
{\displaystyle m_{\ }=x_{\ }\cdot i+y_{\ }\cdot j+z_{\ }\cdot k}
Premier sous-cas :
K
=
0
{\displaystyle \mathrm {K} =0}
On a alors :
M
0
M
0
∗
=
z
0
2
=
1
=
M
1
M
1
∗
=
z
1
2
{\displaystyle M_{0}M_{0}^{*}=z_{0}^{2}=1=M_{1}M_{1}^{*}=z_{1}^{2}}
et
Re
(
M
1
M
0
∗
)
=
z
0
z
1
∈
{
−
1
,
1
}
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}=z_{0}z_{1}\in \{-1,1\}}
.
(
⟹
{\displaystyle \Longrightarrow }
)
Par orthogonalité de
m
{\displaystyle m}
:
Re
(
M
0
m
∗
)
=
z
0
z
=
0
=
Re
(
M
1
m
∗
)
=
z
1
z
{\displaystyle \operatorname {Re} (M_{0}m^{*})=z_{0}z=0=\operatorname {Re} (M_{1}m^{*})=z_{1}z}
Comme
z
0
{\displaystyle z_{0}}
et
z
1
{\displaystyle z_{1}}
sont non-nuls, on en déduit que
m
m
∗
=
z
2
=
0
{\displaystyle mm^{*}=z^{2}=0}
.
D'où il vient :
z
0
z
1
=
Re
(
M
1
M
0
∗
)
=
Re
(
e
m
)
=
cos
0
1
=
1
≥
0
{\displaystyle z_{0}z_{1}=\operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}=\operatorname {Re} (e^{m})=\cos _{0}1=1\geq 0}
.
(
⟸
{\displaystyle \Longleftarrow }
)
K
≯
0
{\displaystyle \mathrm {K} \ngtr 0}
donc
z
0
z
1
≥
0
{\displaystyle z_{0}z_{1}\geq 0}
. Comme
z
0
z
1
∈
{
−
1
,
1
}
{\displaystyle z_{0}z_{1}\in \{-1,1\}}
, on en déduit
z
0
z
1
=
1
{\displaystyle z_{0}z_{1}=1}
.
Alors
m
=
Im
(
M
1
M
0
∗
)
{\displaystyle m=\operatorname {Im} {\big (}M_{1}M_{0}^{*}{\big )}}
convient. En effet, nous avons déjà montré que
Im
(
M
1
M
0
∗
)
{\displaystyle \operatorname {Im} {\big (}M_{1}M_{0}^{*}{\big )}}
est orthogonal à
M
0
{\displaystyle M_{0}}
et à
M
1
{\displaystyle M_{1}}
, donc :
Re
(
M
0
m
∗
)
=
z
0
z
=
0
=
Re
(
M
1
m
∗
)
=
z
1
z
{\displaystyle \operatorname {Re} (M_{0}m^{*})=z_{0}z=0=\operatorname {Re} (M_{1}m^{*})=z_{1}z}
Comme
z
0
{\displaystyle z_{0}}
et
z
1
{\displaystyle z_{1}}
sont non-nuls, on en déduit que
m
m
∗
=
z
2
=
0
{\displaystyle mm^{*}=z^{2}=0}
. D'où :
e
m
=
1
+
m
=
Re
(
M
1
M
0
∗
)
+
Im
(
M
1
M
0
∗
)
=
M
1
M
0
∗
{\displaystyle e^{m}=1+m=\operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}+\operatorname {Im} {\big (}M_{1}M_{0}^{*}{\big )}=M_{1}M_{0}^{*}}
.
Second sous-cas :
K
≠
0
{\displaystyle \mathrm {K} \neq 0}
Nous avons alors l'équivalence :
m
⊥
M
0
,
m
⊥
M
1
⟺
m
∈
C
o
l
(
Im
(
M
1
M
0
∗
)
)
{\displaystyle m\perp M_{0},\ m\perp M_{1}\iff m\in \mathrm {Col} {\big (}\operatorname {Im} (M_{1}M_{0}^{*}){\big )}}
, et comme nous supposons aussi que
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
ne sont pas colinéaires, nous savons que
Im
(
M
1
M
0
∗
)
≠
0
{\displaystyle \operatorname {Im} (M_{1}M_{0}^{*})\neq 0}
. D'où :
m
∈
C
o
l
(
Im
(
M
1
M
0
∗
)
)
⟺
∃
λ
∈
R
,
m
=
λ
Im
(
M
1
M
0
∗
)
{\displaystyle m\in \mathrm {Col} {\big (}\operatorname {Im} (M_{1}M_{0}^{*}){\big )}\iff \exists \ \lambda \in \mathbb {R} ,\ \ m=\lambda \operatorname {Im} (M_{1}M_{0}^{*})}
.
Par application du premier théorème de polarisation, nous déduisons :
(
∃
m
∈
R
3
,
m
⊥
M
0
,
m
⊥
M
1
,
M
1
M
0
∗
=
e
m
)
⟺
(
Re
(
M
1
M
0
∗
)
>
−
1
)
{\displaystyle {\Big (}\exists \ m\in \mathbb {R} ^{3},\ m\perp M_{0},\ m\perp M_{1},\ M_{1}M_{0}^{*}=e^{m}{\Big )}\iff {\Big (}\operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1{\Big )}}
.
Il nous suffit donc de montrer l'équivalence :
Re
(
M
1
M
0
∗
)
>
−
1
⟺
(
K
>
0
)
∨
(
z
0
z
1
≥
0
)
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1\iff (\mathrm {K} >0)\ \lor \ (z_{0}z_{1}\geq 0)}
Montrons que :
Re
(
M
1
M
0
∗
)
>
−
1
⟺
(
K
>
0
)
∨
(
z
0
z
1
≥
0
)
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1\iff (\mathrm {K} >0)\ \lor \ (z_{0}z_{1}\geq 0)}
(
⟹
{\displaystyle \Longrightarrow }
)
Nous allons prouver sa contraposée :
(
¬
(
K
>
0
)
)
∧
(
¬
(
z
0
z
1
≥
0
)
)
⟹
¬
(
Re
(
M
1
M
0
∗
)
>
−
1
)
{\displaystyle (\neg (K>0))\land \ (\neg (z_{0}z_{1}\geq 0))\Longrightarrow \neg {\big (}\operatorname {Re} (M_{1}M_{0}^{*})>-1{\big )}}
Que nous pouvons réécrire :
(
K
<
0
)
∧
(
z
0
z
1
<
0
)
⟹
¬
(
Re
(
M
1
M
0
∗
)
>
−
1
)
{\displaystyle \quad (K<0)\ \land \ (z_{0}z_{1}<0)\Longrightarrow \neg {\big (}\operatorname {Re} (M_{1}M_{0}^{*})>-1{\big )}}
Nous supposerons donc
K
<
0
{\displaystyle K<0}
et
z
0
z
1
<
0
{\displaystyle z_{0}z_{1}<0}
dans cette partie.
Re
(
M
1
M
0
∗
)
=
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}=\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1}}
donc :
Re
(
M
1
M
0
∗
)
>
−
1
⟺
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
−
z
0
z
1
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1\iff \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>-z_{0}z_{1}}
.
Par l'absurde :
(
z
0
z
1
<
0
)
∧
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
−
z
0
z
1
)
{\displaystyle (z_{0}z_{1}<0)\ \land \ (\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>-z_{0}z_{1})}
⟺
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
−
z
0
z
1
>
0
{\displaystyle \iff \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>-z_{0}z_{1}>0}
⟹
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
)
2
>
(
−
z
0
z
1
)
2
{\displaystyle \Longrightarrow (\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1)^{2}>(-z_{0}z_{1})^{2}}
⟺
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
)
2
>
(
1
−
K
⋅
x
0
2
−
K
⋅
y
0
2
)
(
1
−
K
⋅
x
1
2
−
K
⋅
y
1
2
)
{\displaystyle \iff (\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1)^{2}>(1-\mathrm {K} \cdot x_{0}^{2}-\mathrm {K} \cdot y_{0}^{2})(1-\mathrm {K} \cdot x_{1}^{2}-\mathrm {K} \cdot y_{1}^{2})}
⟺
K
2
⋅
x
0
2
x
1
2
+
K
2
⋅
y
0
2
y
1
2
+
1
+
2
K
⋅
x
0
x
1
+
2
K
⋅
y
0
y
1
+
2
K
2
x
0
x
1
y
0
y
1
{\displaystyle \iff \mathrm {K} ^{2}\cdot x_{0}^{2}x_{1}^{2}+\mathrm {K} ^{2}\cdot y_{0}^{2}y_{1}^{2}+1+2\mathrm {K} \cdot x_{0}x_{1}+2\mathrm {K} \cdot y_{0}y_{1}+2\mathrm {K} ^{2}x_{0}x_{1}y_{0}y_{1}}
>
1
−
K
⋅
x
0
2
−
K
⋅
x
1
2
−
K
⋅
y
0
2
−
K
⋅
y
1
2
+
K
2
⋅
x
0
2
x
1
2
+
K
2
⋅
y
0
2
y
1
2
+
K
2
⋅
x
0
2
y
1
2
+
K
2
⋅
y
0
2
x
1
2
{\displaystyle >1-\mathrm {K} \cdot x_{0}^{2}-\mathrm {K} \cdot x_{1}^{2}-\mathrm {K} \cdot y_{0}^{2}-\mathrm {K} \cdot y_{1}^{2}+\mathrm {K} ^{2}\cdot x_{0}^{2}x_{1}^{2}+\mathrm {K} ^{2}\cdot y_{0}^{2}y_{1}^{2}+\mathrm {K} ^{2}\cdot x_{0}^{2}y_{1}^{2}+\mathrm {K} ^{2}\cdot y_{0}^{2}x_{1}^{2}}
⟺
2
K
⋅
x
0
x
1
+
2
K
⋅
y
0
y
1
+
2
K
2
x
0
x
1
y
0
y
1
>
−
K
⋅
x
0
2
−
K
⋅
x
1
2
−
K
⋅
y
0
2
−
K
⋅
y
1
2
+
K
2
⋅
x
0
2
y
1
2
+
K
2
⋅
y
0
2
x
1
2
{\displaystyle \iff 2\mathrm {K} \cdot x_{0}x_{1}+2\mathrm {K} \cdot y_{0}y_{1}+2\mathrm {K} ^{2}x_{0}x_{1}y_{0}y_{1}>-\mathrm {K} \cdot x_{0}^{2}-\mathrm {K} \cdot x_{1}^{2}-\mathrm {K} \cdot y_{0}^{2}-\mathrm {K} \cdot y_{1}^{2}+\mathrm {K} ^{2}\cdot x_{0}^{2}y_{1}^{2}+\mathrm {K} ^{2}\cdot y_{0}^{2}x_{1}^{2}}
⟺
(
K
⋅
x
0
2
+
2
K
⋅
x
0
x
1
+
K
⋅
x
1
2
)
+
(
K
⋅
y
0
2
+
2
K
⋅
y
0
y
1
+
K
⋅
y
1
2
)
>
K
2
⋅
x
0
2
y
1
2
−
2
K
2
x
0
x
1
y
0
y
1
+
K
2
⋅
y
0
2
x
1
2
{\displaystyle \iff (\mathrm {K} \cdot x_{0}^{2}+2\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot x_{1}^{2})+(\mathrm {K} \cdot y_{0}^{2}+2\mathrm {K} \cdot y_{0}y_{1}+\mathrm {K} \cdot y_{1}^{2})>\mathrm {K} ^{2}\cdot x_{0}^{2}y_{1}^{2}-2\mathrm {K} ^{2}x_{0}x_{1}y_{0}y_{1}+\mathrm {K} ^{2}\cdot y_{0}^{2}x_{1}^{2}}
⟺
K
⋅
(
x
0
+
x
1
)
2
+
K
⋅
(
y
0
+
y
1
)
2
>
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
{\displaystyle \iff \mathrm {K} \cdot (x_{0}+x_{1})^{2}+\mathrm {K} \cdot (y_{0}+y_{1})^{2}>\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}}
⟺
0
>
K
⋅
[
(
x
0
+
x
1
)
2
+
(
y
0
+
y
1
)
2
]
>
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
>
0
{\displaystyle \iff 0>\mathrm {K} \cdot {\big [}(x_{0}+x_{1})^{2}+(y_{0}+y_{1})^{2}{\big ]}>\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}>0}
car
K
<
0
{\displaystyle \mathrm {K} <0}
, et
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
sont non-colinéaires.
Impossible.
(
⟸
{\displaystyle \Longleftarrow }
)
Si
K
>
0
{\displaystyle \mathrm {K} >0}
:
Le produit réel est alors un produit euclidien.
Comme par ailleurs
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
ne sont pas colinéaires, l'inégalité de Cauchy-Schwarz nous assure que :
|
Re
(
M
1
M
0
∗
)
|
<
(
M
0
M
0
∗
)
(
M
1
M
1
∗
)
=
1
{\displaystyle |\operatorname {Re} (M_{1}M_{0}^{*})|<{\big (}M_{0}M_{0}^{*}{\big )}{\big (}M_{1}M_{1}^{*}{\big )}=1}
.
Donc l'inégalité
Re
(
M
1
M
0
∗
)
>
−
1
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1}
est bien vérifiée.
Si
K
<
0
{\displaystyle \mathrm {K} <0}
et
z
0
z
1
≥
0
{\displaystyle z_{0}z_{1}\geq 0}
:
M
0
∈
S
{\displaystyle M_{0}\in S}
donc
M
0
M
0
∗
=
K
⋅
x
0
2
+
K
⋅
y
0
2
+
z
0
2
=
1
{\displaystyle M_{0}M_{0}^{*}=\mathrm {K} \cdot x_{0}^{2}+\mathrm {K} \cdot y_{0}^{2}+z_{0}^{2}=1}
.
Ainsi,
z
0
2
=
1
−
K
⋅
x
0
2
−
K
⋅
y
0
2
{\displaystyle z_{0}^{2}=1-\mathrm {K} \cdot x_{0}^{2}-\mathrm {K} \cdot y_{0}^{2}}
et, de même,
z
1
2
=
1
−
K
⋅
x
1
2
−
K
⋅
y
1
2
{\displaystyle z_{1}^{2}=1-\mathrm {K} \cdot x_{1}^{2}-\mathrm {K} \cdot y_{1}^{2}}
.
Par ailleurs,
Re
(
M
1
M
0
∗
)
=
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}=\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1}}
donc :
Re
(
M
1
M
0
∗
)
>
−
1
⟺
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
−
z
0
z
1
{\displaystyle \operatorname {Re} {\big (}M_{1}M_{0}^{*}{\big )}>-1\iff \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>-z_{0}z_{1}}
.
Premier sous-cas
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
0
{\displaystyle \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>0}
:
Alors, trivialement,
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
0
≥
−
z
0
z
1
{\displaystyle \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>0\geq -z_{0}z_{1}}
et l'inégalité voulue est respectée.
Second sous-cas
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
≤
0
{\displaystyle \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1\leq 0}
:
0
≥
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
>
−
z
0
z
1
{\displaystyle 0\geq \mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1>-z_{0}z_{1}}
⟺
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
1
)
2
<
(
−
z
0
z
1
)
2
{\displaystyle \iff (\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+1)^{2}<(-z_{0}z_{1})^{2}}
⟺
K
⋅
[
(
x
0
+
x
1
)
2
+
(
y
0
+
y
1
)
2
]
<
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
{\displaystyle \iff \mathrm {K} \cdot {\big [}(x_{0}+x_{1})^{2}+(y_{0}+y_{1})^{2}{\big ]}<\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}}
en reprenant les calculs précédents.
Or
K
⋅
[
(
x
0
+
x
1
)
2
+
(
y
0
+
y
1
)
2
]
<
0
<
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
{\displaystyle \mathrm {K} \cdot {\big [}(x_{0}+x_{1})^{2}+(y_{0}+y_{1})^{2}{\big ]}<0<\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}}
car
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
ne sont pas colinéaires, donc l'inégalité est respectée.
Définition : un tel vecteur
m
{\displaystyle m}
, lorsqu'il existe, sera appelé vecteur caractéristique de
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
.
Groupe spécial orthogonal
modifier
Le groupe spécial orthogonal de
Q
{\displaystyle Q}
est composé des transformations de la forme :
{
R
3
→
R
3
u
↦
q
u
q
−
1
{\displaystyle \left\{{\begin{array}{cl}\mathbb {R} ^{3}&\to &\mathbb {R} ^{3}\\u&\mapsto &quq^{-1}\end{array}}\right.}
où q est un
K
{\displaystyle \mathrm {K} }
-quaternion unitaire.
En particulier, si on se restreint aux quaternions polarisables, c'est l'ensemble des transformations :
R
w
:
{
R
3
→
R
3
u
↦
e
w
/
2
⋅
u
⋅
e
−
w
/
2
{\displaystyle R_{w}:\left\{{\begin{array}{cl}\mathbb {R} ^{3}&\to &\mathbb {R} ^{3}\\u&\mapsto &e^{w/2}\cdot u\cdot e^{-w/2}\end{array}}\right.}
où
w
{\displaystyle w}
est un vecteur quelconque de
R
3
{\displaystyle \mathbb {R} ^{3}}
.
Remarque : Pour tout
w
∈
R
3
{\displaystyle w\in \mathbb {R} ^{3}}
, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
λ
w
{\displaystyle \lambda w}
est stable par
R
w
{\displaystyle R_{w}}
.
Pour tout
w
∈
R
3
{\displaystyle w\in \mathbb {R} ^{3}}
, et pour tous réels
λ
{\displaystyle \lambda }
et
μ
{\displaystyle \mu }
,
R
λ
w
∘
R
μ
w
=
R
μ
w
∘
R
λ
w
=
R
(
λ
+
μ
)
w
{\displaystyle R_{\lambda w}\circ R_{\mu w}=R_{\mu w}\circ R_{\lambda w}=R_{(\lambda +\mu )w}}
.
Cas où
w
{\displaystyle w}
est inversible
modifier
Si
w
{\displaystyle w}
est inversible, alors on peut décomposer tout vecteur
u
∈
R
3
{\displaystyle u\in \mathbb {R} ^{3}}
comme somme d'un vecteur
u
∥
{\displaystyle u_{\parallel }}
colinéaire à
w
{\displaystyle w}
et d'un vecteur
u
⊥
{\displaystyle u_{\perp }}
orthogonal à
w
{\displaystyle w}
.
On peut alors obtenir une expression simple de
R
λ
w
(
u
)
{\displaystyle R_{\lambda w}(u)}
:
R
λ
w
(
u
)
=
u
∥
+
e
λ
w
⋅
u
⊥
{\displaystyle R_{\lambda w}(u)=u_{\parallel }+e^{\lambda w}\cdot u_{\perp }}
Démonstration
R
λ
w
(
u
)
=
e
λ
2
w
⋅
u
⋅
e
−
λ
2
w
=
e
λ
2
w
⋅
(
u
∥
+
u
⊥
)
⋅
e
−
λ
2
w
=
e
λ
2
w
⋅
u
∥
⋅
e
−
λ
2
w
+
e
λ
2
w
⋅
u
⊥
⋅
e
−
λ
2
w
=
e
λ
2
w
⋅
e
−
λ
2
w
⋅
u
∥
+
e
λ
2
w
⋅
e
+
λ
2
w
⋅
u
⊥
=
u
∥
+
e
λ
w
⋅
u
⊥
{\displaystyle {\begin{aligned}R_{\lambda w}(u)&=e^{{\frac {\lambda }{2}}w}\cdot u\cdot e^{-{\frac {\lambda }{2}}w}\\&=e^{{\frac {\lambda }{2}}w}\cdot (u_{\parallel }+u_{\perp })\cdot e^{-{\frac {\lambda }{2}}w}\\&=e^{{\frac {\lambda }{2}}w}\cdot u_{\parallel }\cdot e^{-{\frac {\lambda }{2}}w}+e^{{\frac {\lambda }{2}}w}\cdot u_{\perp }\cdot e^{-{\frac {\lambda }{2}}w}\\&=e^{{\frac {\lambda }{2}}w}\cdot e^{-{\frac {\lambda }{2}}w}\cdot u_{\parallel }+e^{{\frac {\lambda }{2}}w}\cdot e^{+{\frac {\lambda }{2}}w}\cdot u_{\perp }\\&=u_{\parallel }+e^{\lambda w}\cdot u_{\perp }\end{aligned}}}
R
λ
w
(
u
)
=
cos
w
w
∗
λ
⋅
u
+
sin
w
w
∗
λ
⋅
Im
(
u
w
∗
)
{\displaystyle R_{\lambda w}(u)=\cos _{ww^{*}}\lambda \cdot u+\sin _{ww^{*}}\lambda \cdot \operatorname {Im} (uw^{*})}
Démonstration
R
λ
w
(
u
)
=
(
cos
w
w
∗
λ
2
+
sin
w
w
∗
λ
2
⋅
w
)
⋅
u
⋅
(
cos
w
w
∗
λ
2
−
sin
w
w
∗
λ
2
⋅
w
)
=
(
cos
w
w
∗
λ
2
⋅
u
+
sin
w
w
∗
λ
2
⋅
w
u
)
⋅
(
cos
w
w
∗
λ
2
−
sin
w
w
∗
λ
2
⋅
w
)
=
(
cos
w
w
∗
λ
2
)
2
⋅
u
−
(
sin
w
w
∗
λ
2
)
2
⋅
w
u
w
+
sin
w
w
∗
λ
2
⋅
cos
w
w
∗
λ
2
⋅
w
u
−
sin
w
w
∗
λ
2
⋅
cos
w
w
∗
λ
2
⋅
u
w
=
(
cos
w
w
∗
λ
2
)
2
⋅
u
−
(
sin
w
w
∗
λ
2
)
2
⋅
(
w
w
∗
)
⋅
u
+
sin
w
w
∗
λ
2
⋅
cos
w
w
∗
λ
2
⋅
(
w
u
−
u
w
)
=
(
(
cos
w
w
∗
λ
2
)
2
−
(
w
w
∗
)
⋅
(
sin
w
w
∗
λ
2
)
2
)
⋅
u
+
2
⋅
sin
w
w
∗
λ
2
⋅
cos
w
w
∗
λ
2
⋅
Im
(
u
w
∗
)
=
cos
w
w
∗
λ
⋅
u
+
sin
w
w
∗
λ
⋅
Im
(
u
w
∗
)
{\displaystyle {\begin{aligned}R_{\lambda w}(u)&={\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}+\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot w{\bigg )}\cdot u\cdot {\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}-\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot w{\bigg )}\\&={\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}\cdot u+\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot wu{\bigg )}\cdot {\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}-\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot w{\bigg )}\\&={\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}\cdot u-{\bigg (}\sin _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}\cdot wuw+\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot \cos _{ww^{*}}{\frac {\lambda }{2}}\cdot wu-\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot \cos _{ww^{*}}{\frac {\lambda }{2}}\cdot uw\\&={\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}\cdot u-{\bigg (}\sin _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}\cdot (ww^{*})\cdot u+\sin _{ww^{*}}{\frac {\lambda }{2}}\cdot \cos _{ww^{*}}{\frac {\lambda }{2}}\cdot (wu-uw)\\&={\Bigg (}{\bigg (}\cos _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}-(ww^{*})\cdot {\bigg (}\sin _{ww^{*}}{\frac {\lambda }{2}}{\bigg )}^{2}{\Bigg )}\cdot u+2\cdot \sin _{ww^{*}}{\frac {\lambda }{2}}\cdot \cos _{ww^{*}}{\frac {\lambda }{2}}\cdot \operatorname {Im} (uw^{*})\\&=\cos _{ww^{*}}\lambda \cdot u+\sin _{ww^{*}}\lambda \cdot \operatorname {Im} (uw^{*})\end{aligned}}}
Remarque : comme vu précédemment,
Im
(
u
w
∗
)
{\displaystyle \operatorname {Im} (uw^{*})}
est un vecteur orthogonal à
w
{\displaystyle w}
et
u
{\displaystyle u}
.
Un groupe de rotations
modifier
Il existe d'importantes analogies entre le groupe spécial orthogonal et les rotations dans l'espace au sens classique, aussi
R
λ
w
{\displaystyle R_{\lambda w}}
sera abusivement dénommée rotation autour de l'axe dirigé par
w
{\displaystyle w}
, et d'angle
λ
{\displaystyle \lambda }
, ou plus simplement rotation de vecteur
w
{\displaystyle w}
et d'angle
λ
{\displaystyle \lambda }
, voire rotation de vecteur
λ
w
{\displaystyle \lambda w}
(il est alors sous-entendu que l'angle vaut
1
{\displaystyle 1}
).
Une même rotation peut ainsi être caractérisée par une infinité de couples (vecteur, angle) distincts : seul le produit du vecteur et de l'angle est constant. Cette ambiguïté était déjà présente chez les quaternions classiques : la rotation de vecteur normalisé
w
{\displaystyle w}
et d'angle
θ
{\displaystyle \theta }
est également la rotation de vecteur normalisé
−
w
{\displaystyle -w}
et d'angle
−
θ
{\displaystyle -\theta }
.
Dans le cas plus général des
K
{\displaystyle \mathrm {K} }
-quaternions il est nécessaire d'étendre cette ambiguïté, car il n'est pas toujours possible de normaliser le vecteur directeur.
Pour s'en convaincre, prenons
w
∈
R
3
{\displaystyle w\in \mathbb {R} ^{3}}
, non-nul mais tel que
w
w
∗
=
0
{\displaystyle ww^{*}=0}
. De tels vecteurs existent lorsque
K
≤
0
{\displaystyle K\leq 0}
.
Dans une telle situation,
R
λ
w
(
u
)
=
u
+
λ
⋅
Im
(
w
u
)
{\displaystyle R_{\lambda w}(u)=u+\lambda \cdot \operatorname {Im} (wu)}
.
Or
Im
(
w
v
)
≠
0
{\displaystyle \operatorname {Im} (wv)\neq 0}
dans le cas général, donc
R
λ
w
≠
R
μ
w
{\displaystyle R_{\lambda w}\neq R_{\mu w}}
lorsque
λ
≠
μ
{\displaystyle \lambda \neq \mu }
.
Comme
(
μ
w
)
(
μ
w
)
∗
=
0
{\displaystyle (\mu w)(\mu w)^{*}=0}
quel que soit
μ
{\displaystyle \mu }
, on ne peut pas « normaliser »
w
{\displaystyle w}
, et il n'est donc pas possible de définir naturellement une amplitude de
T
λ
w
{\displaystyle T_{\lambda w}}
qu'on appellerait « angle » indépendamment du choix de
w
{\displaystyle w}
.
On s'intéresse à la surface
S
{\displaystyle S}
, appelée sphère unité, ensemble des points
M
∈
R
3
{\displaystyle M\in \mathbb {R} ^{3}}
tels que
M
M
∗
=
1
{\displaystyle MM^{*}=1}
.
Plus rigoureusement, cette définition n'est correcte que si
K
>
0
{\displaystyle \mathrm {K} >0}
; dans le cas contraire il y a ambiguïté car l'ensemble des points
M
∈
R
3
{\displaystyle M\in \mathbb {R} ^{3}}
tels que
M
M
∗
=
1
{\displaystyle MM^{*}=1}
est constitué de deux surfaces : l'une dans le demi-espace
z
>
0
{\displaystyle z>0}
et l'autre dans le demi-espace
z
<
0
{\displaystyle z<0}
. Par convention, si
K
≤
0
{\displaystyle \mathrm {K} \leq 0}
on appellera sphère unité la surface
S
{\displaystyle S}
, ensemble des points
M
∈
R
3
{\displaystyle M\in \mathbb {R} ^{3}}
du demi-espace
z
>
0
{\displaystyle z>0}
, tels que
M
M
∗
=
1
{\displaystyle MM^{*}=1}
.
Corollaire du second théorème de polarisation
modifier
Tout couple de
S
{\displaystyle S}
possède un vecteur caractéristique.
Vecteur caractéristique
modifier
Pour tous
M
0
,
M
1
∈
S
{\displaystyle M_{0},\ M_{1}\in S}
, si on note
m
{\displaystyle m}
leur vecteur caractéristique, et
κ
=
m
m
∗
{\displaystyle \kappa =mm^{*}}
, alors
κ
{\displaystyle \kappa }
est de même signe que
K
{\displaystyle \mathrm {K} }
.
Démonstration
Nous noterons :
M
0
=
x
0
⋅
i
+
y
0
⋅
j
+
z
0
⋅
k
{\displaystyle M_{0}=x_{0}\cdot i+y_{0}\cdot j+z_{0}\cdot k}
M
1
=
x
1
⋅
i
+
y
1
⋅
j
+
z
1
⋅
k
{\displaystyle M_{1}=x_{1}\cdot i+y_{1}\cdot j+z_{1}\cdot k}
m
=
x
⋅
i
+
y
⋅
j
+
z
⋅
k
{\displaystyle m_{\ }=x_{\ }\cdot i+y_{\ }\cdot j+z_{\ }\cdot k}
Si
K
>
0
{\displaystyle \mathrm {K} >0}
:
Alors
κ
=
K
⋅
x
2
+
K
⋅
y
2
+
z
2
≥
0
{\displaystyle \kappa =\mathrm {K} \cdot x^{2}+\mathrm {K} \cdot y^{2}+z^{2}\geq 0}
.
L'inégalité est même stricte, sauf si
m
=
0
{\displaystyle m=0}
.
Si
K
=
0
{\displaystyle \mathrm {K} =0}
:
Alors
M
0
M
0
∗
=
z
0
2
=
1
{\displaystyle M_{0}M_{0}^{*}=z_{0}^{2}=1}
donc
z
0
≠
0
{\displaystyle z_{0}\neq 0}
.
Or, par orthogonalité,
Re
(
M
0
m
∗
)
=
z
0
z
=
0
{\displaystyle \operatorname {Re} (M_{0}m^{*})=z_{0}z=0}
, d'où
z
=
0
{\displaystyle z=0}
.
Nous en déduisons :
κ
=
z
2
=
0
{\displaystyle \kappa =z^{2}=0}
.
Si
K
<
0
{\displaystyle \mathrm {K} <0}
:
Alors
M
0
M
0
∗
=
K
⋅
x
0
2
+
K
⋅
y
0
2
+
z
0
2
=
1
{\displaystyle M_{0}M_{0}^{*}=\mathrm {K} \cdot x_{0}^{2}+\mathrm {K} \cdot y_{0}^{2}+z_{0}^{2}=1}
donc
z
0
2
=
1
+
|
K
|
⋅
(
x
0
2
+
y
0
2
)
>
1
{\displaystyle z_{0}^{2}=1+|\mathrm {K} |\cdot (x_{0}^{2}+y_{0}^{2})>1}
. De même,
z
1
2
>
1
{\displaystyle z_{1}^{2}>1}
.
Or, par orthogonalité,
Re
(
M
0
m
∗
)
=
K
⋅
x
0
x
+
K
⋅
y
0
y
+
z
0
z
=
0
{\displaystyle \operatorname {Re} (M_{0}m^{*})=\mathrm {K} \cdot x_{0}x+\mathrm {K} \cdot y_{0}y+z_{0}z=0}
D'où :
z
=
−
1
z
0
⋅
K
⋅
(
x
0
x
+
y
0
y
)
{\displaystyle z=-{\frac {1}{z_{0}}}\cdot \mathrm {K} \cdot (x_{0}x+y_{0}y)}
et, de même,
z
=
−
1
z
1
⋅
K
⋅
(
x
1
x
+
y
1
y
)
{\displaystyle z=-{\frac {1}{z_{1}}}\cdot \mathrm {K} \cdot (x_{1}x+y_{1}y)}
.
Ainsi,
z
1
⋅
(
x
0
x
+
y
0
y
)
=
z
0
⋅
(
x
1
x
+
y
1
y
)
{\displaystyle z_{1}\cdot (x_{0}x+y_{0}y)=z_{0}\cdot (x_{1}x+y_{1}y)}
ce qu'on peut écrire :
(
z
0
x
1
−
x
0
z
1
)
⋅
x
=
(
y
0
z
1
−
z
0
y
1
)
⋅
y
{\displaystyle (z_{0}x_{1}-x_{0}z_{1})\cdot x=(y_{0}z_{1}-z_{0}y_{1})\cdot y}
Puis :
(
y
0
z
1
−
z
0
y
1
)
⋅
z
=
−
1
z
0
⋅
K
⋅
(
y
0
z
1
−
z
0
y
1
)
⋅
(
x
0
x
+
y
0
y
)
=
−
1
z
0
⋅
K
⋅
(
(
y
0
z
1
−
z
0
y
1
)
⋅
x
0
+
(
z
0
x
1
−
x
0
z
1
)
⋅
y
0
)
⋅
x
=
−
1
z
0
⋅
K
⋅
(
x
0
y
0
z
1
−
x
0
z
0
y
1
+
z
0
x
1
y
0
−
x
0
z
1
y
0
)
⋅
x
(
y
0
z
1
−
z
0
y
1
)
⋅
z
=
K
⋅
(
x
0
y
1
−
y
0
x
1
)
⋅
x
{\displaystyle {\begin{aligned}(y_{0}z_{1}-z_{0}y_{1})\cdot z&=-{\frac {1}{z_{0}}}\cdot \mathrm {K} \cdot (y_{0}z_{1}-z_{0}y_{1})\cdot (x_{0}x+y_{0}y)\\&=-{\frac {1}{z_{0}}}\cdot \mathrm {K} \cdot {\big (}(y_{0}z_{1}-z_{0}y_{1})\cdot x_{0}+(z_{0}x_{1}-x_{0}z_{1})\cdot y_{0}{\big )}\cdot x\\&=-{\frac {1}{z_{0}}}\cdot \mathrm {K} \cdot (x_{0}y_{0}z_{1}-x_{0}z_{0}y_{1}+z_{0}x_{1}y_{0}-x_{0}z_{1}y_{0})\cdot x\\(y_{0}z_{1}-z_{0}y_{1})\cdot z&=\mathrm {K} \cdot (x_{0}y_{1}-y_{0}x_{1})\cdot x\end{aligned}}}
Ainsi :
κ
=
K
⋅
x
2
+
K
⋅
y
2
+
z
2
(
y
0
z
1
−
z
0
y
1
)
2
⋅
κ
=
[
K
⋅
(
y
0
z
1
−
z
0
y
1
)
2
+
K
⋅
(
z
0
x
1
−
x
0
z
1
)
2
+
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
]
⋅
x
2
{\displaystyle {\begin{aligned}\kappa &=\mathrm {K} \cdot x^{2}+\mathrm {K} \cdot y^{2}+z^{2}\\(y_{0}z_{1}-z_{0}y_{1})^{2}\cdot \kappa &={\big [}\mathrm {K} \cdot (y_{0}z_{1}-z_{0}y_{1})^{2}+\mathrm {K} \cdot (z_{0}x_{1}-x_{0}z_{1})^{2}+\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}{\big ]}\cdot x^{2}\end{aligned}}}
κ
{\displaystyle \kappa }
est donc de même signe que
K
⋅
(
y
0
z
1
−
z
0
y
1
)
2
+
K
⋅
(
z
0
x
1
−
x
0
z
1
)
2
+
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
{\displaystyle \mathrm {K} \cdot (y_{0}z_{1}-z_{0}y_{1})^{2}+\mathrm {K} \cdot (z_{0}x_{1}-x_{0}z_{1})^{2}+\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}}
.
Or :
Re
(
M
1
M
0
∗
)
=
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
Im
(
M
1
M
0
∗
)
=
(
y
0
z
1
−
z
0
y
1
)
⋅
i
+
(
z
0
x
1
−
x
0
z
1
)
⋅
j
+
K
⋅
(
x
0
y
1
−
y
0
x
1
)
⋅
k
(
M
1
M
0
∗
)
(
M
1
M
0
∗
)
∗
=
Re
(
M
1
M
0
∗
)
2
+
Im
(
M
1
M
0
∗
)
Im
(
M
1
M
0
∗
)
∗
=
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
)
2
+
(
K
⋅
(
y
0
z
1
−
z
0
y
1
)
2
+
K
⋅
(
z
0
x
1
−
x
0
z
1
)
2
+
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
)
=
1
{\displaystyle {\begin{aligned}\operatorname {Re} (M_{1}M_{0}^{*})&=\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1}\\\operatorname {Im} (M_{1}M_{0}^{*})&=(y_{0}z_{1}-z_{0}y_{1})\cdot i+(z_{0}x_{1}-x_{0}z_{1})\cdot j+\mathrm {K} \cdot (x_{0}y_{1}-y_{0}x_{1})\cdot k\\(M_{1}M_{0}^{*})(M_{1}M_{0}^{*})^{*}&=\operatorname {Re} (M_{1}M_{0}^{*})^{2}+\operatorname {Im} (M_{1}M_{0}^{*})\operatorname {Im} (M_{1}M_{0}^{*})^{*}\\&=(\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1})^{2}+{\big (}\mathrm {K} \cdot (y_{0}z_{1}-z_{0}y_{1})^{2}+\mathrm {K} \cdot (z_{0}x_{1}-x_{0}z_{1})^{2}+\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}{\big )}\\&=1\end{aligned}}}
Donc
κ
{\displaystyle \kappa }
est donc de même signe que :
K
⋅
(
y
0
z
1
−
z
0
y
1
)
2
+
K
⋅
(
z
0
x
1
−
x
0
z
1
)
2
+
K
2
⋅
(
x
0
y
1
−
y
0
x
1
)
2
=
1
−
(
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
)
2
{\displaystyle \mathrm {K} \cdot (y_{0}z_{1}-z_{0}y_{1})^{2}+\mathrm {K} \cdot (z_{0}x_{1}-x_{0}z_{1})^{2}+\mathrm {K} ^{2}\cdot (x_{0}y_{1}-y_{0}x_{1})^{2}=1-(\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1})^{2}}
Nous voulons prouver que
κ
{\displaystyle \kappa }
est de même signe que
K
{\displaystyle \mathrm {K} }
, c'est-à-dire négatif.
Cela revient donc à montrer que :
|
Re
(
M
1
M
0
∗
)
|
=
|
K
⋅
x
0
x
1
+
K
⋅
y
0
y
1
+
z
0
z
1
|
≥
1
{\displaystyle |\operatorname {Re} (M_{1}M_{0}^{*})|=|\mathrm {K} \cdot x_{0}x_{1}+\mathrm {K} \cdot y_{0}y_{1}+z_{0}z_{1}|\geq 1}
Or, par application du premier théorème de polarisation, nous savons que
Re
(
M
1
M
0
∗
)
>
−
1
{\displaystyle \operatorname {Re} (M_{1}M_{0}^{*})>-1}
, donc nous devons montrer que
Re
(
M
1
M
0
∗
)
>
1
{\displaystyle \operatorname {Re} (M_{1}M_{0}^{*})>1}
.
Par application de l'inégalité de Cauchy-Schwarz :
|
x
0
x
1
+
y
0
y
1
|
≤
(
x
0
2
+
y
0
2
)
(
x
1
2
+
y
1
2
)
|
K
⋅
(
x
0
x
1
+
y
0
y
1
)
|
≤
(
K
⋅
x
0
2
+
K
⋅
y
0
2
)
(
K
⋅
x
1
2
+
K
⋅
y
1
2
)
|
(
Re
(
M
1
M
0
∗
)
−
z
0
z
1
)
|
≤
(
z
0
2
−
1
)
(
z
1
2
−
1
)
{\displaystyle {\begin{aligned}|x_{0}x_{1}+y_{0}y_{1}|&\leq {\sqrt {(x_{0}^{2}+y_{0}^{2})(x_{1}^{2}+y_{1}^{2})}}\\|\mathrm {K} \cdot (x_{0}x_{1}+y_{0}y_{1})|&\leq {\sqrt {(\mathrm {K} \cdot x_{0}^{2}+\mathrm {K} \cdot y_{0}^{2})(\mathrm {K} \cdot x_{1}^{2}+\mathrm {K} \cdot y_{1}^{2})}}\\|(\operatorname {Re} (M_{1}M_{0}^{*})-z_{0}z_{1})|&\leq {\sqrt {(z_{0}^{2}-1)(z_{1}^{2}-1)}}\end{aligned}}}
En particulier :
−
(
Re
(
M
1
M
0
∗
)
−
z
0
z
1
)
≤
(
z
0
2
−
1
)
(
z
1
2
−
1
)
Re
(
M
1
M
0
∗
)
≥
z
0
z
1
−
(
z
0
2
−
1
)
(
z
1
2
−
1
)
{\displaystyle {\begin{aligned}-{\big (}\operatorname {Re} (M_{1}M_{0}^{*})-z_{0}z_{1}{\big )}&\leq {\sqrt {(z_{0}^{2}-1)(z_{1}^{2}-1)}}\\\operatorname {Re} (M_{1}M_{0}^{*})&\geq z_{0}z_{1}-{\sqrt {(z_{0}^{2}-1)(z_{1}^{2}-1)}}\end{aligned}}}
Or :
(
z
0
−
z
1
)
2
≥
0
z
0
2
−
2
⋅
z
0
z
1
+
z
1
2
≥
0
z
0
2
−
2
⋅
z
0
z
1
+
z
1
2
+
1
+
z
0
2
z
1
2
≥
1
+
z
0
2
z
1
2
z
0
2
z
1
2
−
2
⋅
z
0
z
1
+
1
≥
z
0
2
z
1
2
−
z
0
2
−
z
1
2
+
1
(
z
0
z
1
−
1
)
2
≥
(
z
0
2
−
1
)
(
z
1
2
−
1
)
|
z
0
z
1
−
1
|
≥
(
z
0
2
−
1
)
(
z
1
2
−
1
)
{\displaystyle {\begin{aligned}(z_{0}-z_{1})^{2}&\geq 0\\z_{0}^{2}-2\cdot z_{0}z_{1}+z_{1}^{2}&\geq 0\\z_{0}^{2}-2\cdot z_{0}z_{1}+z_{1}^{2}+1+z_{0}^{2}z_{1}^{2}&\geq 1+z_{0}^{2}z_{1}^{2}\\z_{0}^{2}z_{1}^{2}-2\cdot z_{0}z_{1}+1&\geq z_{0}^{2}z_{1}^{2}-z_{0}^{2}-z_{1}^{2}+1\\{\big (}z_{0}z_{1}-1{\big )}^{2}&\geq {\big (}z_{0}^{2}-1{\big )}{\big (}z_{1}^{2}-1{\big )}\\|z_{0}z_{1}-1|&\geq {\sqrt {{\big (}z_{0}^{2}-1{\big )}{\big (}z_{1}^{2}-1{\big )}}}\end{aligned}}}
Par ailleurs,
z
0
2
>
1
{\displaystyle z_{0}^{2}>1}
,
z
1
2
>
1
{\displaystyle z_{1}^{2}>1}
et, par application du second théorème de polarisation,
z
0
z
1
≥
0
{\displaystyle z_{0}z_{1}\geq 0}
, donc
z
0
z
1
>
1
{\displaystyle z_{0}z_{1}>1}
, c'est-à-dire
|
z
0
z
1
−
1
|
=
z
0
z
1
−
1
{\displaystyle |z_{0}z_{1}-1|=z_{0}z_{1}-1}
. D'où :
z
0
z
1
−
1
≥
(
z
0
2
−
1
)
(
z
1
2
−
1
)
{\displaystyle z_{0}z_{1}-1\geq {\sqrt {{\big (}z_{0}^{2}-1{\big )}{\big (}z_{1}^{2}-1{\big )}}}}
Et enfin :
Re
(
M
1
M
0
∗
)
≥
z
0
z
1
−
(
z
0
2
−
1
)
(
z
1
2
−
1
)
≥
1
{\displaystyle \operatorname {Re} (M_{1}M_{0}^{*})\geq z_{0}z_{1}-{\sqrt {(z_{0}^{2}-1)(z_{1}^{2}-1)}}\geq 1}
Ce qui termine la preuve.
Conjecture sur les géodésiques de S
modifier
Soient
M
0
,
M
1
∈
S
{\displaystyle M_{0},\ M_{1}\in S}
, et
m
∈
R
3
{\displaystyle m\in \mathbb {R} ^{3}}
orthogonal à
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
, tel que
M
1
M
0
∗
=
e
m
{\displaystyle M_{1}M_{0}^{*}=e^{m}}
.
On peut alors définir le chemin :
γ
:
{
R
→
S
λ
↦
e
λ
m
⋅
M
0
{\displaystyle \gamma :\left\{{\begin{array}{cl}\mathbb {R} &\to &S\\\lambda &\mapsto &e^{\lambda m}\cdot M_{0}\end{array}}\right.}
Démonstration
Justifions que, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
γ
(
λ
)
∈
S
{\displaystyle \gamma (\lambda )\in S}
:
∀
λ
∈
R
,
{\displaystyle \forall \lambda \in \mathbb {R} ,}
Re
(
γ
(
λ
)
)
=
Re
(
e
λ
m
⋅
M
0
)
=
Re
(
(
cos
m
m
∗
1
+
sin
m
m
∗
1
⋅
m
)
⋅
M
0
)
=
cos
m
m
∗
1
⋅
Re
(
M
0
)
+
sin
m
m
∗
1
⋅
Re
(
m
M
0
)
=
0
+
0
(
c
a
r
m
⊥
M
0
)
=
0
{\displaystyle {\begin{aligned}\operatorname {Re} {\big (}\gamma (\lambda ){\big )}&=\operatorname {Re} (e^{\lambda m}\cdot M_{0})\\&=\operatorname {Re} {\big (}(\cos _{mm^{*}}1+\sin _{mm^{*}}1\cdot m)\cdot M_{0}{\big )}\\&=\cos _{mm^{*}}1\cdot \operatorname {Re} (M_{0})+\sin _{mm^{*}}1\cdot \operatorname {Re} (mM_{0})\\&=0+0\mathrm {\qquad (car\ m\ \perp \ M_{0})} \\&=0\end{aligned}}}
Donc
γ
{\displaystyle \gamma }
est bien à valeur dans
R
3
{\displaystyle \mathbb {R} ^{3}}
.
Par ailleurs :
∀
λ
∈
R
,
{\displaystyle \forall \lambda \in \mathbb {R} ,}
γ
(
λ
)
γ
(
λ
)
∗
=
(
e
λ
m
⋅
M
0
)
(
e
λ
m
⋅
M
0
)
∗
=
e
λ
m
⋅
M
0
M
0
∗
⋅
e
−
λ
m
=
1
{\displaystyle {\begin{aligned}\gamma (\lambda )\gamma (\lambda )^{*}&={\big (}e^{\lambda m}\cdot M_{0}{\big )}{\big (}e^{\lambda m}\cdot M_{0}{\big )}^{*}\\&=e^{\lambda m}\cdot M_{0}M_{0}^{*}\cdot e^{-\lambda m}\\&=1\end{aligned}}}
Donc
γ
{\displaystyle \gamma }
prend bien ses valeurs parmi les vecteurs unitaires.
Enfin,
γ
{\displaystyle \gamma }
est une fonction continue or, si
K
≤
0
{\displaystyle \mathrm {K} \leq 0}
, il n'existe aucun vecteur unitaire appartenant au plan
z
=
0
{\displaystyle z=0}
, donc
γ
{\displaystyle \gamma }
est à valeur dans
S
{\displaystyle S}
.
En notant
κ
=
m
m
∗
{\displaystyle \kappa =mm^{*}}
et en supposant
sin
κ
1
≠
0
{\displaystyle \sin _{\kappa }1\neq 0}
, on obtient :
γ
(
λ
)
=
1
sin
κ
1
⋅
[
sin
κ
(
1
−
λ
)
⋅
M
0
+
sin
κ
λ
⋅
M
1
]
{\displaystyle \gamma (\lambda )={\frac {1}{\sin _{\kappa }1}}\cdot {\big [}\sin _{\kappa }(1-\lambda )\cdot M_{0}+\sin _{\kappa }\lambda \cdot M_{1}{\big ]}}
Démonstration
1
sin
κ
1
⋅
[
sin
κ
(
1
−
λ
)
⋅
M
0
+
sin
κ
λ
⋅
M
1
]
=
1
sin
κ
1
⋅
[
sin
κ
(
1
−
λ
)
+
sin
κ
λ
⋅
e
m
]
⋅
M
0
=
1
sin
κ
1
⋅
[
(
sin
κ
1
cos
κ
λ
−
cos
κ
1
sin
κ
λ
)
+
sin
κ
λ
⋅
(
cos
κ
1
+
sin
κ
1
⋅
m
)
]
⋅
M
0
=
1
sin
κ
1
⋅
[
sin
κ
1
cos
κ
λ
+
sin
κ
λ
⋅
sin
κ
1
⋅
m
)
]
⋅
M
0
=
(
cos
κ
λ
+
sin
κ
λ
⋅
m
)
⋅
M
0
=
e
λ
m
⋅
M
0
{\displaystyle {\begin{aligned}{\frac {1}{\sin _{\kappa }1}}\cdot {\big [}\sin _{\kappa }(1-\lambda )\cdot M_{0}+\sin _{\kappa }\lambda \cdot M_{1}{\big ]}&={\frac {1}{\sin _{\kappa }1}}\cdot {\big [}\sin _{\kappa }(1-\lambda )+\sin _{\kappa }\lambda \cdot e^{m}{\big ]}\cdot M_{0}\\&={\frac {1}{\sin _{\kappa }1}}\cdot {\big [}(\sin _{\kappa }1\cos _{\kappa }\lambda -\cos _{\kappa }1\sin _{\kappa }\lambda )+\sin _{\kappa }\lambda \cdot (\cos _{\kappa }1+\sin _{\kappa }1\cdot m){\big ]}\cdot M_{0}\\&={\frac {1}{\sin _{\kappa }1}}\cdot {\big [}\sin _{\kappa }1\cos _{\kappa }\lambda +\sin _{\kappa }\lambda \cdot \sin _{\kappa }1\cdot m){\big ]}\cdot M_{0}\\&=(\cos _{\kappa }\lambda +\sin _{\kappa }\lambda \cdot m)\cdot M_{0}\\&=e^{\lambda m}\cdot M_{0}\\\end{aligned}}}
γ
{\displaystyle \gamma }
est une géodésique.
Longueur d'une géodésique de
S
{\displaystyle S}
modifier
Dans cette section, on s'intéresse à la longueur de la géodésique reliant
M
0
{\displaystyle M_{0}}
à
M
1
{\displaystyle M_{1}}
.
En conservant les notations précédentes, et hors cas particulier dans lequel
M
0
{\displaystyle M_{0}}
et
M
1
{\displaystyle M_{1}}
sont colinéaires, le triplet
(
M
0
,
M
1
,
m
)
{\displaystyle (M_{0},M_{1},m)}
est une base de
R
3
{\displaystyle \mathbb {R} ^{3}}
.
Notons
x
0
=
M
0
{\displaystyle x_{0}=M_{0}}
,
x
1
=
M
1
{\displaystyle x_{1}=M_{1}}
, et
x
2
=
m
{\displaystyle x_{2}=m}
; et
x
0
{\displaystyle x^{0}}
,
x
1
{\displaystyle x^{1}}
, et
x
2
{\displaystyle x^{2}}
les formes linéaires qui à un vecteur associe respectivement sa coordonnée en
x
0
{\displaystyle x_{0}}
,
x
1
{\displaystyle x_{1}}
et
x
2
{\displaystyle x_{2}}
.
En utilisant la convention de sommation d'Einstein , tout point
M
∈
R
3
{\displaystyle M\in \mathbb {R} ^{3}}
s'écrit donc de la forme :
M
=
x
i
x
i
{\displaystyle M=x^{i}x_{i}}
Notons enfin
η
i
j
=
Re
(
x
i
x
j
∗
)
=
η
j
i
{\displaystyle \eta _{ij}=\operatorname {Re} (x_{i}x_{j}^{*})=\eta _{ji}}
et
d
s
2
{\displaystyle ds^{2}}
le carré de la longueur d'un arc de géodésique infinitésimal. On calcule alors :
d
s
2
=
η
i
j
d
x
i
d
x
j
=
κ
d
λ
2
{\displaystyle ds^{2}=\eta _{ij}\operatorname {d} x^{i}\operatorname {d} x^{j}=\kappa \operatorname {d} \lambda ^{2}}
Soient
A
,
B
,
C
∈
S
{\displaystyle A,\ B,\ C\in S}
, et soient
a
,
b
,
c
∈
R
3
{\displaystyle a,\ b,\ c\in \mathbb {R} ^{3}}
tels que :
e
a
=
B
C
∗
e
b
=
C
A
∗
e
c
=
A
B
∗
{\displaystyle {\begin{aligned}e^{a}&=BC^{*}\\e^{b}&=CA^{*}\\e^{c}&=AB^{*}\end{aligned}}}
Alors :
cos
a
a
∗
1
=
cos
b
b
∗
1
⋅
cos
c
c
∗
1
+
sin
b
b
∗
1
⋅
sin
c
c
∗
1
⋅
Re
(
b
c
)
{\displaystyle \cos _{aa^{*}}1=\cos _{bb^{*}}1\cdot \cos _{cc^{*}}1+\sin _{bb^{*}}1\cdot \sin _{cc^{*}}1\cdot \operatorname {Re} (bc)}
Démonstration
Par définition,
e
a
e
b
e
c
=
1
{\displaystyle e^{a}e^{b}e^{c}=1}
, donc
e
a
=
e
−
c
e
−
b
{\displaystyle e^{a}=e^{-c}e^{-b}}
.
En utilisant l'identité d'Euler :
cos
a
a
∗
1
+
sin
a
a
∗
1
⋅
a
=
(
cos
b
b
∗
1
−
sin
b
b
∗
1
⋅
b
)
(
cos
c
c
∗
1
−
sin
c
c
∗
1
⋅
c
)
=
cos
b
b
∗
1
⋅
cos
c
c
∗
1
+
sin
b
b
∗
1
⋅
sin
c
c
∗
1
⋅
b
c
−
(
cos
b
b
∗
1
⋅
sin
c
c
∗
1
⋅
c
+
sin
b
b
∗
1
⋅
cos
c
c
∗
1
⋅
b
)
{\displaystyle {\begin{aligned}\cos _{aa^{*}}1+\sin _{aa^{*}}1\cdot a&=(\cos _{bb^{*}}1-\sin _{bb^{*}}1\cdot b)(\cos _{cc^{*}}1-\sin _{cc^{*}}1\cdot c)\\&=\cos _{bb^{*}}1\cdot \cos _{cc^{*}}1+\sin _{bb^{*}}1\cdot \sin _{cc^{*}}1\cdot bc-(\cos _{bb^{*}}1\cdot \sin _{cc^{*}}1\cdot c+\sin _{bb^{*}}1\cdot \cos _{cc^{*}}1\cdot b)\end{aligned}}}
En ne conservant que la partie réelle :
cos
a
a
∗
1
=
cos
b
b
∗
1
⋅
cos
c
c
∗
1
+
sin
b
b
∗
1
⋅
sin
c
c
∗
1
⋅
Re
(
b
c
)
{\displaystyle \cos _{aa^{*}}1=\cos _{bb^{*}}1\cdot \cos _{cc^{*}}1+\sin _{bb^{*}}1\cdot \sin _{cc^{*}}1\cdot \operatorname {Re} (bc)}
Pour tous
A
,
B
,
C
∈
S
{\displaystyle A,\ B,\ C\in S}
:
Re
(
(
C
−
A
)
(
B
−
A
)
∗
)
=
(
1
−
cos
b
b
∗
1
)
(
1
−
cos
c
c
∗
1
)
−
sin
b
b
∗
1
⋅
sin
c
c
∗
1
⋅
Re
(
b
c
)
{\displaystyle \operatorname {Re} {\Big (}(C-A)(B-A)^{*}{\Big )}=(1-\cos _{bb^{*}}1)(1-\cos _{cc^{*}}1)-\sin _{bb^{*}}1\cdot \sin _{cc^{*}}1\cdot \operatorname {Re} (bc)}
Démonstration
Re
(
(
C
−
A
)
(
B
−
A
)
∗
)
=
(
1
+
cos
a
a
∗
1
)
−
(
cos
b
b
∗
1
+
cos
c
c
∗
1
)
=
(
1
−
cos
b
b
∗
1
)
(
1
−
cos
c
c
∗
1
)
−
cos
b
b
∗
1
⋅
cos
c
c
∗
1
+
cos
a
a
∗
1
=
(
1
−
cos
b
b
∗
1
)
(
1
−
cos
c
c
∗
1
)
−
sin
b
b
∗
1
⋅
sin
c
c
∗
1
{\displaystyle {\begin{aligned}\operatorname {Re} {\Big (}(C-A)(B-A)^{*}{\Big )}&=(1+\cos _{aa^{*}}1)-(\cos _{bb^{*}}1+\cos _{cc^{*}}1)\\&=(1-\cos _{bb^{*}}1)(1-\cos _{cc^{*}}1)-\cos _{bb^{*}}1\cdot \cos _{cc^{*}}1+\cos _{aa^{*}}1\\&=(1-\cos _{bb^{*}}1)(1-\cos _{cc^{*}}1)-\sin _{bb^{*}}1\cdot \sin _{cc^{*}}1\end{aligned}}}
En conservant les notations précédentes :
(
Im
(
b
c
)
sin
a
a
∗
1
)
2
=
(
Im
(
c
a
)
sin
b
b
∗
1
)
2
=
(
Im
(
a
b
)
sin
c
c
∗
1
)
2
{\displaystyle {\Bigg (}{\frac {\operatorname {Im} (bc)}{\sin _{aa^{*}}1}}{\Bigg )}^{2}={\Bigg (}{\frac {\operatorname {Im} (ca)}{\sin _{bb^{*}}1}}{\Bigg )}^{2}={\Bigg (}{\frac {\operatorname {Im} (ab)}{\sin _{cc^{*}}1}}{\Bigg )}^{2}}
Fourre-tout annexe
modifier
Espaces tangents
T
M
S
{\displaystyle T_{M}S}
modifier
Pour tout
M
∈
S
{\displaystyle M\in S}
, on note
T
M
S
{\displaystyle T_{M}S}
l'espace tangent à
S
{\displaystyle S}
en
M
{\displaystyle M}
.
Pour tout
K
≠
0
{\displaystyle \mathrm {K} \neq 0}
,
k
∈
S
{\displaystyle k\in S}
et
i
{\displaystyle i}
et
j
{\displaystyle j}
sont deux vecteurs formant une base orthogonale de
T
k
S
{\displaystyle T_{k}S}
.
De même, pour tout
w
∈
S
{\displaystyle w\in S}
,
(
−
w
j
,
w
i
)
{\displaystyle (-wj,\ wi)}
est une base orthogonale de
T
w
S
{\displaystyle T_{w}S}
.
Transport parallèle sur
S
{\displaystyle S}
modifier
Soient
M
0
,
M
1
∈
S
{\displaystyle M_{0},\ M_{1}\in S}
, soit
m
∈
R
3
{\displaystyle m\in \mathbb {R} ^{3}}
, tel que
e
m
=
M
1
M
0
∗
{\displaystyle e^{m}=M_{1}M_{0}^{*}}
.
Soit
M
:
λ
↦
e
λ
m
⋅
M
0
{\displaystyle M:\lambda \mapsto e^{\lambda m}\cdot M_{0}}
.
Alors, pour tout
λ
∈
R
{\displaystyle \lambda \in \mathbb {R} }
,
(
m
M
(
λ
)
,
m
,
M
(
λ
)
)
{\displaystyle {\big (}mM(\lambda ),\ m,\ M(\lambda ){\big )}}
est une base orthogonale de
R
3
{\displaystyle \mathbb {R} ^{3}}
et
(
m
M
(
λ
)
,
m
)
{\displaystyle {\big (}mM(\lambda ),\ m{\big )}}
est une base orthogonale de
T
M
(
λ
)
S
{\displaystyle T_{M(\lambda )}S}
.
En particulier,
(
m
M
(
λ
)
)
(
m
M
(
λ
)
)
∗
=
m
m
∗
{\displaystyle {\big (}mM(\lambda ){\big )}{\big (}mM(\lambda ){\big )}^{*}=mm^{*}}
donc tous les vecteurs de tous les
T
M
(
λ
)
S
{\displaystyle T_{M(\lambda )}S}
ont la même orientation.
On peut ainsi transporter parallèlement un vecteur
u
{\displaystyle u}
le long de la courbe
M
{\displaystyle M}
:
∃
μ
∈
R
,
∃
ρ
∈
R
+
,
∀
λ
∈
R
,
u
(
λ
)
=
ρ
⋅
e
μ
M
(
λ
)
⋅
M
′
(
λ
)
{\displaystyle \exists \ \mu \in \mathbb {R} ,\ \exists \ \rho \in \mathbb {R} _{+},\ \forall \ \lambda \in \mathbb {R} ,\ u(\lambda )=\rho \cdot e^{\mu M(\lambda )}\cdot M'(\lambda )}
Triangle sur
S
{\displaystyle S}
modifier
Soient
A
,
B
,
C
∈
S
{\displaystyle A,\ B,\ C\in S}
, et soient
a
,
b
,
c
∈
R
3
{\displaystyle a,\ b,\ c\in \mathbb {R} ^{3}}
tels que :
e
a
=
B
C
∗
e
b
=
C
A
∗
e
c
=
A
B
∗
{\displaystyle {\begin{aligned}e^{a}&=BC^{*}\\e^{b}&=CA^{*}\\e^{c}&=AB^{*}\end{aligned}}}
On définit :
Γ
a
:
λ
↦
e
λ
a
⋅
C
Γ
b
:
λ
↦
e
λ
b
⋅
A
Γ
c
:
λ
↦
e
λ
c
⋅
B
{\displaystyle {\begin{aligned}\Gamma _{a}&:\lambda \mapsto e^{\lambda a}\cdot C\\\Gamma _{b}&:\lambda \mapsto e^{\lambda b}\cdot A\\\Gamma _{c}&:\lambda \mapsto e^{\lambda c}\cdot B\\\end{aligned}}}
On supposera que
Γ
a
{\displaystyle \Gamma _{a}}
,
Γ
b
{\displaystyle \Gamma _{b}}
et
Γ
c
{\displaystyle \Gamma _{c}}
sont des géodésiques.
On s'intéresse au lacet
B
→
A
→
C
→
B
{\displaystyle B\rightarrow A\rightarrow C\rightarrow B}
le long de ces géodésiques, et à l'holonomie induite.
Prenons
μ
c
=
0
{\displaystyle \mu _{c}=0}
,
ρ
c
=
1
{\displaystyle \rho _{c}=1}
et définissons
u
c
=
ρ
c
⋅
e
μ
c
Γ
c
⋅
Γ
c
′
=
ρ
c
⋅
e
μ
c
Γ
c
⋅
c
⋅
Γ
c
{\displaystyle u_{c}=\rho _{c}\cdot e^{\mu _{c}\Gamma _{c}}\cdot \Gamma _{c}'=\rho _{c}\cdot e^{\mu _{c}\Gamma _{c}}\cdot c\cdot \Gamma _{c}}
.
Alors
u
c
(
1
)
=
c
⋅
Γ
c
(
1
)
=
c
A
{\displaystyle u_{c}(1)=c\cdot \Gamma _{c}(1)=cA}
et on cherche
μ
b
{\displaystyle \mu _{b}}
et
ρ
b
{\displaystyle \rho _{b}}
tels que
u
c
(
1
)
=
ρ
b
⋅
e
μ
b
Γ
b
(
0
)
⋅
b
⋅
Γ
b
(
0
)
=
ρ
b
⋅
e
μ
b
A
⋅
b
⋅
A
{\displaystyle u_{c}(1)=\rho _{b}\cdot e^{\mu _{b}\Gamma _{b}(0)}\cdot b\cdot \Gamma _{b}(0)=\rho _{b}\cdot e^{\mu _{b}A}\cdot b\cdot A}
.
On cherche donc
μ
b
{\displaystyle \mu _{b}}
et
ρ
b
{\displaystyle \rho _{b}}
tels que
ρ
b
⋅
e
μ
b
A
=
c
b
∗
(
b
b
∗
)
{\displaystyle \rho _{b}\cdot e^{\mu _{b}A}={\frac {cb^{*}}{(bb^{*})}}}
, ce qui n'est possible que si
c
c
∗
=
ρ
b
2
≥
0
{\displaystyle cc^{*}=\rho _{b}^{2}\geq 0}
, or cela n'est pas garanti.
{
T
w
S
→
T
w
′
S
p
↦
(
w
′
w
∗
)
⋅
p
{\displaystyle \left\{{\begin{array}{cl}T_{w}S&\to &T_{w'}S\\p&\mapsto &(w'w^{*})\cdot p\end{array}}\right.}
Heuristique sur la loi des cosinus
modifier
Comme nous l'avons vu plus haut,
a
a
∗
{\displaystyle aa^{*}}
,
b
b
∗
{\displaystyle bb^{*}}
et
c
c
∗
{\displaystyle cc^{*}}
donnent le carré des longueurs des arcs de géodésique reliant respectivement
B
{\displaystyle B}
à
C
{\displaystyle C}
,
A
{\displaystyle A}
à
C
{\displaystyle C}
, et
A
{\displaystyle A}
à
B
{\displaystyle B}
. Nous noterons ces arcs de géodésique respectivement
B
C
⌢
{\displaystyle {\overset {\displaystyle \frown }{BC}}}
,
A
C
⌢
{\displaystyle {\overset {\displaystyle \frown }{AC}}}
et
A
B
⌢
{\displaystyle {\overset {\displaystyle \frown }{AB}}}
.
Par ailleurs,
Re
(
b
c
)
{\displaystyle \operatorname {Re} (bc)}
caractérise le cosinus de l'angle que forment les géodésiques
A
C
⌢
{\displaystyle {\overset {\displaystyle \frown }{AC}}}
et
A
B
⌢
{\displaystyle {\overset {\displaystyle \frown }{AB}}}
.
En effet,
b
{\displaystyle b}
et
c
{\displaystyle c}
sont orthogonaux à
A
{\displaystyle A}
donc appartiennent à
T
A
S
{\displaystyle T_{A}S}
. De même pour
b
A
=
γ
b
′
(
0
)
{\displaystyle bA=\gamma '_{b}(0)}
et
c
A
=
γ
c
′
(
0
)
{\displaystyle cA=\gamma '_{c}(0)}
. Alors, en supposant que l'arc de géodésique est décrit par la fonction
γ
{\displaystyle \gamma }
définie ci-dessus, l'angle entre les arcs de géodésique est l'angle entre ces deux vecteurs, donc son cosinus vaut
1
(
b
b
∗
)
(
c
c
∗
)
Re
(
b
c
)
{\displaystyle {\frac {1}{\sqrt {(bb^{*})(cc^{*})}}}\operatorname {Re} (bc)}
.
Paramétrisation de
S
{\displaystyle S}
modifier
On peut paramétrer notre sphère unité :
v
∈
R
3
,
v
v
∗
=
1
⟺
∃
s
∈
R
,
θ
∈
R
/
(
2
π
Z
)
,
v
=
cos
θ
⋅
sin
K
s
⋅
i
+
sin
θ
⋅
sin
K
s
⋅
j
+
cos
K
s
⋅
k
{\displaystyle v\in \mathbb {R} ^{3},\ vv^{*}=1\iff \exists \ s\in \mathbb {R} ,\ \theta \in \mathbb {R} /(2\pi \mathbb {Z} ),\ v=\cos \theta \cdot \sin _{\mathrm {K} }s\cdot i+\sin \theta \cdot \sin _{\mathrm {K} }s\cdot j+\cos _{\mathrm {K} }s\cdot k}
Le couple
(
s
,
θ
)
{\displaystyle (s,\ \theta )}
est unique à une involution près :
(
s
,
θ
)
∼
(
−
s
,
θ
+
(
2
π
)
/
2
)
{\displaystyle (s,\ \theta )\sim (-s,\ \theta +(2\pi )/2)}
, sauf pour le point
(
0
,
0
,
1
)
{\displaystyle (0,0,1)}
.
Étude des transformations du groupe spécial orthogonal
modifier
Avec une base orthogonale
modifier
Supposons deux vecteurs orthogonaux
u
0
{\displaystyle u_{0}}
et
w
{\displaystyle w}
, et posons :
u
:
{
R
→
R
3
λ
↦
R
λ
w
(
u
0
)
=
e
λ
w
⋅
u
0
{\displaystyle u:\left\{{\begin{array}{cl}\mathbb {R} &\to &\mathbb {R} ^{3}\\\lambda &\mapsto &R_{\lambda w}(u_{0})=e^{\lambda w}\cdot u_{0}\end{array}}\right.}
v
:
{
R
→
R
3
λ
↦
Im
(
w
⋅
R
λ
w
(
u
0
)
)
=
w
⋅
e
λ
w
⋅
u
0
{\displaystyle v:\left\{{\begin{array}{cl}\mathbb {R} &\to &\mathbb {R} ^{3}\\\lambda &\mapsto &\operatorname {Im} {\big (}w\cdot R_{\lambda w}(u_{0}){\big )}=w\cdot e^{\lambda w}\cdot u_{0}\end{array}}\right.}
Alors
u
{\displaystyle u}
et
v
{\displaystyle v}
vérifient :
u
u
∗
=
u
0
u
0
∗
{\displaystyle uu^{*}=u_{0}u_{0}^{*}}
v
v
∗
=
v
0
v
0
∗
=
(
w
w
∗
)
(
u
0
u
0
∗
)
{\displaystyle vv^{*}=v_{0}v_{0}^{*}=(ww^{*})(u_{0}u_{0}^{*})}
u
v
=
u
0
v
0
=
(
u
0
u
0
∗
)
⋅
w
{\displaystyle uv=u_{0}v_{0}=(u_{0}u_{0}^{*})\cdot w}
avec
v
0
=
w
u
0
{\displaystyle v_{0}=wu_{0}}
. En particulier,
Re
(
u
v
)
=
0
{\displaystyle \operatorname {Re} (uv)=0}
, il y a donc orthogonalité des images.
Par ailleurs :
d
u
d
λ
=
v
{\displaystyle {\frac {\operatorname {d} u}{\operatorname {d} \lambda }}=v}
d
v
d
λ
=
−
(
w
w
∗
)
⋅
u
{\displaystyle {\frac {\operatorname {d} v}{\operatorname {d} \lambda }}=-(ww^{*})\cdot u}
Donc, toute fonction
p
{\displaystyle p}
combinaison linéaire de
u
{\displaystyle u}
et
v
{\displaystyle v}
vérifie l'équation différentielle suivante :
d
2
p
d
λ
2
+
(
w
w
∗
)
⋅
p
=
0
{\displaystyle {\frac {\operatorname {d^{2}} p}{\operatorname {d} \lambda ^{2}}}+(ww^{*})\cdot p=0}