On commence par rappeler la définition de l'algèbre de Clifford avec les conventions qu'on utilisera dans la suite.
Soit $V$ un $\mathbb{R}$ espace vectoriel de dimension $n$ et $q$ une forme quadratique sur $V$ non-dégénérée de signature $(s,r)$. I.e. il y a une isométrie avec à $\mathbb{R}^{s+r}$ de base canonique $(e_1,\dots, e_s, \varepsilon_1, \varepsilon_r)$ muni de la forme bilinéaire symétrique: $$ \phi= \sum_{i=1}^r e_i^*\odot e_i^* - \sum_{j=1}^s \varepsilon_i^*\odot \varepsilon_i^*.$$
L'algèbre de Clifford $\mathcal{Cl}_q(V)$ est l'algèbre associative unifère réelle la plus "libre" munie d'une application linéaire $j: V \rightarrow \mathcal{Cl}_q(V) $ telle que: $$ j(v)^2=-q(v)\cdot 1.$$
On note $\mathcal{Cl}_{s,r}(\mathbb{R})$ l'algèbre de Clifford de $\mathbb{R}^{s+r}$ munie de la forme quadratique de signature $(s,r)$ canonique.
On peut montrer que: $$ \begin{gathered} \mathcal{Cl}_{1,1}(\mathbb{R})\cong \mathbb{R}(2)=M_2(\mathbb{R}),\\ \mathcal{Cl}_{0,1}(\mathbb{R})\cong \mathbb{R}\oplus \mathbb{R}. \end{gathered}$$
Enfin: $$\mathcal{Cl}_{1,2}(\mathbb{R})\cong \mathcal{Cl}_{0,1}(\mathbb{R})\otimes \mathcal{Cl}_{1,1}(\mathbb{R}) \cong (\mathbb{R}\oplus \mathbb{R})\otimes \mathbb{R}(2)\cong \mathbb{R}(2)\oplus \mathbb{R}(2).$$
Afin de reconnaître le groupe spin, il faut bien sûr savoir réaliser les isomorphismes explicitement, ce que nous allons décrire maintenant:
Ecrivons $\varepsilon'_1$ la base canonique de $\mathbb{R}^{0+1}$, l'isomorphisme est réalisée le morphisme d'algèbres déterminé par: $\varepsilon'_1 \mapsto (1,-1)$.
(Le produit sur $\mathbb{R}\oplus \mathbb{R}$ est le produit terme à terme)
Écrivons $(e''_1,\varepsilon''_1)$ la base canonique de $\mathbb{R}^{1+1}$, on réalise l'isomorphisme par:
$$\begin{gathered} e''_1\mapsto \begin{pmatrix}0 & 1 \\ -1 & 0 \end{pmatrix}, \\ \varepsilon''_1 \mapsto \begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix} \end{gathered}$$On vérifie sans difficulté que les matrices vérifient bien les relations de Clifford.
%display latex
A=matrix([[0,1],[-1,0]])
A, A^2
B=matrix([[1,0],[0,-1]])
B,B^2
C=A*B; C
Notons $e_1,\varepsilon_1, \varepsilon_2$ la base canonique de $\mathbb{R}^{1+2}$, alors on réalise l'isomorphisme de la manière suivante:
$$\begin{gathered}e_1 \mapsto 1\otimes e''_1 \\ \varepsilon_1 \mapsto\varepsilon_1'\otimes e''_1\varepsilon_1''\\ \varepsilon_2 \mapsto 1\otimes \varepsilon''_1 \end{gathered}$$Combinant tous les isomorphismes précédents arrive à l'identification: $$\begin{gathered} e_1 \mapsto \left( \begin{pmatrix}0 & 1 \\ -1 & 0 \end{pmatrix},\begin{pmatrix}0 & 1 \\ -1 & 0 \end{pmatrix} \right)\\ \varepsilon_1 \mapsto \left( \left(\begin{array}{rr} 0 & -1 \\ -1 & 0 \end{array}\right), \left(\begin{array}{rr} 0 & 1 \\ 1 & 0 \end{array}\right)\right) \\ \varepsilon_2 \mapsto \left(\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix},\begin{pmatrix}1 & 0 \\ 0 & -1 \end{pmatrix} \right) \end{gathered}, $$
Soit $\alpha$ le morphisme d'algèbres determiné sur les générateurs par: $\alpha(v)=-v$, $Cl^0_{1,2}(\mathbb{R})=\ker (\alpha - \textrm{id})$. C'est donc généré linéairement par les produits d'un nombre pair de générateurs. Voici en une base:
I=matrix.identity(2); I,I
A*C,-A*C # e1*epsilon1 = (-epsilon''_1,epsilon''_1) =(-B,B)
A*B,A*B #e1*epsilon2 = (e''_1epsilon''_1, e''_1epsilon''_1) =(C,C)
C*B,-C*B # epsilon1*epsilon2 = (e''_1,-e''_1) = (A,-A)
Remarquons que:
-1/2*(A+C),1/2*(A-C), 1/2*(B+I),1/2*(I-B)
Donc un élément général de la sous-algèbre peut s'écrire:
var('a,b,c,d')
-a/2*(-B-I)+b/2*(A-C)+d/2*(I-B)-c/2*(A+C), -a/2*(B-I)+b/2*(-C-A)+d/2*(I+B)-c/2*(-A+C)
Il existe dans une algèbre de Clifford, un antimorphisme canonique noté ${}^t$, qui agit sur des produits de générateurs en renversant l'ordre des produits. i.e. $$ {}^t(e_1\varepsilon_1)=\varepsilon_1e_1.$$ On définit le conjugué d'un élément $x$ par: $$\bar{x}=\alpha({}^t x)$$ et la norme: $$N(x)= x\bar{x}.$$ Calculons la norme d'un élément quelconque dans l'algèbre paire, et essayons de faire le lien avec la représentation matricielle.
q=QuadraticForm(SR,3,[-1,0,0,1,0,1]); q.matrix() ## problème avec Sage la matrice est fausse
Cl.<e_1,epsilon_1,epsilon_2>=CliffordAlgebra(q) # l'erreur ne se répercute heureusement pas sur l'algèbre de Clifford
e_1^2, epsilon_1^2, epsilon_2^2 # test, noter que les auteurs de Sage utilisent les conventions opposées aux miennes
L'élément de l'algèbre de Lie avec la matrice $\begin{pmatrix}a&b\\ c&d \end{pmatrix}$ en première composante correspond à:
x=a/2*(1-e_1*epsilon_1)+b/2*(epsilon_1*epsilon_2-e_1*epsilon_2)-c/2*(e_1*epsilon_2+epsilon_1*epsilon_2)+d/2*(1+e_1*epsilon_1)
x
#Calculons sa norme
n=x*x.conjugate()
n.list()[0][1].simplify_full()
La norme s'identifie ainsi au determinant de l'une des deux matrices, et les éléments de norme 1 s'identifient à: $$SL_2(\mathbb{R}).$$
Cela prouve l'inclusion: $$\textrm{Spin}(1,2)\subset SL_2(\mathbb{R}).$$
N.B: $\textrm{Spin}(1,2)$ est un rêvetement à deux feuillets de la composante connexe de l'identité du groupe $SO(1,2)$, i.e. le groupe orthochrone
Vérifions cette inclusion par le calcul, en étudiant la forme générale du produit de deux vecteurs unitaires $v$ et $w$ de $\mathbb{R}^{1+2}.$
var('v1,v2,v3,w1,w2,w3')
v=v1*e_1+v2*epsilon_1+v3*epsilon_2
w=w1*e_1+w2*epsilon_1+w3*epsilon_2
v*w
Calculons la norme de $vw$, c'est à dire $vw\alpha({}^t(vw))$
(v*w)*(v*w).conjugate()
Traduisons cela en termes de la représentation matricielle, introduisons d'abord la base de l'algèbre de Clifford paire compatible cette dernière :
#Basis compatible with matrix representation
# E11, E12, E21, E22
B=[1/2*(1-e_1*epsilon_1),1/2*(epsilon_1*epsilon_2-e_1*epsilon_2),-1/2*(e_1*epsilon_2+epsilon_1*epsilon_2),1/2*(1+e_1*epsilon_1)]
On construit ensuite la matrice de passage automatiquement:
# Construction de la transformation matrix : coefficients dans la base "canonique" de l'algèbre de Clifford
B[0].dense_coefficient_list()
# 1, e_1, e_1*epsilon_1, e_1*epsilon_1*epsilon_2, e_1*epsilon_2, epsilon_1, epsilon_1*epsilon_2 ,epsilon_2
l=B[0].dense_coefficient_list(); l
#Calculate change of basis matrix
P=matrix([B[index].dense_coefficient_list()[0:7:2] for index in range(4)]).transpose()
Déterminons les coordonnées de $vw$ dans la base adaptée:
old=matrix((v*w).dense_coefficient_list()[0:7:2])
new=P.inverse()*old.transpose() # coefficients dans la base adaptée à la representation matricielle [E11,E12,E21,E22]
new
#Vérification que cela se passe bien
x=sum(new[index][0]*B[index] for index in range(4));x
v*w-x
Enfin, on construit la matrice associée:
# Matrice representation
M=matrix([[new[0][0],new[1][0]],[new[2][0],new[3][0]]])
M
Vérifions que son déterminant est $1$.
M.determinant().simplify_full()
# on vérifie que le déterminant c'est bon
((v*w)*(v*w).conjugate()).coefficients()[0].simplify_full()
# Autre vérification des calculs (ordre des coefficients)
x=a/2*(1-e_1*epsilon_1)+b/2*(epsilon_1*epsilon_2-e_1*epsilon_2)-c/2*(e_1*epsilon_2+epsilon_1*epsilon_2)+d/2*(1+e_1*epsilon_1)
P=matrix([B[index].dense_coefficient_list()[0:7:2] for index in range(4)]).transpose()
old=matrix((x).dense_coefficient_list()[0:7:2])
new=P.inverse()*old.transpose()
matrix([[new[0][0],new[1][0]],[new[2][0],new[3][0]]])
# Conclusion la matrice correspondant au produit de deux vecteurs
M
L'expression: $${\left(v_{1}^{2} - v_{2}^{2} - v_{3}^{2}\right)} w_{1}^{2} - {\left(v_{1}^{2} - v_{2}^{2} - v_{3}^{2}\right)} w_{2}^{2} - {\left(v_{1}^{2} - v_{2}^{2} - v_{3}^{2}\right)} w_{3}^{2}$$ permet de retrouver le fait que si les deux vecteurs sont unitaires et de même type alors ceci est bien un élément de $SL_2(\mathbb{R})$. On peut aussi demander à Sage de le vérifier, supposons par exemple que $q(v)=q(w)=-1$
#q(v)=q(w)=-1
M.determinant().simplify_full().subs(v1^2-v2^2-v3^2==-1).subs(-w1^2+w2^2+w3^2==1)
#q(v)=q(w)=1
M.determinant().simplify_full().subs(v1^2-v2^2-v3^2==1).subs(w1^2-w2^2-w3^2==1)
M
Pour prouver cette inclusion nous allons nous appuyer sur une généralisation des angles d'Euler. En effet, nous allons montrer qu'un élément général de $\textrm{SO}_0(1,2)$ peut s'écrire comme la composée de $2$ rotations et un boost. Pour cela, introduisons une base $(x,y,z)$ fixé, que nous supposerons orthonormée directe. Un élément de $\textrm{S0}_0(1,2)$ transforme cette base en une base $(x',y',z')$ du même type telles que $x$ et $x'$ sur la même nappe de l'hyperbolöide formé par les vecteurs unitaires.
Notons $n$ un vecteur unitaire $q(n)=-1$ dans $\{x\}^\perp\cap \{x'\}^\perp$. On pourrait choisir un vecteur que l'on noterait $x\wedge x'$, en calquant la définition du produit vectoriel grâce à l'isomorphisme $\rho$ et le produit mixte (qui ne dépend que de l'orientation). Ce vecteur permet d'orienter le plan de signature $(1,1)$ engendré par x et x' et on peut alors parler d'angle hyperbolique orienté entre ces deux vecteurs dans ce plan. Notons cet angle $\psi$.
$n$ est par ailleurs contenu dans le plan euclidien $(y,z)$, que l'on peut orienté par $x$ et on note alors $\theta$ l'angle orienté $\widehat{(y,n)}$.
Il est également contenu dans le plan euclidien $(y',z')$ orienté par $x'$ et on peut noter $\phi$ l'angle orienté $\widehat{(n,y')}$
Décrivons comment envoyer la base $(x,y,z)$ sur la base $(x',y',z)$.
Cela transforme la base $\mathcal{B}_1=(x,y,z)$ en la base $\mathcal{B}_2=(x,n,-x\wedge n)$.
Cela envoie la base $\mathcal{B}_2=(x,n,-x\wedge n)$ sur la base $\mathcal{B}_3=(x',n,-x'\wedge n)$.
Cela envoie la base $\mathcal{B}_3=(x',n,-x'\wedge n)$ sur la base $\mathcal{B}_4=(x',y',z')$.
(Les signes $-$ sont une conséquence de la signature)
La matrice de la transformation qui envoie $(x,y,z)$ sur $(x',y',z')$ exprimée dans la base $(x,y,z)$ est la même chose que la matrice de passage de $\mathcal{B}_1$ $\mathcal{B}_4$.
Or, les matrices de passage se composent en sens inverse:
$$P_{\mathcal{B}_1 \to \mathcal{B}_4}=\textrm{Mat}_{\mathcal{B_4},\mathcal{B_1}}(id)=\textrm{Mat}_{\mathcal{B}_2,\mathcal{B}_1}(id)\textrm{Mat}_{\mathcal{B}_3,\mathcal{B}_2}(id)\textrm{Mat}_{\mathcal{B}_4,\mathcal{B}_3}(id)=P_{\mathcal{B}_1\to \mathcal{B}_2}P_{\mathcal{B}_2\to \mathcal{B}_3}P_{\mathcal{B}_3 \to \mathcal{B}_4}$$Ainsi la matrice de la transformation dans la base $(x,y,z)$ se décompose ainsi:
$$\begin{pmatrix} 1 & 0 & 0 \\ 0 & \cos \theta & -\sin \theta \\ 0 & \sin \theta &\cos \theta \end{pmatrix} \begin{pmatrix}\cosh \psi & 0 & \sinh \psi \\ 0 & 1 & 0 \\ \sinh \psi & 0 &\cosh \psi \end{pmatrix}\begin{pmatrix}1 & 0 & 0 \\ 0 & \cos \phi & -\sin \phi \\ 0 & \sin \phi & \cos \phi \end{pmatrix}.$$Cette écriture matricielle montre que la transformation est alors la composée de deux rotations d'axe $x$ et d'un boost d'axe $y$.
Dans $\mathbb{R}^{1+2}$ on peut choisir comme base fixe notre base $(e_1,\varepsilon_1,\varepsilon_2)$. On sait que toute transformation de $SO_0(1,2)$ est alors la composée de deux rotations d'axe $e_1$ et d'un boost d'axe $e_2$.
Pour cela il suffit de savoir comment décomposer une rotation d'axe $e_0$, ainsi qu'un boost d'axe $\varepsilon_1$, en produits de réflexions. C'est très semblable au cas euclidien.
Une rotation d'angle $\theta$ et d'axe $e_1$ est la composition de la réflexion par rapport à $\{\varepsilon_1\}^\perp$ et la réfléxion par rapport au plan $\{\cos\frac{\theta}{2} \varepsilon_1 + \sin\frac{\theta}{2} \varepsilon_2 \}^{\perp}$
Un boost d'angle $\psi$ et d'axe $\varepsilon_1$ est la composée de la refléxion par rapport ${e_1}^\perp$ et de la réflexion par rapport au plan $\{\cosh\frac{\psi}{2} \{e_1\}^\perp + \sinh\frac{\psi}{2} \varepsilon_2\}^\perp$
On va déterminer des éléments de l'algèbre de Clifford correspondants à ces transformations.
var('theta,psi,phi')
x=cos(theta/2)*epsilon_1 + sin(theta/2)*epsilon_2
y=cosh(psi/2)*e_1 + sinh(psi/2)*epsilon_2
z=cos(phi/2)*epsilon_1+sin(phi/2)*epsilon_2
q1= x*epsilon_1; q1
q2 =y*e_1; q2
q3= z*epsilon_1; q3
Le produit de ces trois éléments donnera un élement couvrant la transformation.
Q=q1*q2*q3; Q
Changeons de base et regardons à quoi ressemble la matrice de $SL(2)$ correspondant.
old=matrix(Q.dense_coefficient_list()[0:7:2]) # anciennes coordonnées
for ind in range(4) : old[0,ind]=old[0,ind].simplify_full()
new=P.inverse()*old.transpose()
new
matrix([[new[0][0],new[1][0]],[new[2][0],new[3][0]]])
Malheureusement Sage ne voit pas les factorisations, mais on peut les faire à la main.
new1=matrix([[-cosh(psi/2)*cos((theta+phi)/2)+sinh(psi/2)*sin((phi-theta)/2)],[sin((theta+phi)/2)*cosh(psi/2)+sinh(psi/2)*cos((phi-theta)/2)],[-cosh(psi/2)*sin((theta+phi)/2)+cos((phi-theta)/2)*sinh(psi/2)],[-cosh(psi/2)*cos((theta+phi)/2)-sinh(psi/2)*sin((phi-theta)/2)]])
A=matrix([[new1[0][0],new1[1][0]],[new1[2][0],new1[3][0]]]);A
A.determinant().simplify_full() # petite vérification
#Vérification de mes factorisations
for index in range(4):
print ((new[index,0]-new1[index,0]).simplify_full())
0 0 0 0
A
Pour terminer la preuve il nous "reste" à vérifier qu'un élément général de $SL(2)$ peut se paramétriser de cette façon.
Soit $A=\begin{pmatrix}a & b \\ c& d \end{pmatrix}$ avec $ad-bc=1$ et supposons qu'elle admette une paramétrisation de la forme souhaitée, alors on peut montrer les relations suivantes:
$$\begin{gathered} \cosh \psi = \frac{1}{2} (a^2+b^2+c^2+d^2) \\ ab+dc = - \sinh \psi \cos \phi \\ db+ac= -\sinh \psi \cos\theta \\ a^2+b^2-(c^2+d^2)=2\sinh\psi \sin \theta \\ b^2-c^2-a^2+d^2=2\sinh \psi \sin \phi \\ \cos(\frac{\phi+\theta}{2}) = - \frac{(a+d)}{\sqrt{a^2+b^2+c^2+d^2+2}}\\ \sin(\frac{\phi+\theta}{2}) = \frac{(b-c)}{\sqrt{a^2+b^2+c^2+d^2+2}}\\ \sin(\phi + \theta) = -\frac{2(a+d)(b-c)}{a^2+b^2+c^2+d^2+2}\\ \cos(\phi + \theta)=\frac{(a+d)^2-(b-c)^2}{a^2+b^2+c^2+d^2+2} \\ 2\sinh^2\frac{\psi}{2}\sin(\phi-\theta)=(a-d)(b+c) \\ 4\sinh^2\frac{\psi}{2}\cos(\phi-\theta)=(b+c)^2-(a-d)^2 \end{gathered}$$Remarquons que: $(a+b+c-d)^2=a^2+b^2+c^2+d^2 +2ab +2ac-2ad +2bc-2bd-2cd$ $(a-b-c-d)^2=a^2+b^2+c^2+d^2 -2ab -2ac -2ad +2bc +2bd+2cd$
Ce qui montre que: $(a^2+b^2+c^2+d^2) \geq 2$.
S'il y a égalité alors: $(a+b+c-d)^2+(a-b-c-d)^2=0$, autrement dit: $$a+b+c-d =0$$ et $$(a-b-c-d)=0$$ i.e. $a=d$ et $b=-c$.
On retiendra alors que $a^2+b^2+c^2+d^2 \geq 2$ avec égalité si et seulement si $a=d$ et $b=-c$.
Il s'ensuit que nécessairement $\cosh \psi =1$ et $\sinh \psi =0$ donc $\psi=0$. La plupart des équations deviennent triviales, laissant de la liberté dans le choix des angles. On peut, par exemple, choisir $\theta=0$, $\phi$ est alors uniquement déterminé à $2\pi$ près dans ce cas là: $$\begin{gathered}\sin \phi=-2ab \\ \cos \phi=a^2-b^2 \end{gathered}$$
Il existe une paramétrisation de la forme désirée dans ce cas.
Dans ce cas, on doit nécessairement avoir $\sinh \frac{\psi}{2} \neq 0$, donc $\psi \neq 0$. Le signe de $\psi$ peut être choisi arbitrairement, disons $\sinh \psi >0$, dans ce cas là:
$$\sinh \psi = \frac{1}{2}\sqrt{(a^2+b^2+c^2+d^2)^2-4}>0$$et on peut déterminer $\phi$ et $\theta$ à $2\pi$ près.
Cela justifie l'existence d'une paramétrisation de la forme souhaitée pour tout élément de $SL_2(\mathbb{R})$ et montre alors l'inclusion: $$SL(2,\mathbb{R})\subset \textrm{Spin}(1,2).$$