Parte I Cromodinâmica Quântica

Transcrição

Parte I Cromodinâmica Quântica
Parte I
Cromodinâmica Quântica
1
Capı́tulo 1
Aspectos operacionais do grupo
SU (3)
As idéias de quark e glúon - as partı́culas fundamentais que interagem fortemente - têm
uma história determinada pelo conhecimento das representações do grupo SU (3). Neste
capı́tulo iremos definir este grupo de Lie e estudar aspectos básicos de suas representações,
para podermos identificar os argumentos que levaram à classificação dos hádrons (as
partı́culas que interagem através da interação forte) segundo essas representações.
1.1
Definição de SU (3) e de sua álgebra de Lie
Considere matrizes 3 × 3 com entradas complexas atuando num espaço vetorial 3-dimensional sobre os complexos. Neste espaço temos um produto escalar definido


v
 1 
X


∗
u·v =
ui vi = u∗1 u∗2 u∗3  v2  .


i
v3
(1.1)
Perguntamos qual é a transformação linear mais geral, sobre todos os vetores do espaço
em questão, que deixa invariante este produto escalar. Em outras palavras, se u0 = Ru e
v 0 = Rv, quem são os R’s tais que
u0 · v 0 = u · v
2
(1.2)
(isto implica na transformação em questão ser uma isometria da métrica induzida pelo
produto escalar). Utilizando a notação matricial acima

0
0
u ·v =
u∗1 u∗2 u∗3
R
t ∗

=
u∗1 u∗2

v
 1 


R  v2 


v3

(1.3)
v
 1 


u∗3  v2  ,


v3
Como isto deve ser verdade para u e v arbitrários,
Rt
∗
R = R† R = I
(1.4)
⇒ R−1 = R† ,
o que define R como uma matriz unitária.
Matrizes unitárias 3 × 3 formam um grupo (estrutura definida pelas propriedades a
seguir): se R1 e R2 são unitárias, R1 R2 também é, pois
(R1 R2 )† R1 R2 = R2† R1† R1 R2 = R2† R2 = I.
(1.5)
Além disso,
1. R−1 é unitária: (R−1 )−1 = (R† )−1 = (R−1 )† ;
2. A identidade é unitária: (I)−1 = I = (I)† ;
3. R1 (R2 R3 ) = (R1 R2 ) R3 (associatividade do produto matricial).
O grupo acima é chamado de U (3) (o “U ” indica transformações unitárias). Há
restrições quanto ao determinante das matrizes
R† R = I ⇒ det R† R = det R† det R
= (det R)∗ det R = |det R|2 = 1
⇒ det R = eiθ .
3
(1.6)
Requerendo que θ = 0 (det R = 1) obtemos um subgrupo: se R1 e R2 são unitárias com
determinante um, R1 R2 também é, pois
det (R1 R2 ) = det R1 det R2 = 1.
(1.7)
Além disso, se det R = 1, det R−1 = det R† = 1 e a identidade tem determinante 1, o que
caracteriza um subgrupo que chamamos de SU (3) (o “S” indica determinante um).
O próximo passo é caracterizar uma transformação genérica de SU (3). Para fazer isso,
notamos que as entradas de uma matriz complexa genérica unitária de determinante um
não devem ser todas independentes. Descobrindo quantas relações entre essas entradas
existem, poderemos eliminar os parâmetros não independentes e indicar a transformação
mais geral de SU (3). Para contar o número de relações independentes fornecidos pela definição de SU (3), organizamos as relações numa estrutura matricial (os ı́ndices i repetidos
indicam soma sobre i):

∗
∗
∗
Ri3
Ri2 Ri1
Ri1 Ri1
Ri1

 ∗
∗
∗
R† R =  Ri2
Ri3
Ri2 Ri2
Ri1 Ri2

∗
∗
∗
Ri3
Ri1 Ri3
Ri2 Ri3
Ri3


1 0 0
 
 
= 0 1 0
 
0 0 1



.

(1.8)
∗
Observamos agora que as relações ao longo da diagonal (por exemplo, Ri1
Ri1 = |Ri1 |2 = 1)
são reais, enquanto que as fora da diagonal são complexas (e, portanto, valem por duas).
∗
Ri3 = 0 nos dá a mesma
Além disso, a relação que está na posição 13 (por exemplo) Ri1
∗
informação que a que está na posição 31, Ri3
Ri1 = 0. Com isso, obtemos 3 + 3 × 2 = 9
equações relacionando os parâmetros (reais) que caracterizam R. Uma equação adicional
é dada por det R = 1,1 fornecendo um total de 10 equações de vı́nculo. Como o número
de parâmetros reais, obtidos das entradas da matriz R é 9 × 2 = 18, subtraindo o número
de equações de vı́nculo encontramos 8 parâmetros independentes. Assim, podemos dizer
que os elementos da matriz R são funções destes parâmetros:
Rij = Rij (θ1 , θ2 ..., θ8 ).
1
(1.9)
Esta relação conta apenas como uma, e não como duas (por ser R complexa). Para ver isso, considere
a matriz R em forma diagonal. Como ela é unitária, seus autovalores são fases, eiθi , com os θi reais.
Impor det R = 1, então, é equivalente à equação real
θ1 + θ2 + θ3 = 0.
4
Pode-se escolher os parâmetros independentes de modo que quando todos os θa = 0, a =
1, .., 8, então Rij (0, ..., 0) = δij . Quando isso é feito, pode-se mostrar que, se R = R (θa ),
os parâmetros que caracterizam R−1 são θ̄a = −θa .
Vamos agora mostrar um teorema de importância fundamental: todo elemento de
SU (3) pode ser escrito como
R = eiX .
(1.10)
Para mostrar isso, lembramos que toda matriz unitária (de dimensão finita) pode ser
diagonalizada [1]. Com isto, vemos que existe uma base de autovetores ortonormais de R
R |λi i = λi |λi i
(1.11)
(onde |λi i representa um vetor coluna). Tomando o conjugado e transpondo, obtemos
hλi | R† = λ∗i hλi |
(1.12)
(com hλi | representando o vetor coluna conjugado e transposto). Tomando o produto
escalar,
hλi | R† R |λi i = |λi |2 hλi |λi i ,
(1.13)
|λi |2 = 1 → λi = eiθi ,
(1.14)
o que implica em
onde os θi são reais. Definindo um operador linear X tal que
X |λi i = θi |λi i ,
(1.15)
vemos que eiX |λi i = eiθi |λi i = R |λi i. Como a ação dos dois operadores coincide sobre
uma base, R = eiX .
Como os autovalores de X são reais, verificamos imediatamente que X é hermitiano.
O requerimento de que det R = 1 implica em
1 = det eiX = exp tr ln eiX
= exp (itr (X))
(1.16)
⇒ tr (X) = 0.
A matriz X é completamente caracterizada por 8 parâmetros reais: o fato dela ser
hermitiana diz que apenas 3 elementos complexos (6 reais) fora da diagonal são independentes. Somam-se a eles os três elementos reais da diagonal, totalizando 9 parâmetros
5
reais. A condição (vı́nculo) de traço nulo subtrai um, deixando 8 parâmetros independentes. Assim, caracterizar o X mais geral implica em caracterizar o R mais geral.
Para fazer isso, observamos que, se X1 e X2 são matrizes hermitianas de traço nulo,
então α1 X1 + α2 X2 também o são, se α1 e α2 forem números reais. Assim, o conjunto
de todas as matrizes hermitianas de traço nulo possui uma estrutura de espaço vetorial
sobre os reais. Vamos procurar por uma base para este espaço vetorial. É claro, do que
discutimos acima, que precisamos de 8 matrizes linearmente independentes para gerar um
X genérico. Para achá-las, vamos considerar a matriz X, 3 × 3, hermitiana de traço nulo
mais geral possı́vel


α
γ + iδ ε + iθ




X =  γ − iδ
β
ξ + iη 


ε − iθ ξ − iη −α − β



0 0
0
1 0
0






= α 0 0
0
0  + β 0 1



0 0 −1
0 0 −1
|
|
{z
}
{z
Xα

0 0 1
Xβ


0
0 i
(1.17)


0




 + γ 1


0
|
}


1 0


0




0 0  + δ  −i


0 0
0
|
{z
}
Xγ
0 0 0


0
0
i 0



0 0 

0 0
{z
}
Xδ
0

















+ ε 0 0 0  + θ  0 0 0  + ξ  0 0 1  + η  0 0 i  .








−i 0 0
0 1 0
0 −i 0
1 0 0
|
|
|
|
{z
}
{z
}
{z
}
{z
}
Xε
Xθ
Xξ
Xη
Note que todas as constantes são reais e todas as matrizes são hermitianas, de traço nulo
e linearmente independentes. Como conseguimos escrever a matriz X mais geral como
combinação linear delas, elas constituem uma base. Cada elemento da base é chamado
de gerador. Com uma pequena modificação, encontramos a base de Gell-Mann, mais
6
comumente utilizada:


0 1 0




λ1 = Xγ =  1 0 0  ;


0 0 0

1 0 0


λ3 = Xα − Xβ =  0 −1 0

0 0 0


0 0 −i




λ5 = −Xθ =  0 0 0  ;


i 0 0


0 0 0




λ7 = −Xη =  0 0 −i  ;


0 i 0

0 −i 0


λ2 = −Xδ =  i 0

0 0




;




0 ;

0
(1.18)
0 0 1


λ4 = Xε =  0 0 0

1 0 0


0 0 0




λ6 = Xξ =  0 0 1  ;


0 1 0


1

λ8 = √ (Xα − Xβ ) = 

3



;

√1
3
0
0
0
√1
3
0
0
0
− √23



.

Uma propriedade adicional importante é
tr (λa λb ) = 2δab .
(1.19)
Também é fácil (mas tedioso!) verificar que
λa λb
λc
,
= ifabc ,
2 2
2
(1.20)
onde os fabc são reais e completamente antissimétricos nos três ı́ndices. Os que são diferentes de zero são dados por
f123 = 1;
f147 = f165 = f246 = f257 = f345 = f376 = 1/2;
f458 = f678 =
√
3/2.
(1.21)
Com essas propriedades, vemos que o espaço vetorial de todas as matrizes hermitianas
de traço nulo se constitui numa álgebra de Lie. A definição deste tipo de estrutura pede
que o espaço vetorial em questão possua uma segunda lei de composição (indicada por
[., .]), sob a qual é fechado, satisfazendo:
1. nilpotência: [A, A] = 0;
7
2. bilinearidade:
[αA + βB, C] = α [A, C] + β [B, C] ,
[C, αA + βB] = α [C, A] + β [C, B] ;
3. Identidade de Jacobi: [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0.
Note que a nilpotência mais a bilinearidade implicam em antissimetria da lei de composição:
0 = [X + Y, X + Y ] = [X, Y ] + [Y, X]
(1.22)
⇒ [X, Y ] = − [Y, X] .
No nosso caso, a lei de composição adicional (além da soma), pela qual o conjunto das
matrizes hermitianas de traço nulo é fechado, é dada pelo comutador. Passaremos a
chamar este espaço de álgebra de Lie de SU (3).
Finalizamos esta parte, enunciando um importante teorema (sem prova): dados
a
a λa
R(θ ) = exp iθ
,
(1.23)
2
a
a λa
R(α ) = exp iα
,
2
o produto
λa
a
R(θ )R(α ) = R(ϕ (θ, α)) = exp iϕ (θ, α)
2
a
a
a
(1.24)
tem as funções ϕa (θ, α) completamente determinadas pelas constantes fabc (chamadas, por
isso, de constantes de estrutura) definidas pelas relações de comutação entre os λ0a s. Isso
significa que a álgebra de Lie determina a lei de composição do grupo! Também podemos
mostrar (veja exercı́cio 1) que a lei de composição do grupo igualmente determina a
álgebra de Lie de SU (3).
1.1.1
Exercı́cios
1. Considerando θa e αa infinitesimais, mostre que, até segunda ordem nestes parâmetros,
1
ϕa (θ, α) = θa + αa − fabc θb αc + ...
2
8
2. Encontre todos os geradores de SU (5), na base natural. Mostre que o número deles
coincide com o número de parâmetros independentes necessários para descrever uma
transformação geral deste grupo.
1.2
Representações de SU(3)
Suponha que consigamos um outro conjunto de matrizes R̃, não necessariamente 3dimensional, com cada matriz parametrizada por 8 parâmetros reais, satisfazendo
R̃ (θa ) R̃ (αa ) = R̃ (ϕa (θ, α)) ,
(1.25)
com ϕa (θ, α) sendo a mesma lei de composição obtida para as matrizes 3×3 de SU (3) consideradas na seção anterior. O conjunto dos R̃ é dito uma representação de SU (3). Podese dizer que as matrizes R̃ “imitam” o comportamento (sob composição) das matrizes
3-dimensionais R. As representações costumam ser definidas a menos de transformações
de similaridade. De fato, se houver um S tal que, para todo R̃
R0 (θa ) = S R̃ (θa ) S −1 ,
(1.26)
R0 (θa ) R0 (αa ) = S R̃ (θa ) S −1 S R̃ (αa ) S −1 = S R̃ (θa ) R̃ (αa ) S −1
(1.27)
então é claro que
= S R̃ (ϕa (θ, α)) S −1 = R0 (ϕa (θ, α)) .
Isto nos diz que a lei de composição é respeitada na nova representação como consequência
direta dela ser respeitada na antiga, não trazendo nenhuma informação nova.
Considere agora um conjunto de 8 matrizes hermitianas de traço nulo Ta , de novo não
necessariamente 3-dimensionais, satisfazendo
[Ta , Tb ] = ifabc Tc ,
(1.28)
onde os fabc são as constantes de estrutura de SU (3). Então o conjunto de matrizes
R̃ (θa ) = exp (iθa Ta )
(1.29)
constituem uma representação de SU (3), pois a lei de composição depende apenas das
constantes de estrutura.
Duas representações são particularmente importantes e de fácil visualização:
9
1. A representação complexo conjugada: Considere a representação 3-dimensional cujos
elementos são gerados pelas matrizes de Gell-Mann, λa /2. Conjugando uma matriz
genérica de SU (3) nesta representação, obtemos
∗
∗
a
a (λa )
.
R (θ ) = exp −iθ
2
(1.30)
Vamos conjugar a relação de comutação entre os λ0 s encontrados na seção anterior:
∗ ∗ ∗ λa λb
λ∗
λ λ
,
(1.31)
= a , b = −ifabc c .
2 2
2 2
2
ea = −λ∗ = −λt , vemos que
Definindo λ
a
a
"
#
λ̃a λ̃b
λ̃c
,
= ifabc .
2 2
2
(1.32)
Então, se definirmos
λ̃a
R̃ (θa ) = R∗ (θa ) = exp iθa
2
!
,
(1.33)
devido ao fato das relações de comutação entre os λ̃’s serem as mesmas que aquelas
entre os λ’s, os R̃’s respeitarão a lei de composição de SU (3). Pode-se mostrar
também que não existe S tal que λ̃a = Sλa S −1 , o que implicaria em R̃ = SRS −1 .
Temos duas representações 3-dimensionais não-equivalentes, que costumam ser denotadas pelos sı́mbolos 3 (também chamada de representação fundamental ) e 3∗ (a
sua representação complexo conjugada).
2. A representação adjunta: consideremos a conjugação de uma dada matriz (3 × 3)
de SU (3), R, por outra, R0 , definida como
−1
R0 R (R0 )
.
(1.34)
A matriz resultante é um elemento de SU (3). Vemos, então, que
R0 R (R0 )
−1
= R0 eiX (R0 )
−1
0
0 −1
= eiR X(R )
= eiX .
(1.35)
Supondo que X = θa λa /2, vemos que
X = θ̄a
λa
λa
−1
= θa R0 (R0 ) .
2
2
10
(1.36)
A equação acima é consistente apenas se
R0
λb
λa 0 −1
(R ) = dba (R0 ) ,
2
2
(1.37)
situação na qual identificamos θ̄a = dab (R0 ) θb . O conjunto dos coeficientes dab (R0 )
forma uma matriz 8 × 8 que, junto com outras matrizes 8 × 8 associadas a outros
elementos de SU (3), constituem uma representação. Para ver isso, façamos duas
conjugações, por R1 e R2 , de um gerador λa :
λa
λa −1 −1
λb
−1
R1 R2 (R1 R2 ) = R1 R2 R2 R1 = R1 dba (R2 )
R1−1
2
2
2
λb
λc
= dba (R2 ) R1 R1−1 = dcb (R1 ) dba (R2 ) .
2
2
(1.38)
Como R1 R2 também é um elemento de SU (3),
R1 R2
λc
λa
(R1 R2 )−1 = dca (R1 R2 ) ,
2
2
(1.39)
o que nos diz que
dcb (R1 ) dba (R2 ) = dca (R1 R2 ) .
(1.40)
A representação 8-dimensional formada pelas matrizes dab (R) é chamada de representação adjunta.
Podemos obter os geradores das matrizes da representação adjunta considerando
transformações infinitesimais. Tomemos um R (εa ), para εa infinitesimais, dado por
R (εa ) = 1 + iεa
λa
.
2
(1.41)
Por sua vez, sendo as matrizes dab (R) uma representação de SU (3), podemos escrever
ec )ab .
dab (R (εa )) = δab + iεc (X
(1.42)
Desta forma,
λa
λc
b λb
b λb
1 + iε
1 − iε
= dca (R (εa ))
2
2
2
2
λa
λa
λc
λa
b λb λa
b
eb )ca λc .
=⇒
+ iε [ , ] =
+ iε ifbac
=
+ iεb (X
2
2 2
2
2
2
2
λa
R (ε ) R−1 (εa ) =
2
a
(1.43)
Dado que os λa formam uma base da álgebra de Lie, concluı́mos que
eb )ca = ifbac = −ifbca .
(X
11
(1.44)
ea são 8 matrizes hermitianas 8 × 8, que representam a álgebra de Lie de SU (3)
Os X
da mesma forma que λa /2:
h
i
ea , X
eb = ifabc X
ec ,
X
(1.45)
o que pode ser comprovado com o auxı́lio da consequencia da identidade de Jacobi:
λc λa λb
λb λc λa
λa λb λc
,
,
+
,
,
+
,
,
=0
2
2 2
2
2 2
2
2 2
⇒ fbcd fade + fabd fcde + fcad fbde = 0.
(1.46)
Antes de passarmos ao próximo tópico, vamos ressaltar mais alguns fatos sobre SU (3):
1. Qualquer elemento de SU (3) pode ser conectado continuamente com a identidade,
através de um caminho completamente contido no grupo. Isso quer dizer que, para
qualquer R ∈ SU (3), existe uma aplicação contı́nua α (t), de um intervalo [a, b] ⊂ R
em SU (3) tal que α (a) = 1 e α (b) = R, com cada α (t) ∈ SU (3). Isto é verdade
para qualquer representação.
2. Dados os geradores de SU (3) numa dada representação, Ta , podemos definir uma
matriz 8 × 8 denominada forma de Killing
gab = tr (Ta Tb ).
(1.47)
Esta matriz é simétrica e real, pois (lembre que estamos supondo que os Ta ’s são
hermitianos):
∗
gab
= tr (Ta∗ Tb∗ ) = tr (Tat Tbt ) = tr ((Tb Ta )t )
(1.48)
= tr (Tb Ta ) = tr (Ta Tb ) = gab = gba .
Conforme já vimos, na representação fundamental,
gab = tr (
λa λb
1
) = δab .
2 2
2
(1.49)
É possı́vel mostrar que, numa representação arbitrária, teremos
gab = λδab ,
(1.50)
com λ dependendo da representação em questão.
3. A forma de Killing pode ser vista como definindo um produto escalar na álgebra de
Lie:
hX1 , X2 i = tr (X1 X2 ) = tr (θ1a Ta θ2b Tb ) = gab θ1a θ2b .
12
(1.51)
1.3
Raı́zes
Há duas matrizes diagonais na base de Gell-Mann


1 0 0




λ3 =  0 −1 0  ,


0 0 0

1 0 0
1 

λ8 = √  0 1 0
3
0 0 −2
Isto implica imediatamente em
(1.52)



.

λ3 λ8
λc
,
= if38c = 0,
2 2
2
=⇒ f38c = 0
(1.53)
c = 1, ..., 8
Pode-se ver, facilmente, que estas são as duas únicas matrizes que comutam entre si.
Como a álgebra é independente da representação, notamos que
[T3 , T8 ] = 0,
(1.54)
para qualquer representação. Vamos denotar por H1 ≡ T3 e H2 ≡ T8 essas duas matrizes.
Elas formam uma sub-álgebra da álgebra de Lie, chamada sub-álgebra de Cartan. Indicamos os elementos da sub-álgebra de Cartan por Hi , i = 1, 2. A ordem do grupo (em
inglês, rank ) é definida como a dimensão da sub-álgebra de Cartan (no caso de SU (3), o
rank é 2).
A partir da representação fundamental, podemos encontrar facilmente a dimensão da
sub-álgebra de Cartan. Basta contar o número de matrizes hermitianas, de traço nulo,
3 × 3, diagonais, linearmente independentes


a 0 0




 0 b 0 


0 0 c
(1.55)
A hermiticidade implica em a = a∗ , b = b∗ e c = c∗ . A condição de traço nulo nos diz
13
que a + b + c = 0. Com isto, temos (escolhendo eliminar c):





a 0
0
1 0 0
0 0 0










 0 b
 = a 0 0 0  + b 0 1 0
0





0 0 −a − b
0 0 −1
0 0 −1



,

(1.56)
o que nos dá duas matrizes linearmente independentes, implicando em dimensão 2 para
a sub-álgebra de Cartan.
Renumeramos os demais Ta (a = 1, 2, 4, 5, 6, 7) de modo que a = 1, 2, ..., 6. Observamos
que
tr (Hi Hj ) = λδij ,
tr (Hi Ta ) = 0,
tr (Ta Tb ) = λδab .
o que nos diz que, em termos do produto escalar que definimos, os Ta ’s formam um
subespaço ortogonal aos Hi ’s.
As relações de comutação dos Hi com os restantes Ta são, em princı́pio,
[Hi , Ta ] = ifiab Tb + ifiaj Hj .
(1.57)
Vamos mostrar que fiaj = 0. Para tanto, multiplicamos a relação acima por Hk à esquerda
e tomamos o traço (lembremos que, como consequencia de tr (Ta Tb ) = λδab , na nossa nova
indexação, tr (Hk Tb ) = 0):
tr (Hk [Hi , Ta ]) = ifiab tr (Hk Tb ) + ifiaj tr (Hk Hj ) = ifiaj λδkj = iλfiak .
(1.58)
Mas, usando a propriedade cı́clica do traço,
tr (Hk [Hi , Ta ] = tr (Hk Hi Ta − Hk Ta Hi )
(1.59)
= tr ((Hk Hi − Hi Hk )Ta ) = tr ([Hk , Hi ]Ta ) = 0,
=⇒ fiak = 0.
(1.60)
Em resumo, em termos da base de geradores redefinida, as relações de comutação ficam:
[Hi , Hj ] = 0,
i, j = 1, 2,
(1.61)
[Hi , Ta ] = ifiab Tb ,
i = 1, 2;
a, b = 1, ..., 6,
[Ta , Tb ] = ifabc Tc + ifabi Hi ,
i = 1, 2;
a, b = 1, ..., 6.
Vamos definir agora
(hi )ab = ifiab .
14
(1.62)
Vamos mostrar que as matrizes hi (hermitianas!) comutam entre si. Para isso, vemos que
[Hj , [Hi , Ta ]] = Hj , hiab Tb = hiab hjbc Tc ,
[Hi , [Hj , Ta ]] = Hi , hjab Tb = hjab hibc Tc ,
(1.63)
Subtraindo uma equação da outra
[Hj , [Hi , Ta ]] − [Hi , [Hj , Ta ]] = hi , hj ac Tc .
(1.64)
Usando a identidade de Jacobi
[Hj , [Hi, Ta ]] + [Hi , [Ta , Hj ]] = − [Ta, [Hj , Hi ]] = 0,
(1.65)
i j
h , h ac = 0.
(1.66)
obtemos
Se os hi ’s são matrizes hermitianas que comutam entre si, elas podem ser diagonalizadas simultaneamente. Vamos chamar de Sαb a transformação unitária que as diagonaliza
−1
Sαc hicd Sdβ
= αi δαβ ,
α, β = 1, ..., 6.
(1.67)
−1
Multiplicando a relação [Hi , Ta ] = hiab Tb por Sαa à esquerda e inserindo δbc = Sbβ
Sβc
entre hi e Tb ,
−1
[Hi , Sαa Ta ] = Sαa hiab Sbβ
Sβc Tc = αi Sαa Ta .
(1.68)
Definindo Eα ≡ Sαa Ta chegamos a
[Hi, Eα ] = αi Eα
(1.69)
O vetor 2-dimensional α = (α1 , α2 ) é chamado de raiz. Há tantas raı́zes (6 delas) quanto
geradores fora da sub-álgebra de Cartan. As novas combinações lineares dos geradores
Eα = Sαa Ta
são chamadas de operadores escada. Observe que os Eα não são hermitianos, porque os
coeficientes Sαa são números complexos, no caso geral. Note também que as raı́zes não
podem ser (0, 0). Se isso acontecesse, o Eα correspondente teria que pertencer à subálgebra de Cartan, o que, por hipótese, é impossı́vel (tal teste já foi feito anteriormente
para definir a sub-álgebra de Cartan).
As raı́zes obedecem a uma série de vı́nculos, impostos pela estrutura da álgebra de Lie
de SU (3). Vamos estudar alguns deles e entender de que maneira eles podem ser úteis
na construção de representações do grupo.
15
1.3.1
Exercı́cios
1. Identifique a sub-álgebra de Cartan, os operadores escada e as raı́zes no grupo
SU (2), cuja álgebra de Lie é definida por
[Ta , Tb ] = iεabc Tc ,
a, b, c = 1, 2, 3.
2. Utilizando as expressões explı́citas para as matrizes de Gell-Mann, defina
λ±α1
λ1 ± iλ2
≡
,
2
2
λ±α2
λ4 ± iλ5
≡
,
2
2
λ±α3
λ6 ± iλ7
≡
,
2
2
mostre que
λ3 λ±α1
λ±α1
,
,
=±
2
2
2
λ8 λ±α1
,
= 0,
2
2
λ3 λ±α2
1 λ±α2
,
,
=±
2
2
2 2
√
λ8 λ±α2
3 λ±α2
,
,
=±
2
2
2 2
λ3 λ±α3
1 λ±α2
,
=∓
,
2
2
2 2
√
λ8 λ±α3
3 λ±α2
=±
,
,
2
2
2 2
e identifique as raı́zes de SU (3).
16
1.4
Propriedades das raı́zes
Vamos iniciar uma análise que pode ser facilmente generalizada para grupos diferentes de
SU (3) (eles devem ser, no entanto, compactos e semisimples2 ). As propriedades encontradas fixam o conjunto das raı́zes de um determinado grupo, como iremos ver.
1. Considere o comutador entre um dos Hi e o produto de dois operadores escada,
associados a duas raı́zes α e β:
[Hi , Eα Eβ ] = [Hi , Eα ] Eβ + Eα [Hi , Eβ ] = (αi + βi )Eα Eβ
(1.70)
Tomando o traço dos dois lados
tr ([Hi , Eα Eβ ]) = 0 = (αi + βi ) tr (Eα Eβ ),
(1.71)
pois o traço de qualquer comutador de matrizes é nulo. Daı́, tr (Eα Eβ ) = 0, se
α 6= −β.
2. Se β = −α, podemos nos perguntar se tr (Eα E−α ) também é nulo.
Isto não
pode acontecer: se assim fosse, tr (Eα Eβ ) = 0 (com β arbitrário) e na matriz que
representa a forma de Killing haveria uma linha e uma coluna de zeros. Com
isto o seu determinante teria que ser nulo, o que não é verdade (lembremos que
gab = tr (Ta Tb ) = λδab , o que nos diz que det kgab k = λn , onde n é a dimensão da
álgebra de Lie). Assim, se α é raiz, −α também é. Isto reduz a nossa busca a 3
raı́zes, no caso de SU (3).
3. Já que os Eα são combinações lineares dos Ta remanescentes, observamos que
tr (Hi Eα ) = 0.
(1.72)
4. Do que vimos no item 1) obtemos
[Hi , [Eα , Eβ ]] = [Hi , Eα Eβ ] − [Hi , Eβ Eα ] = (αi + β i ) [Eα , Eβ ] .
2
(1.73)
Um grupo de Lie G é compacto se os parâmetros que caracterizam uma transformação genérica variam
num intervalo de valores reais limitados. Um subgrupo H ⊂ G é dito invariante se, por conjugação, seus
elementos são levados a outros dentro de H, ou seja, se para cada h ∈ H, temos ghg −1 ∈ H com g ∈ G
arbitrário. O grupo G é simples se não contém subgrupos invariantes e é semisimples se não contém
subgrupos invariantes abelianos (se h1 , h2 ∈ H, h1 h2 = h2 h1 ). Notamos que todo grupo simples é
semi-simples.
17
Com isto, temos duas opções:
(a) αi + β i é uma raiz e [Eα , Eβ ] = cEα+β ;
(b) αi + β i não é raiz e [Eα , Eβ ] = 0.
No caso β = α, se 2α fosse raiz, então [Eα , Eα ] = cE2α . Como [Eα , Eα ] = 0, vemos
que, se α é raiz, 2α não pode ser raiz.
5. Do resultado obtido no último ı́tem, vemos que
[Hi , [Eα , E−α ]] = (αi − αi ) [Eα , E−α ] = 0,
(1.74)
[Eα , E−α ] = xi Hi ≡ x · H.
(1.75)
o que nos diz que
Podemos calcular facilmente o vetor x. Para isso, consideramos
tr (Hj [Eα , E−α ]) = xi tr (Hj Hi ) = λxi δji = λxj .
(1.76)
Mas,
tr (Hj [Eα , E−α ]) = tr (Hj Eα E−α ) − tr (Hj E−α Eα ) = tr (Hj Eα E−α − Eα Hj E−α )
(1.77)
= tr ([Hj , Eα ] E−α ) = αj tr (Eα E−α ) = λαj
Daı́, xj = αj e
[Eα , E−α ] = αi Hi ≡ α · H
(1.78)
6. Podemos resumir o que obtivemos até agora em relação à nova cara das relações de
comutação em termos da base {Hi , Eα }:
[Hi , Hj ] = 0,
[Hi , Eα ] = αi Eα ,



cEα+β ,


[Eα , Eβ ] =
0,



 α · H,
(1.79)
se α + β é raiz, α 6= −β,
se α + β não é raiz, α 6= −β,
se α = −β.
18
Normalizando os traços
tr (Hi Hj ) = δij ,
tr (Hi Eα ) = 0,
tr (Eα Eβ ) = δα+β,0 ,
(1.80)
chamamos a base {Hi , Eα } assim obtida de base de Weyl-Cartan.
7. Notamos que Eα , E−α e α · H formam uma sub-álgebra fechada pois
[α · H, Eα ] = α2 Eα ,
(1.81)
[α · H, E−α ] = −α2 E−α ,
[Eα , E−α ] = α · H
2
2
(onde α2 ≡ (α1 ) + (α2 ) ). Definindo
2T3α ≡ Hα ≡ 2
T±α =
(onde kαk =
√
α·H
,
α2
(1.82)
√ E±α
2
,
kαk
α2 ) vemos que
α α
T+ , T− = 2T3α ,
α α
T3 , T± = ±T±α ,
(1.83)
que são as relações de comutação caracterı́sticas de SU (2). Isto significa que os
autovalores de Hα são inteiros (pois T3α tem autovalores inteiros e semi-inteiros e
Hα = 2T3α ).
8. Tomando uma outra raiz β 6= α,
α·β
α·H
[Hα , Eβ ] = 2 2 , Eβ = 2 2 Eβ
α
α
(1.84)
Suponha que |mi seja autovetor de Hα (e, portanto, m seja inteiro). Daı́,
Hα (Eβ |mi) = (Eβ Hα + [Hα , Eβ ]) |mi
α·β
= m+2 2
(Eβ |mi)
α
(1.85)
Logo, Eβ |mi é autovetor de Hα , o que implica em 2α · β/α2 ser inteiro, se α e β
forem raı́zes.
19
9. Consideremos a desigualdade de Schwarz
α · β = kαk kβk cos θ ≤ kαk kβk
onde θ é o ângulo entre as raı́zes, que estamos supondo que varia na faixa entre
0 e π/2. Esta restrição é suficiente, pois lembramos que, se o ângulo entre α e β
for maior que π/2, o ângulo entre −α e β será menor que π/2 e podemos refazer a
análise considerando −α em lugar de α. Podemos escrever, então,
β·α
α·β
2 2
= mn = 4 cos2 θ ≤ 4.
2 2
α
β
(1.86)
Dado que m e n são inteiros, a análise da condição obtida acima envolve apenas
uns poucos casos. Se mn = 0, 1, 2, 3, α não é paralela a β (cos θ < 1); se mn = 4,
α é paralela a β (cos θ = 1). Detalhamos a seguir as situações particulares mencionadas acima:
(a) mn = 0: neste caso, α é ortogonal a β e nada se pode afirmar sobre os comprimentos relativos das raı́zes;
(b) mn = 1: temos que ter m = n = 1 e, portanto,
4 cos2 θ = 1 → cos θ =
1
π
⇒θ=
2
3
◦
60
.
(1.87)
Por outro lado,
2
α·β
= 1 ⇒ 2α · β = α2 ,
2
α
(1.88)
e então
2 kαk kβk
1
= kαk2
2
(1.89)
⇒ kαk = kβk .
◦
Portanto, temos raı́zes de comprimentos iguais, formando 60 entre si.
(c) mn = 2: temos duas opções, que são m = 1, n = 2 ou m = 2, n = 1. Vamos
escolher a segunda (a primeira conduz ao mesmo resultado) e repetir a análise
feita no ı́tem a):
√
2
4 cos θ = 2 → cos θ =
20
2
π
⇒θ=
2
4
◦
45
.
(1.90)
α·β
= 2 =⇒ α · β = α2 ,
(1.91)
2
α
√
√
2
= kαk2 ⇒ kβk = 2 kαk .
kαk kβk
2
√
Portanto, temos raı́zes satisfazendo a relação kβk = 2 kαk (ou vice-versa),
2
◦
fazendo ângulos de 45 entre si.
(d) mn = 3: novamente, temos duas opções, que são m = 1, n = 3 ou m = 3,
n = 1. Escolhendo a segunda, temos
√
2
4 cos θ = 3 → cos θ =
π
3
⇒θ=
2
6
◦
30
α·β
= 3 ⇒ 2α · β = 3α2 ,
α2
√
√
3
= 3 kαk2 ⇒ kβk = 3 kαk .
2 kαk kβk
2
2
.
(1.92)
(1.93)
(e) mn = 4: temos algumas sub-opções:
i. m = 1, n = 4: neste caso
2
α·β
= 4 ⇒ kαk kβk = 2 kαk2 .
α2
(1.94)
Isto nos dá β = 2α, o que lembramos não ser permitido (como vimos no
ı́tem 4)). Portanto, esta situação não pode ocorrer.
ii. m = 2, n = 2: como antes,
2
α·β
= 2 ⇒ kαk kβk = kαk2 ,
2
α
(1.95)
o que nos dá kαk = kβk. Como α e β são paralelas, concluı́mos que α = β,
o que é uma situação trivial.
Com isto, notamos que o caso mn = 4 não conduz a restrições sobre comprimentos e ângulos entre raı́zes, como nos casos anteriores.
1.5
Mais sobre raı́zes
Vamos fazer um resumo do que aprendemos sobre as raı́zes até agora:
1. Se α é perpendicular a β, não há relação entre kαk e kβk.
21
2. Se as raı́zes forem paralelas, α = −β.
◦
3. Se o ângulo entre elas é de 60 , kαk = kβk.
◦
√
◦
√
4. Se o ângulo entre elas é de 45 , kαk =
5. Se o ângulo entre elas é de 30 , kαk =
2 kβk.
3 kβk.
6. Se α e β são raı́zes não paralelas, acontece uma de duas:
(a) α + β é raiz e [Eα , Eβ ] = cEα+β , ou
(b) α + β não é raiz e [Eα , Eβ ] = 0.
Com isto, já podemos desenhar todos os conjuntos de raı́zes possı́veis para uma álgebra
de Lie de rank 2:
2 Pode-se mostrar que cada diagrama de
O único diagrama associado a 6 raı́zes é .
raı́zes possı́vel corresponde a uma álgebra de Lie simples.
22
1.6
Raı́zes simples
É natural procurar uma “base” para o conjunto de todas as raı́zes. No entanto, antes de
fazer isto, vamos definir alguns instrumentos úteis. Voltando à sub-álgebra SU (2) definida
√
por Hα = 2T3α = 2 (α · H) /α2 e T±α = 2E±α / kαk, podemos definir
T2α
T+α − T−α
=
2i
(1.96)
Do que conhecemos sobre rotações, sabemos que uma rotação por π em torno do eixo y
leva o eixo z positivo no eixo z negativo. Como T2α e T3α obedecem à mesma álgebra do
grupo de rotações, temos então
α
α
eiπT2 T3α e−iπT2 = −T3α
(1.97)
ou
α
α
eiπT2 (α · H) e−iπT2 = − (α · H) .
(1.98)
Considere um vetor x perpendicular a α. Então
[x · H, E±α ] = ± (α · x) E±α = 0
(1.99)
=⇒ [x · H, T2α ] = 0,
e, portanto,
α
α
eiπT2 (x · H ) e−iπT2 = x · H.
(1.100)
Vamos tentar entender o que está acontecendo analisando um exemplo bidimensional
(e, portanto, adequado ao grupo SU (3)):
23
A componente de y ao longo de α troca de sinal, enquanto ao longo de x nada acontece.
Isto corresponde a uma reflexão especular ao longo do eixo x:
y −→ y 0 = y − 2
α·y α
α·y
= y − 2 2 α,
kαk kαk
α
(1.101)
α·y = y − 2 2 α · H.
α
(1.102)
o que nos diz que
iπT2α
e
(y · H) e
−iπT2α
Tal transformação define uma operação de reflexão:
σα (y) = y − 2
α·y
α.
α2
(1.103)
A operação σα (y) é chamada de reflexão de Weyl. É uma reflexão especular de um
vetor arbitrário por um hiperplano perpendicular a α. Notamos que a reflexão de Weyl é
idempotente e que ela preserva o produto escalar, ou seja
σα (σα (x)) = x,
(1.104)
x1 · x2 = σα (x1 ) · σα (x2 ) .
(1.105)
Daı́, obtemos as seguintes propriedades:
1. Se y = σα (x), x = σα (y) ;
2. Se x = σα (y), então β · x = β · σα (y) = σα (β) · σα (σα (y)) = σα (β) · y.
Definindo agora
0
α
α
Eβ = eiπT2 Eβ e−iπT2 ,
(1.106)
vemos que, se [x · H, Eβ ] = (β · x) Eβ . Então,
h
i
α
0
0
α
σα (x) · H, Eβ = eiπT2 [x · H, Eβ ] e−iπT2 = (β · x) Eβ .
(1.107)
Com isto,
h
0
i
0
0
y · H, Eβ = β · σα (y) Eβ = σα (β) · y Eβ.
(1.108)
Considerando y arbitrário,
i
h
0
0
Hi , Eβ = σαi (β)Eβ ,
o que significa que, se β é raiz, σα (β) também é.
Vamos exemplificar com SU (3):
24
(1.109)
Temos quase todos os elementos para definir uma base no espaço das raı́zes. Falta-nos
o seguinte lema: dadas α e β, raı́zes distintas, temos duas opções:
1. Se α · β > 0, então α − β é raiz;
2. Se α · β < 0, então α + β é raiz.
Prova: se α · β > 0, devemos ter
2
α·β
=1
α2
ou
2
α·β
= 1;
β2
(1.110)
Tomando a primeira opção,
σα (β) = β − 2
α·β
α=β−α
α2
(1.111)
é raiz, o que implica em α − β ser raiz. Se tomarmos a segunda opção, obteremos o
resultado ainda mais diretamente:
σβ (α) = α − 2
α·β
β = α − β.
β2
(1.112)
Se α · β < 0, mostramos de maneira similar que α + β é raiz.
Com isto, estamos prontos para enunciar o seguinte teorema (sem prova): existem r
raı́zes simples (r é o rank da álgebra ) tais que qualquer raı́z pode ser escrita como
α=±
r
X
ni α i
(1.113)
i=1
com ni inteiros positivos e αi · αj ≤ 0. Não vamos demonstrar o teorema, mas vamos
mostrar a sua validade para SU (3):
25
Tome tais raı́zes como α1 e α2 . Então, vemos que α1 · α2 < 0 e
α3 = α1 + α2 ,
(1.114)
β1 = −α1 ,
β2 = −α2 ,
β3 = −α1 − α2 .
Essas raı́zes “base” são chamadas de raı́zes simples. As raı́zes que são escritas com combinações lineares positivas ou negativas são, respectivamente, raı́zes positivas ou negativas.
Note que as raı́zes simples são, por definição, raı́zes positivas e, uma vez escolhida a base
de raı́zes simples, uma raiz simples não pode ser escrita como soma de outras.
Vamos dar uma definição operacional de positividade (ou negatividade) das raı́zes:
uma raiz será dita positiva se a sua primeira componente não nula for positiva (e será
dita negativa se for o contrário). Esta definição nos permite estabelecer uma ordem no
conjunto das raı́zes. Dadas duas raı́zes α e α0 , dizemos que α > α0 se α − α0 for positiva.
Se não for o caso, diremos que α < α0 . No nosso caso, vemos que α1 < α2 < α3 (sendo
obviamente maiores que suas contrapartes negativas β1 , β2 e β3 ).
26
É possı́vel mostrar que, dadas as raı́zes simples de uma álgebra de Lie, é possı́vel
reconstruir toda a álgebra. No entanto, não iremos explorar essa direção do estudo das
álgebras de Lie.
1.7
Pesos
Vamos nos concentrar, de agora em diante, no espaço vetorial onde os operadores associados aos geradores agem, ou seja no espaço onde a representação está definida, cuja
dimensão, em princı́pio, é desconhecida. Vamos procurar, no curso de nosso estudo, descobrir que espaços vetoriais conseguem acomodar representações de SU (3). Começamos
supondo que todos os geradores operam num espaço vetorial n dimensional. Como os
Hi são hermitianos, eles têm um conjunto completo de autovetores ortonormais. Vamos
denotá-los por |µ; li, de modo que
Hi |µ; li = µi |µ; li ,
i = 1, 2; l = 1, ..., gµ ,
(1.115)
onde o ı́ndice l indica possı́veis degenerescencias dos estados e gµ é o correspondente grau
de degenerescencia. Os autovalores µ1 e µ2 constituem um vetor bi-dimensional
µ = µ1 , µ2
(1.116)
que é chamado de peso do estado. Os estados base satisfazem
hµ; l|µ0 , l0 i = δµµ0 δll0 .
(1.117)
Baseado no que vimos anteriormente sobre as raı́zes, podemos obter uma restrição sobre
os vetores µ. Consideremos a ação de Hα = 2α · H/α2 sobre |µ; li:
Hα |µ; li = 2
α·µ
|µ; li .
α2
(1.118)
Como seus autovalores têm que ser inteiros, obtemos que
2
α·µ
é inteiro.
α2
(1.119)
Assim, um dado vetor µ só pode ser um peso se, testado como acima para qualquer raiz,
o resultado for inteiro.
27
Como exemplo, vamos definir a seguinte ação dos geradores de SU (3) sobre um espaço
8-dimensional, com vetores base indexados por a = 1, ...8:
ha|bi = δab ,
(1.120)
Ta |bi ≡ ifabc |ci ,
onde a soma sobre c está subentendida. Os elementos de matriz do operador Ta são
hc|Ta |bi = ifabc = −ifacb = X̃a ,
(1.121)
cb
o que faz com que identifiquemos imediatamente a representação como sendo a adjunta.
Podemos fazer uma mudança de base da seguinte maneira
|1i0 = |3i ,
(1.122)
|2i0 = |8i ,
|αi0 = Sαa |ai ,
a = 1, 2, 4, 5, 6, 7,
α = 1, ..., 6,
com Sαa sendo a matriz que diagonaliza (hi )ab , definida na seção 1.3. Nesta base,
Hi |ji0 = 0,
i, j = 1, 2;
(1.123)
Hi |αi0 = αi |αi0 .
Das equações de autovalores acima, lemos diretamente os pesos da representação adjunta.
São eles:
µ1 = µ2 = (0, 0),
µ̄i = αi ,
(1.124)
i = 1, 2, 3,
−µ̄i = −αi ,
i = 1, 2, 3.
Vemos, portanto, que os pesos da representação adjunta são as raı́zes. Eles correspondem
aos seguintes vetores base (indexados agora pelos pesos)
|(0, 0) ; 1i ,
|α1 i ,
|−α1 i ,
|(0, 0) ; 2i ,
|α2 i ,
(1.125)
|α3 i ,
|−α2 i ,
|−α3 i .
Vamos carregar, para os pesos, as mesmas noções de positividade e negatividade que
definimos quando tratamos das raı́zes simples, na seção 1.6.
28
1.7.1
Pesos fundamentais
Vamos escolher dois vetores, λ1 e λ2 tais que
2
λi · αj
= δij ,
αj2
(1.126)
onde os αj são raı́zes simples. Vamos mostrar que, se a condição acima é satisfeita, os
λi são pesos. Para isso, devemos mostrar que 2λi · α/α2 é inteiro para qualquer raiz.
Restringindo-nos a SU (3):
λi · α
2 2 =2
α
2
P
λi ·
!
nj αj
2
X
λi · αj
= ni
=
nj 2
αj 2
j=1
j=1
α2
(1.127)
(onde usamos que α2 = αj2 para qualquer j, o que é válido para SU (3)). Os λi definidos
como em (1.126) são chamados pesos fundamentais. Veremos, a seguir, que todo peso
pode ser escrito como combinação linear dos pesos fundamentais. Se µ é um peso, vamos
definir
li = 2
µ · αi
,
αi 2
e poderemos mostrar facilmente que
!
2
2 X
αj
µ · α j X λi · α j
2 µ−
li λi · 2 = 2
−
2
li
2
2
α
α
α
j
j
j
i=1
i=1
(1.128)
(1.129)
2
µ · αj X
µ · αj
=2
−
li δij = 2
− lj = 0
2
2
αj
α
j
i=1
Como as raı́zes simples αj são vetores linearmente independentes, nenhum vetor (exceto
o vetor nulo) pode ser ortogonal a todas elas. Daı́,
µ=
2
X
i=1
2 X
µ · αi
li λi =
2 2
λi .
α
i
i=1
(1.130)
Por outro lado, uma combinação linear arbitrária (com coeficientes inteiros) dos pesos
fundamentais também é um peso. Se
µ=
2
X
i=1
29
li λi ,
(1.131)
então

µ·α
2 2 =
α
2 X
i=1
λi · α
2 2
α
2
P

λ ·
n α
2
X
 i k=1 k k 

 li
li =
2

α2
i=1
(1.132)
k
2 X
2
2 X
2 X
X
λi · αk
n
l
=
=
δik nk li
2
k i
2
α
k
i=1 k=1
i=1 k=1
=
2
X
ni li −→ inteiro.
i=1
Podemos, então, escrever o peso mais geral de SU (3) como
µ = mλ1 + nλ2 ,
(1.133)
e vemso que o conjunto de todos os pesos forma um subconjunto discreto de R2 chamado
de rede de pesos Λ. As raı́zes formam uma sub-rede Λr .
Vamos considerar os casos de SU (2) e SU (3):
1. SU (2): temos uma única raiz que também é simples (α = 1). O peso fundamental
correspondente é dado pela equação
λα
= 1,
α2
(1.134)
1
λ= .
2
(1.135)
1
µ=n ,
2
(1.136)
2
o que nos dá
O peso mais geral é, então,
com n inteiro. A rede de pesos está descrita na figura a seguir.
2. SU (3): as raı́zes simples são
α1 =
α2 =
√ !
1
3
,
,
2 2
√ !
1
3
,−
.
2
2
30
(1.137)
Os pesos fundamentais podem ser encontrados resolvendo as equações lineares seguintes:
√
λ1 · α 1
=
1
→
λ
+
λ
3 = 1,
1x
1y
α1 2
√
λ1 · α 2
3 = 0,
2
=
0
→
λ
−
λ
1x
1y
α2 2
1 1
⇒ λ1 =
, √ .
2 2 3
2
√
λ2 · α 1
3 = 0,
=
0
→
λ
+
λ
2x
2y
α1 2
√
λ2 · α 2
2
3 = 1,
=
1
→
λ
−
λ
2x
2y
α2 2
1
1
⇒ λ2 =
,− √ .
2
2 3
2
(1.138)
(1.139)
A rede de pesos de SU (3) aparece na figura abaixo, onde destacamos as raı́zes
simples e os pesos fundamentais.
Os pesos diferem entre si por somas de raı́zes:
Hi (Eα |µi) = Eα Hi |µi + αi Eα |µi = (µi + αi ) (Eα |µi)
(1.140)
=⇒ Eα |µi = c |µ + αi .
Numa dada representação, existe um vetor base associado a um peso que é maior que qualquer outro (basta comparar os pesos entre si e escolher o maior). O estado correspondente
tem que ser aniquilado por todos os Eα associados a α > 0:
Eα |λi = 0,
α>0
(1.141)
(caso contrário, λ + α seria o peso máximo). Os demais estados da representação são
obtidos atuando sobre |λi com E−α (α > 0) até esgotarmos a dimensão do espaço.
31
Vamos enunciar mais dois teoremas importantes sem prova (válidos para grupos compactos e semi-simples genéricos):
Teorema 1 Um peso máximo λ de uma dada representação é dominante. Isso significa que
λ · αi ≥ 0, onde os αi são as raı́zes simples.
Teorema 2 Existe uma única representação irredutı́vel (a menos de transformações de similaridade) de peso máximo λ para cada peso λ que seja dominante.
Vejamos dois exemplos importantes:
1. SU (2): como já vimos, o peso fundamental é λ = 1/2 e a rede de pesos é dada
por n/2. Vamos escolher um desses pesos (os pesos dominantes são os j’s positivos,
como pede o teorema 2 acima) e considerá-lo como peso máximo de uma dada
representação
|µi = |ji .
(1.142)
Aplicando E− |ji obtemos |j − 1i; aplicando novamente E− |j − 1i teremos |j − 2i
e assim por diante. Como a representação tem dimensão finita, vai existir um r tal
que
(E− )r |ji = c |j − ri ,
(1.143)
(E− )r+1 |j − ri = 0.
Sabemos que 2H = [E+ , E− ] e que tr 2H = tr ([E+ , E− ]) = 0. Mas
tr H =
n
X
µi ,
(1.144)
i=1
onde os µi são os pesos que aparecem nesta representação. Como os pesos são do
tipo j − l,
r
X
(j − l) = j (r + 1) −
l=0
r
X
l
l=1
r (r + 1)
2
(2j − r) (r + 1)
=
= 0,
2
= j (r + 1) −
⇒ r = 2j
32
(r > 0).
(1.145)
Recobramos, então, o bem conhecido resultado de que, numa representação de peso
j de SU (2), os estados base são rotulados por pesos µi = j, j − 1, j − 2,...,−j, o que
nos dá 2j + 1 estados e nos diz que a dimensão da representação é 2j + 1. A base se
constitui dos estados |ji, E− |ji = |j − 1i, (E− )2 |ji = |j − 2i,..., (E− )2j |ji = |−ji.
2. SU (3): temos duas raı́zes simples
α1 =
α2 =
√ !
1
3
,
,
2 2
√ !
1
3
,−
.
2
2
Vamos observar as matrizes de Gell-Mann associadas a H1



1 0 0
1

λ3
λ8
1
1 



H1 =
=  0 −1 0  ; H2 =
= √  0
2
2
2

2 3
0 0 0
0
(1.146)
e H2 :
0
0



1 0 .

0 −2
(1.147)
Daı́ lemos imediatamente os pesos de todos os estados base da representação fundamental, simplesmente lendo os autovalores de H1 e H2 em suas diagonais:
1 1
µ1 =
, √
= λ1 ,
(1.148)
2 2 3
1
µ2 = 0, − √ ,
3
1 1
µ3 = − , √ .
2 2 3
Vemos que
µ2 = µ1 − α 1 ,
µ3 = µ1 − α 1 − α 2 .
Graficamente:
33
Os estados base da representação são obtidos através da aplicação dos operadores
escada associados a raı́zes negativas
|λ1 i ,
|λ1 − α1 i,
| {z }
E−α1 |λ1 i
|λ1 − α1 − α2 i.
|
{z
}
(1.149)
E−α2 E−α1 |λ1 i
A representação 3∗ tem como geradores os −λti /2. Assim, os pesos são os anteriores
multiplicados por −1:
1
1
µ1 =
,− √
= λ2 ,
2
2 3
1
µ2 = 0, √ ,
3
1
1
µ3 = − , − √ .
2
2 3
(1.150)
Novamente,
µ2 = λ2 − α2 ,
(1.151)
µ3 = λ2 − α2 − α1 .
Graficamente:
Os estados base são:
|λ2 i ,
|λ2 − α2 i,
| {z }
E−α2 |λ2 i
1.7.2
|λ1 − α2 − α1 i.
|
{z
}
(1.152)
E−α1 E−α2 |λ1 i
Exercı́cios
1. Identifique o estado de peso máximo da representação adjunta de SU (3) e obtenha
os demais estados (a menos de constantes de normalização) aplicando operadores
escada associados a raı́zes negativas. Represente graficamente o conjunto de pesos
da representação no plano.
34
2. Escreva o peso máximo da representação adjunta na forma
mλ1 + nλ2
e mostre que todos os outros pesos podem ser escritos igualmente em termos dos
pesos fundamentais. Mostre que o peso máximo é dominante.
35
Bibliografia
[1] S. Lang, Álgebra Linear, Edgard Blücher Ltda., São Paulo, 1977. O teorema citado
está demonstrado no capı́tulo 10, parágrafo 3.
[2] H. Georgi, Lie Algebras in Particle Physics: from Isospin to Unified Theories, 2a
edição, Frontiers in Physics Series, Westview Press, 1999.
[3] D. Olive, Lectures on Gauge Theories and Lie Algebras with some Applications to
Spontaneous Symmetry Breaking and Integrable Dynamical Systems, notas de curso
dado na Universidade de Virgı́nia, 1982.
[4] L. A. Ferreira, Lecture Notes on Lie Algebras and Lie Groups: an Introductory Course,
notas de curso dado no Instituto de Fı́sica Teórica, IFT-UNESP, 1988.
[5] R. Ticciati, Quantum Field Theory for Mathematicians, Cambridge University Press,
Cambridge, 1999.
[6] L. A. B. San Martin, Álgebras de Lie, 2a edição, Editora Unicamp, 2010.
[7] M. Hamermesh, Group Theory and its Applications to Physical Problems, Dover Publications, 1989.
[8] R. Gilmore, Lie Groups, Lie Algebras and Some of Their Applications, WileyInterscience, Nova Iorque, 1974.
[9] B. Doubrovine, S. Novikov e A. Fomenko, Géometrie Comtemporaine: Méthodes e
Applications, 1 re partie, Mir, Moscou, 1985.
[10] V. Smirnov, Linear Algebra and Group Theory, Dover, Nova Iorque, 1970.
36

Documentos relacionados