Parte I Cromodinâmica Quântica
Transcrição
Parte I Cromodinâmica Quântica
Parte I Cromodinâmica Quântica 1 Capı́tulo 1 Aspectos operacionais do grupo SU (3) As idéias de quark e glúon - as partı́culas fundamentais que interagem fortemente - têm uma história determinada pelo conhecimento das representações do grupo SU (3). Neste capı́tulo iremos definir este grupo de Lie e estudar aspectos básicos de suas representações, para podermos identificar os argumentos que levaram à classificação dos hádrons (as partı́culas que interagem através da interação forte) segundo essas representações. 1.1 Definição de SU (3) e de sua álgebra de Lie Considere matrizes 3 × 3 com entradas complexas atuando num espaço vetorial 3-dimensional sobre os complexos. Neste espaço temos um produto escalar definido v 1 X ∗ u·v = ui vi = u∗1 u∗2 u∗3 v2 . i v3 (1.1) Perguntamos qual é a transformação linear mais geral, sobre todos os vetores do espaço em questão, que deixa invariante este produto escalar. Em outras palavras, se u0 = Ru e v 0 = Rv, quem são os R’s tais que u0 · v 0 = u · v 2 (1.2) (isto implica na transformação em questão ser uma isometria da métrica induzida pelo produto escalar). Utilizando a notação matricial acima 0 0 u ·v = u∗1 u∗2 u∗3 R t ∗ = u∗1 u∗2 v 1 R v2 v3 (1.3) v 1 u∗3 v2 , v3 Como isto deve ser verdade para u e v arbitrários, Rt ∗ R = R† R = I (1.4) ⇒ R−1 = R† , o que define R como uma matriz unitária. Matrizes unitárias 3 × 3 formam um grupo (estrutura definida pelas propriedades a seguir): se R1 e R2 são unitárias, R1 R2 também é, pois (R1 R2 )† R1 R2 = R2† R1† R1 R2 = R2† R2 = I. (1.5) Além disso, 1. R−1 é unitária: (R−1 )−1 = (R† )−1 = (R−1 )† ; 2. A identidade é unitária: (I)−1 = I = (I)† ; 3. R1 (R2 R3 ) = (R1 R2 ) R3 (associatividade do produto matricial). O grupo acima é chamado de U (3) (o “U ” indica transformações unitárias). Há restrições quanto ao determinante das matrizes R† R = I ⇒ det R† R = det R† det R = (det R)∗ det R = |det R|2 = 1 ⇒ det R = eiθ . 3 (1.6) Requerendo que θ = 0 (det R = 1) obtemos um subgrupo: se R1 e R2 são unitárias com determinante um, R1 R2 também é, pois det (R1 R2 ) = det R1 det R2 = 1. (1.7) Além disso, se det R = 1, det R−1 = det R† = 1 e a identidade tem determinante 1, o que caracteriza um subgrupo que chamamos de SU (3) (o “S” indica determinante um). O próximo passo é caracterizar uma transformação genérica de SU (3). Para fazer isso, notamos que as entradas de uma matriz complexa genérica unitária de determinante um não devem ser todas independentes. Descobrindo quantas relações entre essas entradas existem, poderemos eliminar os parâmetros não independentes e indicar a transformação mais geral de SU (3). Para contar o número de relações independentes fornecidos pela definição de SU (3), organizamos as relações numa estrutura matricial (os ı́ndices i repetidos indicam soma sobre i): ∗ ∗ ∗ Ri3 Ri2 Ri1 Ri1 Ri1 Ri1 ∗ ∗ ∗ R† R = Ri2 Ri3 Ri2 Ri2 Ri1 Ri2 ∗ ∗ ∗ Ri3 Ri1 Ri3 Ri2 Ri3 Ri3 1 0 0 = 0 1 0 0 0 1 . (1.8) ∗ Observamos agora que as relações ao longo da diagonal (por exemplo, Ri1 Ri1 = |Ri1 |2 = 1) são reais, enquanto que as fora da diagonal são complexas (e, portanto, valem por duas). ∗ Ri3 = 0 nos dá a mesma Além disso, a relação que está na posição 13 (por exemplo) Ri1 ∗ informação que a que está na posição 31, Ri3 Ri1 = 0. Com isso, obtemos 3 + 3 × 2 = 9 equações relacionando os parâmetros (reais) que caracterizam R. Uma equação adicional é dada por det R = 1,1 fornecendo um total de 10 equações de vı́nculo. Como o número de parâmetros reais, obtidos das entradas da matriz R é 9 × 2 = 18, subtraindo o número de equações de vı́nculo encontramos 8 parâmetros independentes. Assim, podemos dizer que os elementos da matriz R são funções destes parâmetros: Rij = Rij (θ1 , θ2 ..., θ8 ). 1 (1.9) Esta relação conta apenas como uma, e não como duas (por ser R complexa). Para ver isso, considere a matriz R em forma diagonal. Como ela é unitária, seus autovalores são fases, eiθi , com os θi reais. Impor det R = 1, então, é equivalente à equação real θ1 + θ2 + θ3 = 0. 4 Pode-se escolher os parâmetros independentes de modo que quando todos os θa = 0, a = 1, .., 8, então Rij (0, ..., 0) = δij . Quando isso é feito, pode-se mostrar que, se R = R (θa ), os parâmetros que caracterizam R−1 são θ̄a = −θa . Vamos agora mostrar um teorema de importância fundamental: todo elemento de SU (3) pode ser escrito como R = eiX . (1.10) Para mostrar isso, lembramos que toda matriz unitária (de dimensão finita) pode ser diagonalizada [1]. Com isto, vemos que existe uma base de autovetores ortonormais de R R |λi i = λi |λi i (1.11) (onde |λi i representa um vetor coluna). Tomando o conjugado e transpondo, obtemos hλi | R† = λ∗i hλi | (1.12) (com hλi | representando o vetor coluna conjugado e transposto). Tomando o produto escalar, hλi | R† R |λi i = |λi |2 hλi |λi i , (1.13) |λi |2 = 1 → λi = eiθi , (1.14) o que implica em onde os θi são reais. Definindo um operador linear X tal que X |λi i = θi |λi i , (1.15) vemos que eiX |λi i = eiθi |λi i = R |λi i. Como a ação dos dois operadores coincide sobre uma base, R = eiX . Como os autovalores de X são reais, verificamos imediatamente que X é hermitiano. O requerimento de que det R = 1 implica em 1 = det eiX = exp tr ln eiX = exp (itr (X)) (1.16) ⇒ tr (X) = 0. A matriz X é completamente caracterizada por 8 parâmetros reais: o fato dela ser hermitiana diz que apenas 3 elementos complexos (6 reais) fora da diagonal são independentes. Somam-se a eles os três elementos reais da diagonal, totalizando 9 parâmetros 5 reais. A condição (vı́nculo) de traço nulo subtrai um, deixando 8 parâmetros independentes. Assim, caracterizar o X mais geral implica em caracterizar o R mais geral. Para fazer isso, observamos que, se X1 e X2 são matrizes hermitianas de traço nulo, então α1 X1 + α2 X2 também o são, se α1 e α2 forem números reais. Assim, o conjunto de todas as matrizes hermitianas de traço nulo possui uma estrutura de espaço vetorial sobre os reais. Vamos procurar por uma base para este espaço vetorial. É claro, do que discutimos acima, que precisamos de 8 matrizes linearmente independentes para gerar um X genérico. Para achá-las, vamos considerar a matriz X, 3 × 3, hermitiana de traço nulo mais geral possı́vel α γ + iδ ε + iθ X = γ − iδ β ξ + iη ε − iθ ξ − iη −α − β 0 0 0 1 0 0 = α 0 0 0 0 + β 0 1 0 0 −1 0 0 −1 | | {z } {z Xα 0 0 1 Xβ 0 0 i (1.17) 0 + γ 1 0 | } 1 0 0 0 0 + δ −i 0 0 0 | {z } Xγ 0 0 0 0 0 i 0 0 0 0 0 {z } Xδ 0 + ε 0 0 0 + θ 0 0 0 + ξ 0 0 1 + η 0 0 i . −i 0 0 0 1 0 0 −i 0 1 0 0 | | | | {z } {z } {z } {z } Xε Xθ Xξ Xη Note que todas as constantes são reais e todas as matrizes são hermitianas, de traço nulo e linearmente independentes. Como conseguimos escrever a matriz X mais geral como combinação linear delas, elas constituem uma base. Cada elemento da base é chamado de gerador. Com uma pequena modificação, encontramos a base de Gell-Mann, mais 6 comumente utilizada: 0 1 0 λ1 = Xγ = 1 0 0 ; 0 0 0 1 0 0 λ3 = Xα − Xβ = 0 −1 0 0 0 0 0 0 −i λ5 = −Xθ = 0 0 0 ; i 0 0 0 0 0 λ7 = −Xη = 0 0 −i ; 0 i 0 0 −i 0 λ2 = −Xδ = i 0 0 0 ; 0 ; 0 (1.18) 0 0 1 λ4 = Xε = 0 0 0 1 0 0 0 0 0 λ6 = Xξ = 0 0 1 ; 0 1 0 1 λ8 = √ (Xα − Xβ ) = 3 ; √1 3 0 0 0 √1 3 0 0 0 − √23 . Uma propriedade adicional importante é tr (λa λb ) = 2δab . (1.19) Também é fácil (mas tedioso!) verificar que λa λb λc , = ifabc , 2 2 2 (1.20) onde os fabc são reais e completamente antissimétricos nos três ı́ndices. Os que são diferentes de zero são dados por f123 = 1; f147 = f165 = f246 = f257 = f345 = f376 = 1/2; f458 = f678 = √ 3/2. (1.21) Com essas propriedades, vemos que o espaço vetorial de todas as matrizes hermitianas de traço nulo se constitui numa álgebra de Lie. A definição deste tipo de estrutura pede que o espaço vetorial em questão possua uma segunda lei de composição (indicada por [., .]), sob a qual é fechado, satisfazendo: 1. nilpotência: [A, A] = 0; 7 2. bilinearidade: [αA + βB, C] = α [A, C] + β [B, C] , [C, αA + βB] = α [C, A] + β [C, B] ; 3. Identidade de Jacobi: [A, [B, C]] + [B, [C, A]] + [C, [A, B]] = 0. Note que a nilpotência mais a bilinearidade implicam em antissimetria da lei de composição: 0 = [X + Y, X + Y ] = [X, Y ] + [Y, X] (1.22) ⇒ [X, Y ] = − [Y, X] . No nosso caso, a lei de composição adicional (além da soma), pela qual o conjunto das matrizes hermitianas de traço nulo é fechado, é dada pelo comutador. Passaremos a chamar este espaço de álgebra de Lie de SU (3). Finalizamos esta parte, enunciando um importante teorema (sem prova): dados a a λa R(θ ) = exp iθ , (1.23) 2 a a λa R(α ) = exp iα , 2 o produto λa a R(θ )R(α ) = R(ϕ (θ, α)) = exp iϕ (θ, α) 2 a a a (1.24) tem as funções ϕa (θ, α) completamente determinadas pelas constantes fabc (chamadas, por isso, de constantes de estrutura) definidas pelas relações de comutação entre os λ0a s. Isso significa que a álgebra de Lie determina a lei de composição do grupo! Também podemos mostrar (veja exercı́cio 1) que a lei de composição do grupo igualmente determina a álgebra de Lie de SU (3). 1.1.1 Exercı́cios 1. Considerando θa e αa infinitesimais, mostre que, até segunda ordem nestes parâmetros, 1 ϕa (θ, α) = θa + αa − fabc θb αc + ... 2 8 2. Encontre todos os geradores de SU (5), na base natural. Mostre que o número deles coincide com o número de parâmetros independentes necessários para descrever uma transformação geral deste grupo. 1.2 Representações de SU(3) Suponha que consigamos um outro conjunto de matrizes R̃, não necessariamente 3dimensional, com cada matriz parametrizada por 8 parâmetros reais, satisfazendo R̃ (θa ) R̃ (αa ) = R̃ (ϕa (θ, α)) , (1.25) com ϕa (θ, α) sendo a mesma lei de composição obtida para as matrizes 3×3 de SU (3) consideradas na seção anterior. O conjunto dos R̃ é dito uma representação de SU (3). Podese dizer que as matrizes R̃ “imitam” o comportamento (sob composição) das matrizes 3-dimensionais R. As representações costumam ser definidas a menos de transformações de similaridade. De fato, se houver um S tal que, para todo R̃ R0 (θa ) = S R̃ (θa ) S −1 , (1.26) R0 (θa ) R0 (αa ) = S R̃ (θa ) S −1 S R̃ (αa ) S −1 = S R̃ (θa ) R̃ (αa ) S −1 (1.27) então é claro que = S R̃ (ϕa (θ, α)) S −1 = R0 (ϕa (θ, α)) . Isto nos diz que a lei de composição é respeitada na nova representação como consequência direta dela ser respeitada na antiga, não trazendo nenhuma informação nova. Considere agora um conjunto de 8 matrizes hermitianas de traço nulo Ta , de novo não necessariamente 3-dimensionais, satisfazendo [Ta , Tb ] = ifabc Tc , (1.28) onde os fabc são as constantes de estrutura de SU (3). Então o conjunto de matrizes R̃ (θa ) = exp (iθa Ta ) (1.29) constituem uma representação de SU (3), pois a lei de composição depende apenas das constantes de estrutura. Duas representações são particularmente importantes e de fácil visualização: 9 1. A representação complexo conjugada: Considere a representação 3-dimensional cujos elementos são gerados pelas matrizes de Gell-Mann, λa /2. Conjugando uma matriz genérica de SU (3) nesta representação, obtemos ∗ ∗ a a (λa ) . R (θ ) = exp −iθ 2 (1.30) Vamos conjugar a relação de comutação entre os λ0 s encontrados na seção anterior: ∗ ∗ ∗ λa λb λ∗ λ λ , (1.31) = a , b = −ifabc c . 2 2 2 2 2 ea = −λ∗ = −λt , vemos que Definindo λ a a " # λ̃a λ̃b λ̃c , = ifabc . 2 2 2 (1.32) Então, se definirmos λ̃a R̃ (θa ) = R∗ (θa ) = exp iθa 2 ! , (1.33) devido ao fato das relações de comutação entre os λ̃’s serem as mesmas que aquelas entre os λ’s, os R̃’s respeitarão a lei de composição de SU (3). Pode-se mostrar também que não existe S tal que λ̃a = Sλa S −1 , o que implicaria em R̃ = SRS −1 . Temos duas representações 3-dimensionais não-equivalentes, que costumam ser denotadas pelos sı́mbolos 3 (também chamada de representação fundamental ) e 3∗ (a sua representação complexo conjugada). 2. A representação adjunta: consideremos a conjugação de uma dada matriz (3 × 3) de SU (3), R, por outra, R0 , definida como −1 R0 R (R0 ) . (1.34) A matriz resultante é um elemento de SU (3). Vemos, então, que R0 R (R0 ) −1 = R0 eiX (R0 ) −1 0 0 −1 = eiR X(R ) = eiX . (1.35) Supondo que X = θa λa /2, vemos que X = θ̄a λa λa −1 = θa R0 (R0 ) . 2 2 10 (1.36) A equação acima é consistente apenas se R0 λb λa 0 −1 (R ) = dba (R0 ) , 2 2 (1.37) situação na qual identificamos θ̄a = dab (R0 ) θb . O conjunto dos coeficientes dab (R0 ) forma uma matriz 8 × 8 que, junto com outras matrizes 8 × 8 associadas a outros elementos de SU (3), constituem uma representação. Para ver isso, façamos duas conjugações, por R1 e R2 , de um gerador λa : λa λa −1 −1 λb −1 R1 R2 (R1 R2 ) = R1 R2 R2 R1 = R1 dba (R2 ) R1−1 2 2 2 λb λc = dba (R2 ) R1 R1−1 = dcb (R1 ) dba (R2 ) . 2 2 (1.38) Como R1 R2 também é um elemento de SU (3), R1 R2 λc λa (R1 R2 )−1 = dca (R1 R2 ) , 2 2 (1.39) o que nos diz que dcb (R1 ) dba (R2 ) = dca (R1 R2 ) . (1.40) A representação 8-dimensional formada pelas matrizes dab (R) é chamada de representação adjunta. Podemos obter os geradores das matrizes da representação adjunta considerando transformações infinitesimais. Tomemos um R (εa ), para εa infinitesimais, dado por R (εa ) = 1 + iεa λa . 2 (1.41) Por sua vez, sendo as matrizes dab (R) uma representação de SU (3), podemos escrever ec )ab . dab (R (εa )) = δab + iεc (X (1.42) Desta forma, λa λc b λb b λb 1 + iε 1 − iε = dca (R (εa )) 2 2 2 2 λa λa λc λa b λb λa b eb )ca λc . =⇒ + iε [ , ] = + iε ifbac = + iεb (X 2 2 2 2 2 2 2 λa R (ε ) R−1 (εa ) = 2 a (1.43) Dado que os λa formam uma base da álgebra de Lie, concluı́mos que eb )ca = ifbac = −ifbca . (X 11 (1.44) ea são 8 matrizes hermitianas 8 × 8, que representam a álgebra de Lie de SU (3) Os X da mesma forma que λa /2: h i ea , X eb = ifabc X ec , X (1.45) o que pode ser comprovado com o auxı́lio da consequencia da identidade de Jacobi: λc λa λb λb λc λa λa λb λc , , + , , + , , =0 2 2 2 2 2 2 2 2 2 ⇒ fbcd fade + fabd fcde + fcad fbde = 0. (1.46) Antes de passarmos ao próximo tópico, vamos ressaltar mais alguns fatos sobre SU (3): 1. Qualquer elemento de SU (3) pode ser conectado continuamente com a identidade, através de um caminho completamente contido no grupo. Isso quer dizer que, para qualquer R ∈ SU (3), existe uma aplicação contı́nua α (t), de um intervalo [a, b] ⊂ R em SU (3) tal que α (a) = 1 e α (b) = R, com cada α (t) ∈ SU (3). Isto é verdade para qualquer representação. 2. Dados os geradores de SU (3) numa dada representação, Ta , podemos definir uma matriz 8 × 8 denominada forma de Killing gab = tr (Ta Tb ). (1.47) Esta matriz é simétrica e real, pois (lembre que estamos supondo que os Ta ’s são hermitianos): ∗ gab = tr (Ta∗ Tb∗ ) = tr (Tat Tbt ) = tr ((Tb Ta )t ) (1.48) = tr (Tb Ta ) = tr (Ta Tb ) = gab = gba . Conforme já vimos, na representação fundamental, gab = tr ( λa λb 1 ) = δab . 2 2 2 (1.49) É possı́vel mostrar que, numa representação arbitrária, teremos gab = λδab , (1.50) com λ dependendo da representação em questão. 3. A forma de Killing pode ser vista como definindo um produto escalar na álgebra de Lie: hX1 , X2 i = tr (X1 X2 ) = tr (θ1a Ta θ2b Tb ) = gab θ1a θ2b . 12 (1.51) 1.3 Raı́zes Há duas matrizes diagonais na base de Gell-Mann 1 0 0 λ3 = 0 −1 0 , 0 0 0 1 0 0 1 λ8 = √ 0 1 0 3 0 0 −2 Isto implica imediatamente em (1.52) . λ3 λ8 λc , = if38c = 0, 2 2 2 =⇒ f38c = 0 (1.53) c = 1, ..., 8 Pode-se ver, facilmente, que estas são as duas únicas matrizes que comutam entre si. Como a álgebra é independente da representação, notamos que [T3 , T8 ] = 0, (1.54) para qualquer representação. Vamos denotar por H1 ≡ T3 e H2 ≡ T8 essas duas matrizes. Elas formam uma sub-álgebra da álgebra de Lie, chamada sub-álgebra de Cartan. Indicamos os elementos da sub-álgebra de Cartan por Hi , i = 1, 2. A ordem do grupo (em inglês, rank ) é definida como a dimensão da sub-álgebra de Cartan (no caso de SU (3), o rank é 2). A partir da representação fundamental, podemos encontrar facilmente a dimensão da sub-álgebra de Cartan. Basta contar o número de matrizes hermitianas, de traço nulo, 3 × 3, diagonais, linearmente independentes a 0 0 0 b 0 0 0 c (1.55) A hermiticidade implica em a = a∗ , b = b∗ e c = c∗ . A condição de traço nulo nos diz 13 que a + b + c = 0. Com isto, temos (escolhendo eliminar c): a 0 0 1 0 0 0 0 0 0 b = a 0 0 0 + b 0 1 0 0 0 0 −a − b 0 0 −1 0 0 −1 , (1.56) o que nos dá duas matrizes linearmente independentes, implicando em dimensão 2 para a sub-álgebra de Cartan. Renumeramos os demais Ta (a = 1, 2, 4, 5, 6, 7) de modo que a = 1, 2, ..., 6. Observamos que tr (Hi Hj ) = λδij , tr (Hi Ta ) = 0, tr (Ta Tb ) = λδab . o que nos diz que, em termos do produto escalar que definimos, os Ta ’s formam um subespaço ortogonal aos Hi ’s. As relações de comutação dos Hi com os restantes Ta são, em princı́pio, [Hi , Ta ] = ifiab Tb + ifiaj Hj . (1.57) Vamos mostrar que fiaj = 0. Para tanto, multiplicamos a relação acima por Hk à esquerda e tomamos o traço (lembremos que, como consequencia de tr (Ta Tb ) = λδab , na nossa nova indexação, tr (Hk Tb ) = 0): tr (Hk [Hi , Ta ]) = ifiab tr (Hk Tb ) + ifiaj tr (Hk Hj ) = ifiaj λδkj = iλfiak . (1.58) Mas, usando a propriedade cı́clica do traço, tr (Hk [Hi , Ta ] = tr (Hk Hi Ta − Hk Ta Hi ) (1.59) = tr ((Hk Hi − Hi Hk )Ta ) = tr ([Hk , Hi ]Ta ) = 0, =⇒ fiak = 0. (1.60) Em resumo, em termos da base de geradores redefinida, as relações de comutação ficam: [Hi , Hj ] = 0, i, j = 1, 2, (1.61) [Hi , Ta ] = ifiab Tb , i = 1, 2; a, b = 1, ..., 6, [Ta , Tb ] = ifabc Tc + ifabi Hi , i = 1, 2; a, b = 1, ..., 6. Vamos definir agora (hi )ab = ifiab . 14 (1.62) Vamos mostrar que as matrizes hi (hermitianas!) comutam entre si. Para isso, vemos que [Hj , [Hi , Ta ]] = Hj , hiab Tb = hiab hjbc Tc , [Hi , [Hj , Ta ]] = Hi , hjab Tb = hjab hibc Tc , (1.63) Subtraindo uma equação da outra [Hj , [Hi , Ta ]] − [Hi , [Hj , Ta ]] = hi , hj ac Tc . (1.64) Usando a identidade de Jacobi [Hj , [Hi, Ta ]] + [Hi , [Ta , Hj ]] = − [Ta, [Hj , Hi ]] = 0, (1.65) i j h , h ac = 0. (1.66) obtemos Se os hi ’s são matrizes hermitianas que comutam entre si, elas podem ser diagonalizadas simultaneamente. Vamos chamar de Sαb a transformação unitária que as diagonaliza −1 Sαc hicd Sdβ = αi δαβ , α, β = 1, ..., 6. (1.67) −1 Multiplicando a relação [Hi , Ta ] = hiab Tb por Sαa à esquerda e inserindo δbc = Sbβ Sβc entre hi e Tb , −1 [Hi , Sαa Ta ] = Sαa hiab Sbβ Sβc Tc = αi Sαa Ta . (1.68) Definindo Eα ≡ Sαa Ta chegamos a [Hi, Eα ] = αi Eα (1.69) O vetor 2-dimensional α = (α1 , α2 ) é chamado de raiz. Há tantas raı́zes (6 delas) quanto geradores fora da sub-álgebra de Cartan. As novas combinações lineares dos geradores Eα = Sαa Ta são chamadas de operadores escada. Observe que os Eα não são hermitianos, porque os coeficientes Sαa são números complexos, no caso geral. Note também que as raı́zes não podem ser (0, 0). Se isso acontecesse, o Eα correspondente teria que pertencer à subálgebra de Cartan, o que, por hipótese, é impossı́vel (tal teste já foi feito anteriormente para definir a sub-álgebra de Cartan). As raı́zes obedecem a uma série de vı́nculos, impostos pela estrutura da álgebra de Lie de SU (3). Vamos estudar alguns deles e entender de que maneira eles podem ser úteis na construção de representações do grupo. 15 1.3.1 Exercı́cios 1. Identifique a sub-álgebra de Cartan, os operadores escada e as raı́zes no grupo SU (2), cuja álgebra de Lie é definida por [Ta , Tb ] = iεabc Tc , a, b, c = 1, 2, 3. 2. Utilizando as expressões explı́citas para as matrizes de Gell-Mann, defina λ±α1 λ1 ± iλ2 ≡ , 2 2 λ±α2 λ4 ± iλ5 ≡ , 2 2 λ±α3 λ6 ± iλ7 ≡ , 2 2 mostre que λ3 λ±α1 λ±α1 , , =± 2 2 2 λ8 λ±α1 , = 0, 2 2 λ3 λ±α2 1 λ±α2 , , =± 2 2 2 2 √ λ8 λ±α2 3 λ±α2 , , =± 2 2 2 2 λ3 λ±α3 1 λ±α2 , =∓ , 2 2 2 2 √ λ8 λ±α3 3 λ±α2 =± , , 2 2 2 2 e identifique as raı́zes de SU (3). 16 1.4 Propriedades das raı́zes Vamos iniciar uma análise que pode ser facilmente generalizada para grupos diferentes de SU (3) (eles devem ser, no entanto, compactos e semisimples2 ). As propriedades encontradas fixam o conjunto das raı́zes de um determinado grupo, como iremos ver. 1. Considere o comutador entre um dos Hi e o produto de dois operadores escada, associados a duas raı́zes α e β: [Hi , Eα Eβ ] = [Hi , Eα ] Eβ + Eα [Hi , Eβ ] = (αi + βi )Eα Eβ (1.70) Tomando o traço dos dois lados tr ([Hi , Eα Eβ ]) = 0 = (αi + βi ) tr (Eα Eβ ), (1.71) pois o traço de qualquer comutador de matrizes é nulo. Daı́, tr (Eα Eβ ) = 0, se α 6= −β. 2. Se β = −α, podemos nos perguntar se tr (Eα E−α ) também é nulo. Isto não pode acontecer: se assim fosse, tr (Eα Eβ ) = 0 (com β arbitrário) e na matriz que representa a forma de Killing haveria uma linha e uma coluna de zeros. Com isto o seu determinante teria que ser nulo, o que não é verdade (lembremos que gab = tr (Ta Tb ) = λδab , o que nos diz que det kgab k = λn , onde n é a dimensão da álgebra de Lie). Assim, se α é raiz, −α também é. Isto reduz a nossa busca a 3 raı́zes, no caso de SU (3). 3. Já que os Eα são combinações lineares dos Ta remanescentes, observamos que tr (Hi Eα ) = 0. (1.72) 4. Do que vimos no item 1) obtemos [Hi , [Eα , Eβ ]] = [Hi , Eα Eβ ] − [Hi , Eβ Eα ] = (αi + β i ) [Eα , Eβ ] . 2 (1.73) Um grupo de Lie G é compacto se os parâmetros que caracterizam uma transformação genérica variam num intervalo de valores reais limitados. Um subgrupo H ⊂ G é dito invariante se, por conjugação, seus elementos são levados a outros dentro de H, ou seja, se para cada h ∈ H, temos ghg −1 ∈ H com g ∈ G arbitrário. O grupo G é simples se não contém subgrupos invariantes e é semisimples se não contém subgrupos invariantes abelianos (se h1 , h2 ∈ H, h1 h2 = h2 h1 ). Notamos que todo grupo simples é semi-simples. 17 Com isto, temos duas opções: (a) αi + β i é uma raiz e [Eα , Eβ ] = cEα+β ; (b) αi + β i não é raiz e [Eα , Eβ ] = 0. No caso β = α, se 2α fosse raiz, então [Eα , Eα ] = cE2α . Como [Eα , Eα ] = 0, vemos que, se α é raiz, 2α não pode ser raiz. 5. Do resultado obtido no último ı́tem, vemos que [Hi , [Eα , E−α ]] = (αi − αi ) [Eα , E−α ] = 0, (1.74) [Eα , E−α ] = xi Hi ≡ x · H. (1.75) o que nos diz que Podemos calcular facilmente o vetor x. Para isso, consideramos tr (Hj [Eα , E−α ]) = xi tr (Hj Hi ) = λxi δji = λxj . (1.76) Mas, tr (Hj [Eα , E−α ]) = tr (Hj Eα E−α ) − tr (Hj E−α Eα ) = tr (Hj Eα E−α − Eα Hj E−α ) (1.77) = tr ([Hj , Eα ] E−α ) = αj tr (Eα E−α ) = λαj Daı́, xj = αj e [Eα , E−α ] = αi Hi ≡ α · H (1.78) 6. Podemos resumir o que obtivemos até agora em relação à nova cara das relações de comutação em termos da base {Hi , Eα }: [Hi , Hj ] = 0, [Hi , Eα ] = αi Eα , cEα+β , [Eα , Eβ ] = 0, α · H, (1.79) se α + β é raiz, α 6= −β, se α + β não é raiz, α 6= −β, se α = −β. 18 Normalizando os traços tr (Hi Hj ) = δij , tr (Hi Eα ) = 0, tr (Eα Eβ ) = δα+β,0 , (1.80) chamamos a base {Hi , Eα } assim obtida de base de Weyl-Cartan. 7. Notamos que Eα , E−α e α · H formam uma sub-álgebra fechada pois [α · H, Eα ] = α2 Eα , (1.81) [α · H, E−α ] = −α2 E−α , [Eα , E−α ] = α · H 2 2 (onde α2 ≡ (α1 ) + (α2 ) ). Definindo 2T3α ≡ Hα ≡ 2 T±α = (onde kαk = √ α·H , α2 (1.82) √ E±α 2 , kαk α2 ) vemos que α α T+ , T− = 2T3α , α α T3 , T± = ±T±α , (1.83) que são as relações de comutação caracterı́sticas de SU (2). Isto significa que os autovalores de Hα são inteiros (pois T3α tem autovalores inteiros e semi-inteiros e Hα = 2T3α ). 8. Tomando uma outra raiz β 6= α, α·β α·H [Hα , Eβ ] = 2 2 , Eβ = 2 2 Eβ α α (1.84) Suponha que |mi seja autovetor de Hα (e, portanto, m seja inteiro). Daı́, Hα (Eβ |mi) = (Eβ Hα + [Hα , Eβ ]) |mi α·β = m+2 2 (Eβ |mi) α (1.85) Logo, Eβ |mi é autovetor de Hα , o que implica em 2α · β/α2 ser inteiro, se α e β forem raı́zes. 19 9. Consideremos a desigualdade de Schwarz α · β = kαk kβk cos θ ≤ kαk kβk onde θ é o ângulo entre as raı́zes, que estamos supondo que varia na faixa entre 0 e π/2. Esta restrição é suficiente, pois lembramos que, se o ângulo entre α e β for maior que π/2, o ângulo entre −α e β será menor que π/2 e podemos refazer a análise considerando −α em lugar de α. Podemos escrever, então, β·α α·β 2 2 = mn = 4 cos2 θ ≤ 4. 2 2 α β (1.86) Dado que m e n são inteiros, a análise da condição obtida acima envolve apenas uns poucos casos. Se mn = 0, 1, 2, 3, α não é paralela a β (cos θ < 1); se mn = 4, α é paralela a β (cos θ = 1). Detalhamos a seguir as situações particulares mencionadas acima: (a) mn = 0: neste caso, α é ortogonal a β e nada se pode afirmar sobre os comprimentos relativos das raı́zes; (b) mn = 1: temos que ter m = n = 1 e, portanto, 4 cos2 θ = 1 → cos θ = 1 π ⇒θ= 2 3 ◦ 60 . (1.87) Por outro lado, 2 α·β = 1 ⇒ 2α · β = α2 , 2 α (1.88) e então 2 kαk kβk 1 = kαk2 2 (1.89) ⇒ kαk = kβk . ◦ Portanto, temos raı́zes de comprimentos iguais, formando 60 entre si. (c) mn = 2: temos duas opções, que são m = 1, n = 2 ou m = 2, n = 1. Vamos escolher a segunda (a primeira conduz ao mesmo resultado) e repetir a análise feita no ı́tem a): √ 2 4 cos θ = 2 → cos θ = 20 2 π ⇒θ= 2 4 ◦ 45 . (1.90) α·β = 2 =⇒ α · β = α2 , (1.91) 2 α √ √ 2 = kαk2 ⇒ kβk = 2 kαk . kαk kβk 2 √ Portanto, temos raı́zes satisfazendo a relação kβk = 2 kαk (ou vice-versa), 2 ◦ fazendo ângulos de 45 entre si. (d) mn = 3: novamente, temos duas opções, que são m = 1, n = 3 ou m = 3, n = 1. Escolhendo a segunda, temos √ 2 4 cos θ = 3 → cos θ = π 3 ⇒θ= 2 6 ◦ 30 α·β = 3 ⇒ 2α · β = 3α2 , α2 √ √ 3 = 3 kαk2 ⇒ kβk = 3 kαk . 2 kαk kβk 2 2 . (1.92) (1.93) (e) mn = 4: temos algumas sub-opções: i. m = 1, n = 4: neste caso 2 α·β = 4 ⇒ kαk kβk = 2 kαk2 . α2 (1.94) Isto nos dá β = 2α, o que lembramos não ser permitido (como vimos no ı́tem 4)). Portanto, esta situação não pode ocorrer. ii. m = 2, n = 2: como antes, 2 α·β = 2 ⇒ kαk kβk = kαk2 , 2 α (1.95) o que nos dá kαk = kβk. Como α e β são paralelas, concluı́mos que α = β, o que é uma situação trivial. Com isto, notamos que o caso mn = 4 não conduz a restrições sobre comprimentos e ângulos entre raı́zes, como nos casos anteriores. 1.5 Mais sobre raı́zes Vamos fazer um resumo do que aprendemos sobre as raı́zes até agora: 1. Se α é perpendicular a β, não há relação entre kαk e kβk. 21 2. Se as raı́zes forem paralelas, α = −β. ◦ 3. Se o ângulo entre elas é de 60 , kαk = kβk. ◦ √ ◦ √ 4. Se o ângulo entre elas é de 45 , kαk = 5. Se o ângulo entre elas é de 30 , kαk = 2 kβk. 3 kβk. 6. Se α e β são raı́zes não paralelas, acontece uma de duas: (a) α + β é raiz e [Eα , Eβ ] = cEα+β , ou (b) α + β não é raiz e [Eα , Eβ ] = 0. Com isto, já podemos desenhar todos os conjuntos de raı́zes possı́veis para uma álgebra de Lie de rank 2: 2 Pode-se mostrar que cada diagrama de O único diagrama associado a 6 raı́zes é . raı́zes possı́vel corresponde a uma álgebra de Lie simples. 22 1.6 Raı́zes simples É natural procurar uma “base” para o conjunto de todas as raı́zes. No entanto, antes de fazer isto, vamos definir alguns instrumentos úteis. Voltando à sub-álgebra SU (2) definida √ por Hα = 2T3α = 2 (α · H) /α2 e T±α = 2E±α / kαk, podemos definir T2α T+α − T−α = 2i (1.96) Do que conhecemos sobre rotações, sabemos que uma rotação por π em torno do eixo y leva o eixo z positivo no eixo z negativo. Como T2α e T3α obedecem à mesma álgebra do grupo de rotações, temos então α α eiπT2 T3α e−iπT2 = −T3α (1.97) ou α α eiπT2 (α · H) e−iπT2 = − (α · H) . (1.98) Considere um vetor x perpendicular a α. Então [x · H, E±α ] = ± (α · x) E±α = 0 (1.99) =⇒ [x · H, T2α ] = 0, e, portanto, α α eiπT2 (x · H ) e−iπT2 = x · H. (1.100) Vamos tentar entender o que está acontecendo analisando um exemplo bidimensional (e, portanto, adequado ao grupo SU (3)): 23 A componente de y ao longo de α troca de sinal, enquanto ao longo de x nada acontece. Isto corresponde a uma reflexão especular ao longo do eixo x: y −→ y 0 = y − 2 α·y α α·y = y − 2 2 α, kαk kαk α (1.101) α·y = y − 2 2 α · H. α (1.102) o que nos diz que iπT2α e (y · H) e −iπT2α Tal transformação define uma operação de reflexão: σα (y) = y − 2 α·y α. α2 (1.103) A operação σα (y) é chamada de reflexão de Weyl. É uma reflexão especular de um vetor arbitrário por um hiperplano perpendicular a α. Notamos que a reflexão de Weyl é idempotente e que ela preserva o produto escalar, ou seja σα (σα (x)) = x, (1.104) x1 · x2 = σα (x1 ) · σα (x2 ) . (1.105) Daı́, obtemos as seguintes propriedades: 1. Se y = σα (x), x = σα (y) ; 2. Se x = σα (y), então β · x = β · σα (y) = σα (β) · σα (σα (y)) = σα (β) · y. Definindo agora 0 α α Eβ = eiπT2 Eβ e−iπT2 , (1.106) vemos que, se [x · H, Eβ ] = (β · x) Eβ . Então, h i α 0 0 α σα (x) · H, Eβ = eiπT2 [x · H, Eβ ] e−iπT2 = (β · x) Eβ . (1.107) Com isto, h 0 i 0 0 y · H, Eβ = β · σα (y) Eβ = σα (β) · y Eβ. (1.108) Considerando y arbitrário, i h 0 0 Hi , Eβ = σαi (β)Eβ , o que significa que, se β é raiz, σα (β) também é. Vamos exemplificar com SU (3): 24 (1.109) Temos quase todos os elementos para definir uma base no espaço das raı́zes. Falta-nos o seguinte lema: dadas α e β, raı́zes distintas, temos duas opções: 1. Se α · β > 0, então α − β é raiz; 2. Se α · β < 0, então α + β é raiz. Prova: se α · β > 0, devemos ter 2 α·β =1 α2 ou 2 α·β = 1; β2 (1.110) Tomando a primeira opção, σα (β) = β − 2 α·β α=β−α α2 (1.111) é raiz, o que implica em α − β ser raiz. Se tomarmos a segunda opção, obteremos o resultado ainda mais diretamente: σβ (α) = α − 2 α·β β = α − β. β2 (1.112) Se α · β < 0, mostramos de maneira similar que α + β é raiz. Com isto, estamos prontos para enunciar o seguinte teorema (sem prova): existem r raı́zes simples (r é o rank da álgebra ) tais que qualquer raı́z pode ser escrita como α=± r X ni α i (1.113) i=1 com ni inteiros positivos e αi · αj ≤ 0. Não vamos demonstrar o teorema, mas vamos mostrar a sua validade para SU (3): 25 Tome tais raı́zes como α1 e α2 . Então, vemos que α1 · α2 < 0 e α3 = α1 + α2 , (1.114) β1 = −α1 , β2 = −α2 , β3 = −α1 − α2 . Essas raı́zes “base” são chamadas de raı́zes simples. As raı́zes que são escritas com combinações lineares positivas ou negativas são, respectivamente, raı́zes positivas ou negativas. Note que as raı́zes simples são, por definição, raı́zes positivas e, uma vez escolhida a base de raı́zes simples, uma raiz simples não pode ser escrita como soma de outras. Vamos dar uma definição operacional de positividade (ou negatividade) das raı́zes: uma raiz será dita positiva se a sua primeira componente não nula for positiva (e será dita negativa se for o contrário). Esta definição nos permite estabelecer uma ordem no conjunto das raı́zes. Dadas duas raı́zes α e α0 , dizemos que α > α0 se α − α0 for positiva. Se não for o caso, diremos que α < α0 . No nosso caso, vemos que α1 < α2 < α3 (sendo obviamente maiores que suas contrapartes negativas β1 , β2 e β3 ). 26 É possı́vel mostrar que, dadas as raı́zes simples de uma álgebra de Lie, é possı́vel reconstruir toda a álgebra. No entanto, não iremos explorar essa direção do estudo das álgebras de Lie. 1.7 Pesos Vamos nos concentrar, de agora em diante, no espaço vetorial onde os operadores associados aos geradores agem, ou seja no espaço onde a representação está definida, cuja dimensão, em princı́pio, é desconhecida. Vamos procurar, no curso de nosso estudo, descobrir que espaços vetoriais conseguem acomodar representações de SU (3). Começamos supondo que todos os geradores operam num espaço vetorial n dimensional. Como os Hi são hermitianos, eles têm um conjunto completo de autovetores ortonormais. Vamos denotá-los por |µ; li, de modo que Hi |µ; li = µi |µ; li , i = 1, 2; l = 1, ..., gµ , (1.115) onde o ı́ndice l indica possı́veis degenerescencias dos estados e gµ é o correspondente grau de degenerescencia. Os autovalores µ1 e µ2 constituem um vetor bi-dimensional µ = µ1 , µ2 (1.116) que é chamado de peso do estado. Os estados base satisfazem hµ; l|µ0 , l0 i = δµµ0 δll0 . (1.117) Baseado no que vimos anteriormente sobre as raı́zes, podemos obter uma restrição sobre os vetores µ. Consideremos a ação de Hα = 2α · H/α2 sobre |µ; li: Hα |µ; li = 2 α·µ |µ; li . α2 (1.118) Como seus autovalores têm que ser inteiros, obtemos que 2 α·µ é inteiro. α2 (1.119) Assim, um dado vetor µ só pode ser um peso se, testado como acima para qualquer raiz, o resultado for inteiro. 27 Como exemplo, vamos definir a seguinte ação dos geradores de SU (3) sobre um espaço 8-dimensional, com vetores base indexados por a = 1, ...8: ha|bi = δab , (1.120) Ta |bi ≡ ifabc |ci , onde a soma sobre c está subentendida. Os elementos de matriz do operador Ta são hc|Ta |bi = ifabc = −ifacb = X̃a , (1.121) cb o que faz com que identifiquemos imediatamente a representação como sendo a adjunta. Podemos fazer uma mudança de base da seguinte maneira |1i0 = |3i , (1.122) |2i0 = |8i , |αi0 = Sαa |ai , a = 1, 2, 4, 5, 6, 7, α = 1, ..., 6, com Sαa sendo a matriz que diagonaliza (hi )ab , definida na seção 1.3. Nesta base, Hi |ji0 = 0, i, j = 1, 2; (1.123) Hi |αi0 = αi |αi0 . Das equações de autovalores acima, lemos diretamente os pesos da representação adjunta. São eles: µ1 = µ2 = (0, 0), µ̄i = αi , (1.124) i = 1, 2, 3, −µ̄i = −αi , i = 1, 2, 3. Vemos, portanto, que os pesos da representação adjunta são as raı́zes. Eles correspondem aos seguintes vetores base (indexados agora pelos pesos) |(0, 0) ; 1i , |α1 i , |−α1 i , |(0, 0) ; 2i , |α2 i , (1.125) |α3 i , |−α2 i , |−α3 i . Vamos carregar, para os pesos, as mesmas noções de positividade e negatividade que definimos quando tratamos das raı́zes simples, na seção 1.6. 28 1.7.1 Pesos fundamentais Vamos escolher dois vetores, λ1 e λ2 tais que 2 λi · αj = δij , αj2 (1.126) onde os αj são raı́zes simples. Vamos mostrar que, se a condição acima é satisfeita, os λi são pesos. Para isso, devemos mostrar que 2λi · α/α2 é inteiro para qualquer raiz. Restringindo-nos a SU (3): λi · α 2 2 =2 α 2 P λi · ! nj αj 2 X λi · αj = ni = nj 2 αj 2 j=1 j=1 α2 (1.127) (onde usamos que α2 = αj2 para qualquer j, o que é válido para SU (3)). Os λi definidos como em (1.126) são chamados pesos fundamentais. Veremos, a seguir, que todo peso pode ser escrito como combinação linear dos pesos fundamentais. Se µ é um peso, vamos definir li = 2 µ · αi , αi 2 e poderemos mostrar facilmente que ! 2 2 X αj µ · α j X λi · α j 2 µ− li λi · 2 = 2 − 2 li 2 2 α α α j j j i=1 i=1 (1.128) (1.129) 2 µ · αj X µ · αj =2 − li δij = 2 − lj = 0 2 2 αj α j i=1 Como as raı́zes simples αj são vetores linearmente independentes, nenhum vetor (exceto o vetor nulo) pode ser ortogonal a todas elas. Daı́, µ= 2 X i=1 2 X µ · αi li λi = 2 2 λi . α i i=1 (1.130) Por outro lado, uma combinação linear arbitrária (com coeficientes inteiros) dos pesos fundamentais também é um peso. Se µ= 2 X i=1 29 li λi , (1.131) então µ·α 2 2 = α 2 X i=1 λi · α 2 2 α 2 P λ · n α 2 X i k=1 k k li li = 2 α2 i=1 (1.132) k 2 X 2 2 X 2 X X λi · αk n l = = δik nk li 2 k i 2 α k i=1 k=1 i=1 k=1 = 2 X ni li −→ inteiro. i=1 Podemos, então, escrever o peso mais geral de SU (3) como µ = mλ1 + nλ2 , (1.133) e vemso que o conjunto de todos os pesos forma um subconjunto discreto de R2 chamado de rede de pesos Λ. As raı́zes formam uma sub-rede Λr . Vamos considerar os casos de SU (2) e SU (3): 1. SU (2): temos uma única raiz que também é simples (α = 1). O peso fundamental correspondente é dado pela equação λα = 1, α2 (1.134) 1 λ= . 2 (1.135) 1 µ=n , 2 (1.136) 2 o que nos dá O peso mais geral é, então, com n inteiro. A rede de pesos está descrita na figura a seguir. 2. SU (3): as raı́zes simples são α1 = α2 = √ ! 1 3 , , 2 2 √ ! 1 3 ,− . 2 2 30 (1.137) Os pesos fundamentais podem ser encontrados resolvendo as equações lineares seguintes: √ λ1 · α 1 = 1 → λ + λ 3 = 1, 1x 1y α1 2 √ λ1 · α 2 3 = 0, 2 = 0 → λ − λ 1x 1y α2 2 1 1 ⇒ λ1 = , √ . 2 2 3 2 √ λ2 · α 1 3 = 0, = 0 → λ + λ 2x 2y α1 2 √ λ2 · α 2 2 3 = 1, = 1 → λ − λ 2x 2y α2 2 1 1 ⇒ λ2 = ,− √ . 2 2 3 2 (1.138) (1.139) A rede de pesos de SU (3) aparece na figura abaixo, onde destacamos as raı́zes simples e os pesos fundamentais. Os pesos diferem entre si por somas de raı́zes: Hi (Eα |µi) = Eα Hi |µi + αi Eα |µi = (µi + αi ) (Eα |µi) (1.140) =⇒ Eα |µi = c |µ + αi . Numa dada representação, existe um vetor base associado a um peso que é maior que qualquer outro (basta comparar os pesos entre si e escolher o maior). O estado correspondente tem que ser aniquilado por todos os Eα associados a α > 0: Eα |λi = 0, α>0 (1.141) (caso contrário, λ + α seria o peso máximo). Os demais estados da representação são obtidos atuando sobre |λi com E−α (α > 0) até esgotarmos a dimensão do espaço. 31 Vamos enunciar mais dois teoremas importantes sem prova (válidos para grupos compactos e semi-simples genéricos): Teorema 1 Um peso máximo λ de uma dada representação é dominante. Isso significa que λ · αi ≥ 0, onde os αi são as raı́zes simples. Teorema 2 Existe uma única representação irredutı́vel (a menos de transformações de similaridade) de peso máximo λ para cada peso λ que seja dominante. Vejamos dois exemplos importantes: 1. SU (2): como já vimos, o peso fundamental é λ = 1/2 e a rede de pesos é dada por n/2. Vamos escolher um desses pesos (os pesos dominantes são os j’s positivos, como pede o teorema 2 acima) e considerá-lo como peso máximo de uma dada representação |µi = |ji . (1.142) Aplicando E− |ji obtemos |j − 1i; aplicando novamente E− |j − 1i teremos |j − 2i e assim por diante. Como a representação tem dimensão finita, vai existir um r tal que (E− )r |ji = c |j − ri , (1.143) (E− )r+1 |j − ri = 0. Sabemos que 2H = [E+ , E− ] e que tr 2H = tr ([E+ , E− ]) = 0. Mas tr H = n X µi , (1.144) i=1 onde os µi são os pesos que aparecem nesta representação. Como os pesos são do tipo j − l, r X (j − l) = j (r + 1) − l=0 r X l l=1 r (r + 1) 2 (2j − r) (r + 1) = = 0, 2 = j (r + 1) − ⇒ r = 2j 32 (r > 0). (1.145) Recobramos, então, o bem conhecido resultado de que, numa representação de peso j de SU (2), os estados base são rotulados por pesos µi = j, j − 1, j − 2,...,−j, o que nos dá 2j + 1 estados e nos diz que a dimensão da representação é 2j + 1. A base se constitui dos estados |ji, E− |ji = |j − 1i, (E− )2 |ji = |j − 2i,..., (E− )2j |ji = |−ji. 2. SU (3): temos duas raı́zes simples α1 = α2 = √ ! 1 3 , , 2 2 √ ! 1 3 ,− . 2 2 Vamos observar as matrizes de Gell-Mann associadas a H1 1 0 0 1 λ3 λ8 1 1 H1 = = 0 −1 0 ; H2 = = √ 0 2 2 2 2 3 0 0 0 0 (1.146) e H2 : 0 0 1 0 . 0 −2 (1.147) Daı́ lemos imediatamente os pesos de todos os estados base da representação fundamental, simplesmente lendo os autovalores de H1 e H2 em suas diagonais: 1 1 µ1 = , √ = λ1 , (1.148) 2 2 3 1 µ2 = 0, − √ , 3 1 1 µ3 = − , √ . 2 2 3 Vemos que µ2 = µ1 − α 1 , µ3 = µ1 − α 1 − α 2 . Graficamente: 33 Os estados base da representação são obtidos através da aplicação dos operadores escada associados a raı́zes negativas |λ1 i , |λ1 − α1 i, | {z } E−α1 |λ1 i |λ1 − α1 − α2 i. | {z } (1.149) E−α2 E−α1 |λ1 i A representação 3∗ tem como geradores os −λti /2. Assim, os pesos são os anteriores multiplicados por −1: 1 1 µ1 = ,− √ = λ2 , 2 2 3 1 µ2 = 0, √ , 3 1 1 µ3 = − , − √ . 2 2 3 (1.150) Novamente, µ2 = λ2 − α2 , (1.151) µ3 = λ2 − α2 − α1 . Graficamente: Os estados base são: |λ2 i , |λ2 − α2 i, | {z } E−α2 |λ2 i 1.7.2 |λ1 − α2 − α1 i. | {z } (1.152) E−α1 E−α2 |λ1 i Exercı́cios 1. Identifique o estado de peso máximo da representação adjunta de SU (3) e obtenha os demais estados (a menos de constantes de normalização) aplicando operadores escada associados a raı́zes negativas. Represente graficamente o conjunto de pesos da representação no plano. 34 2. Escreva o peso máximo da representação adjunta na forma mλ1 + nλ2 e mostre que todos os outros pesos podem ser escritos igualmente em termos dos pesos fundamentais. Mostre que o peso máximo é dominante. 35 Bibliografia [1] S. Lang, Álgebra Linear, Edgard Blücher Ltda., São Paulo, 1977. O teorema citado está demonstrado no capı́tulo 10, parágrafo 3. [2] H. Georgi, Lie Algebras in Particle Physics: from Isospin to Unified Theories, 2a edição, Frontiers in Physics Series, Westview Press, 1999. [3] D. Olive, Lectures on Gauge Theories and Lie Algebras with some Applications to Spontaneous Symmetry Breaking and Integrable Dynamical Systems, notas de curso dado na Universidade de Virgı́nia, 1982. [4] L. A. Ferreira, Lecture Notes on Lie Algebras and Lie Groups: an Introductory Course, notas de curso dado no Instituto de Fı́sica Teórica, IFT-UNESP, 1988. [5] R. Ticciati, Quantum Field Theory for Mathematicians, Cambridge University Press, Cambridge, 1999. [6] L. A. B. San Martin, Álgebras de Lie, 2a edição, Editora Unicamp, 2010. [7] M. Hamermesh, Group Theory and its Applications to Physical Problems, Dover Publications, 1989. [8] R. Gilmore, Lie Groups, Lie Algebras and Some of Their Applications, WileyInterscience, Nova Iorque, 1974. [9] B. Doubrovine, S. Novikov e A. Fomenko, Géometrie Comtemporaine: Méthodes e Applications, 1 re partie, Mir, Moscou, 1985. [10] V. Smirnov, Linear Algebra and Group Theory, Dover, Nova Iorque, 1970. 36