Le groupe fondamental est, comme son nom le laisse supposer, un concept fondamental de la topologie. Le groupe fondamental d'un espace $X$ est composé de lacets dans $X$, deux lacets étant identifiés s'ils sont continûment déformables l'un en l'autre, évidemment en restant dans $X$. Dans cette note, destinée à un public ayant des notions d'algèbre générale, de géométrie et de topologie (disons niveau prépa ou licence), je vais essayer de montrer la richesse de cette notion et ses applications. Sans entrer dans les détails techniques, je souhaite expliquer les idées fondamentales des constructions et évoquer les grands théorèmes, voire les idées intervenant dans les preuves, tout en restant le plus concis possible. Pour les détails, je vous renvoie au livre de Hatcher, que je suis fidèlement.
Considérons un espace $X$ connexe par arcs. Cette hypothèse permet de s'affranchir d'un point de base pour la définition du groupe fondamental. En effet, en général, on considère un point $x \in X$ et les lacets qui partent de $x$ et reviennent à $x$ : ces lacets forment naturellement un groupe, et si on déclare équivalents deux lacets obtenus l'un de l'autre par déformation continue, on obtient le groupe $\pi_1 (X,x)$. Mais si $X$ est connexe par arcs, il est facile de voir que tous les $\pi_1 (X,x)$ pour $x \in X$ sont isomorphes, et on peut oublier le point de base, notant ainsi simplement $\pi_1 (X)$ le groupe fondamental de $X$.
Pour tout un tas d'espaces $X$, le groupe fondamental est trivial, si tous les lacets peuvent être déformés en un point. On qualifie ces espaces de simplement connexes. C'est le cas, par exemple, de $\mathbb{R}^n$. L'espace le plus élémentaire qui ne soit pas simplement connexe est le cercle $S^1$, dans lequel les lacets sont caractérisés par leur nombre d'enroulements, qui est un entier (dont le signe correspond au sens de l'enroulement), ce qui donne $$\pi_1 (S^1) = \mathbb{Z} . $$ Bien qu'intuitivement évidente, cette égalité n'est pas entièrement triviale à démontrer, et possède de nombreuses applications. Par exemple, on peut en déduire le théorème fondamental de l'algèbre, selon lequel tout polynôme non constant à coefficients dans $\mathbb{C}$ possède au moins une racine dans $\mathbb{C}$. En effet, considérons un polynôme (unitaire) $P$ sans racine complexe. On peut alors former la fonction $f_r : S^1 \rightarrow S^1$ définie par $$f_r (s) = \frac{P(r e^{2 \pi i s}) / P(r)}{|P(r e^{2 \pi i s}) / P(r)|}$$ Comme $f_0$ est constante, elle appartient à la classe de lacets de nombre d'enroulement nul. Mais $f_r$ en est une déformation continue pour tout $r$, et donc le nombre d'enroulement reste nul, même pour $r$ très grand. Dans ce régime, $P$ est dominé par son terme de plus haut degré, disons $z^n$, où $n$ est le degré. Mais alors pour $r$ très grand, $f_r (s) \sim e^{2 \pi i s n}$, qui est un lacet de nombre d'enroulement $n$. On en déduit donc $n=0$ !
Le groupe fondamental se comporte bien sous l'action du produit : pourvu que $X$ et $Y$ soient connexes par arcs, on a $\pi_1 (X \times Y) = \pi_1 (X) \times \pi_1 ( Y)$, ce qui permet, par exemple, de calculer le groupe fondamental des tores, $$\pi_1 (T^n) = \mathbb{Z}^n . $$ D'une certaine façon, les tores sont les archétypes des espaces non simplement connexes : ils ont des trous ! Mais il faut se méfier de la notion intuitive de trou : la sphère en deux dimensions $S^2$ (par exemple la surface de la Terre) a évidemment un "trou", qui contient son centre dans l'espace à trois dimensions, mais pourtant tous les lacets sont déformables en un point. Il y a plusieurs types de trous, et c'est l'explication de l'indice $1$ dans $\pi_1$. Le groupe fondamental $\pi_1$ ne s'occupe que des trous détectables par des lacets, qui sont des objets de dimension $1$. Je raconterai un autre jour les aventures des groupes $\pi_n$ pour $n>1$ (on les appelle les groupes d'homotopie). Pour aujourd'hui, nous retiendrons que la sphère est simplement connexe : $$\forall n \geq 2 , \qquad \pi_1 (S^n) = 0. $$ La preuve utilise le fait que $S^n$ peut être recouverte par deux ouverts homéomorphes à $\mathbb{R}^n$, dont l'intersection est connexe si $n \geq 2$ (si $n=1$, l'intersection se compose de deux segments disjoints, et l'argument ne fonctionne plus). Alors les lacets de $S^n$ se décomposent en produit de lacets dans chacun de ces deux ouverts, mais comment ceux-ci sont simplement connexes, on obtient le résultat.
Tout ceci est bel et bon, mais comment calculer le groupe fondamental dans un cas un peu plus général ? C'est ce que je raconterai la prochaine fois...
Référence
Hatcher, Algebraic topology, pdf ici.
Jan Homann est un contributeur de Wikipedia que je connais principalement pour les visualisations de certaines fonctions complexes, par exemple les séries d'Eisenstein. Il a pour cela écrit une petite fonction pour Mathematica que je vais utiliser pour rendre compte de quelques effets amusants des fonctions complexes. L'idée est simplement de représenter les nombres complexes par une couleur, la teinte décrivant l'argument et la saturation décrivant le module. En d'autres termes, plus c'est clair, plus le nombre est grand en module, et l'argument se traduit par les couleurs :
Une image vaut mieux qu'un long discours, voici représenté le plan complexe :
Considérons maintenant le graphe d'une fonction $f: \mathbb{C} \rightarrow \mathbb{C}$. Si $f(z_0)=0$, le point $z_0$ sera noir, comme ci-dessus. En général, autour de ce point, toutes les couleurs de notre arc-en-ciel sont présentes une et une seule fois. Mais si le zéro est d'ordre $n$, comme pour la fonction $f(z)=z^n$, les couleurs sont présentes $n$ fois. Voici par exemple $f(z)=z^2$ :
Le rouge, représentant les réels positifs, est présent deux fois, sur les réels positifs et sur les réels négatifs. C'est normal, si $z$ est réel, $z^2$ est toujours positif. Vous pouvez aussi vérifier que les imaginaires reçoivent la couleur des réels négatifs, signe que $z^2$ est négatif si $z=i y$ avec $y$ réel. Évidemment, si je prends une fonction avec plusieurs zéros, le phénomène se reproduit. Par exemple, $f(z)=z(z+i)(z-1)^2$, on obtient
On voit qu'on a deux zéros d'ordre $1$ et un zéro d'ordre $2$.
Des coupures
Maintenant, que se passe-t-il si on prend $n=\frac{1}{2}$ dans le raisonnement précédent ? Logiquement, on ne verra que la moitié des couleurs. En effet, voici $f(z)= \sqrt{z} = z^{1/2}$ :
On voit apparaître une disgracieuse coupure, de taille infinie. Où sont donc passés, par exemple, les réels négatifs en bleu clair ? Ils sont sur une autre feuille ! En effet, la fonction $f(z)= \sqrt{z}$ n'est pas univaluée sur $\mathbb{C}$, il est nécessaire de lui adjoindre sa sœur $g(z)= - \sqrt{z}$, dont la représentation est Vous pouvez vérifier que maintenant, en faisant deux tours autour de $0$, on revient au point de départ, en ayant parcouru toutes les couleurs, à condition qu'au niveau de la coupure, on saute d'une "feuille" à l'autre. Si on met deux zéros d'ordre $n$ et $m$ côte à côte et qu'on se place assez loin, tout se passe comme si on avait un zéro d'ordre $n+m$. Vous pouvez le vérifier sur le graphe de $f(z)=z(z+i)(z-1)^2$ ci-dessus : vu de loin, tout se passe comme si on avait un zéro en $z^4$. Du coup, on peut se débarrasser des coupures infinies en plaçant côte à côte deux zéros
d'ordre $1/2$. Par exemple, regardons $f(z)=\sqrt{(z-1)(z+1)}$ :
On le voit, les coupures partant des deux zéros se rencontrent, et en dehors de l'intervalle situé entre les deux zéros, tout est parfaitement régulier. Si je m'éloigne suffisamment, la coupure disparaîtra et le premier de ces deux graphes sera exactement semblable au premier graphe de cet article, qui représentait la fonction $f(z)=z$.
Nous avons bien compris le cas $z^{1/2}$, et le cas $z^{1/3}$ n'est pas bien différent, sauf qu'à présent, il faut trois feuilles pour décrire toute la fonction. De chaque point part toujours une coupure, mais à présent il faut que trois coupures se rencontrent pour s'annihiler. Voici par exemple $f(z)=(z^3-1)^{1/3}$ :
Et les pôles ?
Nous nous sommes beaucoup intéressés aux zéros, ces points noirs sur les représentations graphiques. Mais il existe un autre type de points intéressants, ce sont les pôles, où la fonction diverge. Ce points seront blancs, et les couleurs s'ordonnent dans l'autre sens : voici $f(z)=\frac{1}{z}=z^{-1}$ :
Comme on le voit, un pôle n'est pas bien différent d'un zéro, c'est simplement un zéro d'ordre négatif, ici $-1$. Et donc, conséquence intéressante, un pôle et un zéro placés côte à côte s'annulent, comme deux charges de signes opposés. Et c'est plus qu'une simple analogie, comme vous pouvez le constater en savourant le graphe de $f(z)=\frac{2z-1}{2z+1}= (z-\frac{1}{2})^1 (z+\frac{1}{2})^{-1}$ : Jusqu'à présent, nous avons regardé des fonctions assez simples. La prochaine fois, nous verrons que l'outil de visualisation introduit ici pour ces cas simples permet de découvrir de fascinantes propriétés de certaines fonctions.
In statistical physics, one can imagine a model where one parameter is not fixed, but instead is random. We say that the disorder is
Recently, a model with quenched disorder has become a very hot topic in theoretical physics, the SYK model. Those letters stand for Sachdev and Ye who introduced the model in the early '90 in statistical physics, and Kitaev who used the model in a series of talks last year at KITP as a model of quantum holography. Kitaev seemingly didn't find it useful to write a paper, so people have to cite this talk, which fortunately has been registered (this was not the case, for instance, for Witten's talk at Strings 1995). The model is a quantum mechanical system (this means that the fields evolve in $1+0$ dimensions) of $N$ real fermions. In the simplest setup, the interaction is $$ j_{i_1 i_2 i_3 i_4}\psi_{i_1}\psi_{i_2}\psi_{i_3}\psi_{i_4}$$ where the couplings $j_{i_1 i_2 i_3 i_4}$ are Gaussian quenched random variables with $$ \langle j_{i_1 i_2 i_3 i_4} j_{i'_1 i'_2 i'_3 i'_4} \rangle \sim \delta_{i_1 i'_1}\delta_{i_2 i'_2}\delta_{i_3 i'_3}\delta_{i_4 i'_4} \frac{ J^2}{N^3}$$
This model is interesting for at least three reasons (see here for a detailed discussion, and also these CERN winter school lectures by Douglas Stanford that I was lucky enough to attend):
The fact that the theory simplifies drastically in the large $N$ limit can be reduced to the structure of Feynman diagrams that survive in this limit, than can be constructed iteratively as follows:
This picture is taken from a very recent paper by Edward Witten in which another model is proposed that would share the same structure of Feynman diagrams in a large $N$ limit, but with no quenched disorder. This model belongs to the big family of tensor models (see for instance this overview by Razvan Gurau). The fields are four fermions $\psi_{0,1,2,3}$ that belong to representations of a big gauge group $G$. This gauge group is, up to a discrete quotient, isomorphic to $O(n)^6$, where the is one factor $O(n)$ for each edge of a tetrahedron with vertices labeled $0,1,2,3$. The field $\psi_i$ transforms as a vector with $n$ components for each $O(n)$ that sits on an edge reaching $\psi_i$, so it is a tensor of size $n^3$. The Hamiltonian is very simple, $$H \sim \frac{J}{n^{3/2}} \psi_0 \psi_1 \psi_2 \psi_3 $$ where the indices are contracted in an appropriate way. One can then show that in the large $n$ limit, only the diagrams as pictured above survive. Now, each line in those diagrams can be treated as three strands (much as Feynman diagrams become ribbon diagrams for matrix models), and a standard counting in powers of $n$, that appear for every closed strand loop gives the result. The contraction of indices in the Hamiltonian is such that looking at those strands, the vertex looks like the following, again taken from Witten's paper:
In this framework, then, quenched disorder has been eliminated, and the interesting property number 3 above is preserved, thanks to the structure of the Feynman diagrams. What about the two other features that make the SYK model so interesting? Well, Witten argues that
The average of a quantum system over quenched disorder is not really a quantum system, so the reliance on quenched disorder might make it difficult to apply the SYK model to some subtle questions about black holes.
In fact, the good quantum system proposed here would then appear to be even more appropriate to gravitational physics. On the matter of chaos, I don't know at this stage where Witten's model stands...
References
J'ai eu la chance de passer, samedi et dimanche derniers, deux jours fort sympathiques dans le massif des Pics d'Europe, en compagnie du groupe de montagne de l'Université d'Oviedo. Ce groupe possède un blog très étoffé, mais il semble que la dernière excursion n'y soit pas encore relatée. Je poste donc ici en avant-première quelques photos. Le but de la randonnée était le célèbre Urriellu, (ou Naranjo de Bulnes, en bon espagnol), qui est l'un des pics les plus reconnaissables du massif, et l'un des hauts-lieux de l'escalade en Espagne, comme on s'en rendra compte en contemplant ses versants escarpés (ici, plus de 500 mètres quasiment à la verticale).
Nous avons passé la nuit dans un refuge au pied de l'Urriellu. Le voici à nouveau, vu de plus loin.
Sur le chemin du retour:
Changement de végétation, avec les couleurs de l'automne.
Dimanche, nous avons fait l'ascension d'une montagne secondaire (Cabeza la Mesa, 1605 m) d'où on pouvait voir la mer:
Photo de groupe avec le "Mordor" en arrière-plan:
La même, prise en direction du Nord.
Vivement la prochaine!
This is a very partial list of a few topics that appeared in very recent papers.
Tree-level scattering amplitudes in pure Yang-Mills
Recently, there has been a renewed interest in the computation of tree-level scattering amplitudes in pure Yang-Mills theories. In a set of lecture notes by Stefan Weinzierl that appeared today, this is presented as one of those prototype objects every physicist should know, alongside the harmonic oscillator for classical mechanics or the hydrogen atom in quantum physics. And indeed, Yang-Mills theories are at the heart of our comprehension of the standard model of particles, and the characteristic fields of these theories, those which are always present, are the gluons. Therefore, one of the most basic quantities one wishes to calculate is the amplitude of the process
gluon + gluon + ... → gluon + gluon + ...
where the number of gluons is arbitrary. As usual for this kind of central calculation in a theory, there are plenty of ways to carry it out. The lectures notes linked above present the most important methods:
The scattering equations
The scattering equations rely on the observation that if you are given a set of $n$ null vectors $k^{\mu}_a$ for $a=1 , \dots , n$ and $\mu = 1 , \dots , D$, where $D$ is the dimension of space-time, you can represent them as (see here) $$ k^{\mu}_a = \frac{1}{2 \pi i} \oint\limits_{\sigma_a} dz \frac{p^{\mu}(z)}{\prod\limits_{b=1}^n (z-\sigma_b)}$$ where $p^{\mu}(z)$ is a polynomial of degree $n-2$. One can even require that $p^{\mu}(z) p_{\mu}(z) =0 $ for all values of $z$, which means that $p^{\mu}$ defines a map from $\mathbb{CP}^1$ into the null cone in dimension $D$. Under this requirement, the points $\sigma_a$ on the $\mathbb{CP}^1$ have to satisfy the so-called scattering equations, $$ \sum\limits_{b \neq a} \frac{k_a \cdot k_b}{\sigma_a - \sigma_b} = 0$$ for $a = 1 , \dots , n$. In fact, only $n-3$ of these $n$ equations are independent, because of the $PSL(2,\mathbb{C})$ Möbius transformations of the $\mathbb{CP}^1$. One can show that in any number of dimensions, there are $(n-3)!$ solutions $\{\sigma_a\}$ for these equations (the proof can be found in section 3 of this paper). Next time, we will see how these can be used to compute amplitudes.
As a partial conclusion, let us stress the great (apparent) simplicity of the scattering equations, that are nevertheless the starting point of a derivation of a closed form for the tree-level amplitudes in Yang-Mills theory, and maybe surprisingly also in gravity! Moreover, in my field we are so used to consider supersymmetric theories that the letters YM of Yang-Mills are often found in the combination $\mathcal{N}=\dots$ SYM ; this is not the case here! The exact expressions that will be obtained next time do not rely on supersymmetry. However one should keep in mind that they are not strictly superior to supersymmetric methods, as one could naively think, imagining that we can just forget about supersymmetry. The reason is that in the setup reviewed here, we consider only pure Yang-Mills, which means that there are no fermion (in other words, no quarks, if you are concerned with the real world).
Tales of 1001 Gluons, Stefan Weinzierl. Oct 17, 2016, arXiv:1610.05318
Scattering equations and Kawai-Lewellen-Tye orthogonality, Freddy Cachazo, Song He, Ellis Ye Yuan. Jun 27, 2013, arXiv:1306.6575
Scattering of Massless Particles in Arbitrary Dimensions, Freddy Cachazo, Song He, Ellis Ye Yuan. Jul 8, 2013, arXiv:1307.2199
Imaginons que, laissant de côté le problème épineux de la possession du point le plus haut des Alpes, on se demande, chose d'importance tout aussi cruciale, quel est le pays qui possède le plus de sommets dont l'altitude dépasse 4000 mètres. Que cela soit clair, je me fiche totalement de connaître la réponse, mais il est intéressant de se demander comment il faudrait s'y prendre pour bien poser la question. Et la première chose à faire, c'est de savoir quel est le butin que les candidats (France, Italie et Suisse) vont devoir se partager, c'est-à-dire quel est le nombre de montagnes dépassant les 4000 mètres dans les Alpes. Facile, me direz-vous, prenons une bonne carte, et comptons !
Sauf que, en fonction des cartes, il y a plus ou moins de pics indiqués. Et c'est vraiment un problème insoluble ! En effet, au sommet de Mont Blanc, chaque rocher, chaque caillou définit un "sommet" de plus de 4000 mètres, si on veut être extrêmement précis. Il faut donc définir un critère qui permettra de dire si un point donné doit être considéré comme un sommet à part entière, ou comme un maximum local appartenant à un autre sommet. Ce critère va prendre la forme d'une limite inférieure sur la proéminence (ou hauteur de culminance) du point.
Expliquons ce qu'est la proéminence. Supposons que la surface de la Terre puisse être assimilée à une surface à deux dimensions, paramétrée par exemple par la latitude et la longitude. A chaque point $P$, on associe son altitude $h(P)$. On dit que $P$ est un sommet s'il existe un petit voisinage autour de $P$ dans lequel $P$ est le point le plus haut. Par exemple, si je prends pour $P$ le sommet du Mont Blanc, et pour voisinage la région constituée de la France, de l'Italie et de l'Espagne, alors comme $P$ est le point le plus haut de ce voisinage, c'est un sommet. Cela marche aussi pour n'importe quel caillou posé par terre à n'importe quel endroit : il suffit de prendre un voisinage assez petit. Maintenant, j'introduis la proéminence de $P$ comme étant la différence entre l'altitude de $P$ et celle du col le plus haut me permettant de rejoindre un point plus élevé que $P$. En d'autres termes, $$c(P) = h(P) - \max\limits_{Q | h(Q) > h(P)} \left( \max\limits_{\gamma : P \rightarrow Q} \left[ \min\limits_{t} h(\gamma (t)) \right] \right) \, . $$ Il faut prendre un peu de temps pour digérer cette définition, mais on comprend que c'est ce que nous cherchions ! Pour chaque point $Q$ plus haut que $P$, on regarde l'ensemble des chemins qui mènent de $P$ à $Q$, et pour chaque chemin, on note son altitude minimale. On ne conserve alors que le chemin dont l'altitude minimale est la plus élevée. En général, il y a beaucoup de points $Q$ qui donnent la même valeur pour $\max\limits_{\gamma : P \rightarrow Q} \left[ \min\limits_{t} h(\gamma (t)) \right]$. Le plus élevé d'entre eux sera appelé le point parent de $P$. Notons que si $P$ est le point le plus élevé, il n'a pas de parent, $ \max\limits_{Q | h(Q) > h(P)} (\cdots)$ vaut zéro par convention, et la proéminence est égale à l'altitude.
Sur le dessin ci-dessus, le point $P$ a pour parent $Q$. Ce n'est pas $Q'$, car bien qu'il soit moins haut que $Q$, il faut descendre plus bas pour l'atteindre. La proéminence de $P$ est égale à la longueur de la flèche bleue.
Maintenant, nous pouvons revenir à la question initiale : disons que nous nous intéressons aux sommets dont la proéminence est supérieure à 300 mètres. Cela signifie que pour aller sur un sommet plus élevé, je serai obligé de descendre d'au moins 300 mètres avant de remonter. Dans ce cas, la réponse est absolument non ambiguë (aux erreurs de mesure près, évidemment) : il y a 29 montagnes de plus de 4000 mètres dans les Alpes (et parmi celles-ci, une écrasante majorité, soit 24 montagnes, se trouvent en Suisse, dont 4 sur la frontière italienne). Mais il y a plus amusant : grâce à la notion de parent, on peut dessiner un arbre généalogique de ces 29 sommets ! Pour vous entraîner, vous pouvez commencer par dessiner l'arbre pour le dessin explicatif du dessus, qui comporte quatre sommets. Et pour les sommets alpins, voilà ce que ça donne, si je ne me suis pas trompé :
On voit que cet arbre est connexe, c'est-à-dire qu'il est d'un seul tenant. Si on réfléchit deux secondes, on se rend compte que cela découle de la propriété suivante : le parent d'un sommet est un sommet de proéminence et d'altitude supérieures. Pour l'altitude, c'est évident (regardez la définition), pour la proéminence, un tout petit peu moins. Démontrons-le (et si vous êtes sensible au mal de tête, passez directement au paragraphe suivant) !
Considérons un point $A$, son parent $B$ et le parent de ce dernier $C$. Appelons $\gamma_1$ le chemin optimal entre $A$ et $B$ et $\gamma_2$ le chemin optimal entre $B$ et $C$. Comme $C$ est plus haut que $B$; cela signifie que tout chemin reliant $A$ à $C$ passe nécessairement par un point plus bas que tous les points de $\gamma_1$ (sinon $C$ serait le parent de $A$ !). C'est dont le cas du chemin obtenu en concaténant ces deux chemins $\gamma_1$ et $\gamma_2$. Donc $\gamma_2$ passe forcément par un point plus bas que tous les points de $\gamma_1$. Comme, en plus, $B$ est plus haut que $A$, on a bien montré que la proéminence de $B$ est supérieure à celle de $A$.
Bref, tout cela est bien pratique : quelle que soit la limite que j'impose, en altitude ou en proéminence, je peux dessiner un arbre bien défini et d'un seul tenant, introduisant de ce fait une hiérarchie indiscutable. Évidemment, on peut s'amuser à raffiner un peu la définition, pour la rendre plus proche de la géographie, en interdisant par exemple de traverser les étendues d'eau. On obtient alors un arbre pour chaque île (île est à prendre au sens large, et il faut se mettre d'accord pour savoir si on considère que les canaux de Suez et de Panama, par exemple, séparent l'Amérique et l'Afro-Eurasie en deux îles), et les arbres s'enchevêtrent si on souhaite ordonner les sommets (de l'arbre, mais ce sont aussi des sommets au sens géographique, haha) par ordre décroissant de proéminence. Pour visualiser cela, inutile de m'embêter à faire une image, on en trouve une interactive sur Wikipédia.
The QFT considered here are not necessarily relativistic (a relativistic theory has to be treated as a non-relativistic one if the vacuum breaks time translation symmetry), and a generalization of the well-known Goldstone theorem is needed.
Gravity is the weakest force.
This is called the Weak Gravity Conjecture (WGC), and it states more precisely that there exist a particle such that $m \leq |Q|$, where $Q$ is the charge in suitable units. Recently, Ooguri and Vafa applied the same idea to branes, and conjecture that
The inequality is saturated iff States are BPS
This seemingly innocuous generalization of WGC implies that non-supersymmetric AdS vacua supported by fluxes must be unstable and that their effective theories belong to the swampland, even if theymay look consistent! In the same vein, the Vacua Morghulis incantation goes even further and asserts that non-supersymmetric vacua in string theory are at most metastable and eventually decay, while supersymmetric vacua are only marginally stable. Note however that some people think otherwise.
Here I say "the" cusp, because a cusp is an equivalence class, but one should not forget that it contains many (an infinite number of) points. Let us recall the definition of a cusp. Given a subgroup $\Gamma$ of $SL(2,\mathbb{R})$ and a point $z \in \mathfrak{H} \cup \mathbb{R} \cup \{\infty\}$, we say that
I recall that $\alpha \in \Gamma \subset SL(2,\mathbb{R})$ is elliptic (resp. parabolic) if and only if $|\mathrm{tr} \, \alpha| <2$ (resp. $|\mathrm{tr} \, \alpha| =2$). One can show that elliptic points are always in $\mathfrak{H}$ while cusps are always in $\mathbb{R} \cup \{\infty\}$. And it so happens that if we choose $\Gamma = SL(2,\mathbb{Z})$, the cusps are exactly the points in $\mathbb{Q} \cup \{\infty\}$, and they form only one conjugacy class of $SL(2,\mathbb{Z})$. This is why we say that the modular group has only one cusp, which is $\mathbb{Q} \cup \{\infty\}$.
Let us go back to the $\mathcal{N}=4$ theory. The points in the cusp are precisely the points where we can have a good Lagrangian description. For one of these points, $\{\infty\}$, the theory is weakly coupled, and for the other points, that is the elements of $\mathbb{Q}$, there is an equivalent description which is weakly coupled, obtained using a duality. For instance, the point $\tau = 0 \in \mathbb{Q}$ is related to $\{\infty\}$ by the standard $S$-duality.
Next time, we will begin an adventurous journey to the inland of the coupling space, even rubbing shoulders with the elliptic points, leaving behind the friendly cusps, which are somewhat paradoxically those singular points of the upper half-plane where things are under perturbative control.
Density of a subset of prime numbers
A fairly precise information about the density of prime numbers among all integers is given by the following estimation, when $s$ tends to 1 : \begin{equation*} \sum\limits_{p \in \mathbb{P}} \frac{1}{p^s} \sim \log \frac{1}{s-1} \end{equation*} to be compared with \begin{equation*} \sum\limits_{n \in \mathbb{N}^*} \frac{1}{n^s} \sim \frac{1}{s-1} \end{equation*} The simple fact that the two series diverge for $s=1$ and converge for $s>1$ is striking ! In fact, taking the logarithm of the second relation gives the first one : \begin{equation*} \log \sum\limits_{n \in \mathbb{N}^*} \frac{1}{n^s} = \log \prod\limits_{p \in \mathbb{P}} \frac{1}{1-\frac{1}{p^s}} = \sum\limits_{p \in \mathbb{P}} \sum\limits_{k \in \mathbb{N}^*} \frac{1}{k \times p^{ks}} = \sum\limits_{p \in \mathbb{P}} \frac{1}{p^s} + \psi(s) \end{equation*} where it is easy to see that $\psi(s)$ remains bounded when $s \rightarrow 1$ (show this !).
Now if we take any subset $A$ of the set of prime numbers, we can define its density as \begin{equation*} d(A) = \lim\limits_{s \rightarrow 1} \frac{\sum\limits_{p \in A} \frac{1}{p^s} }{\log \frac{1}{s-1}}. \end{equation*} With this at hand we can state the theorem: let $m \in \mathbb{N}^*$ and $a \in \mathbb{Z}$ such that $m$ and $a$ are relatively prime ; then the set $P_{m,a}$ of primes $p$ such that $p \equiv a$ mod $m$ has density $\frac{1}{\phi(m)}$. This is truly fantastic : the first thing to notice is that $P_{m,a}$ is infinite, and more than that, its density doesn't depend on $a$, meaning that the primes are equally distributed between the different classes modulo $m$, and this is true for any $m$.
How can we see that the theorem above is true ? What we want to study is \begin{equation*} \sum\limits_{p \in P_{m,a}} \frac{1}{p^s} \end{equation*} We would like to use the machinery of $L$-functions and characters. Thus the trick is to translate the condition $p \equiv a$ mod $m$ using the characters. In $(\mathbb{Z}/m \mathbb{Z})^*$, this condition reads $a^{-1} p=1$. But the number 1 has a very neat characterization with the characters : if $p \equiv a$ mod $m$, \begin{equation*} \sum\limits_{\chi} \chi (a^{-1} p) = \phi (m) \end{equation*} and else the sum vanishes. Thus \begin{equation*} \sum\limits_{p \in P_{m,a}} \frac{1}{p^s} = \sum\limits_{p \nmid m} \frac{1}{\phi (m)} \sum\limits_{\chi} \chi (a^{-1} p) \frac{1}{p^s} = \frac{1}{\phi (m)} \sum\limits_{\chi} \chi (a^{-1}) \left[ \sum\limits_{p \nmid m} \frac{\chi(p)}{p^s} \right] \end{equation*} The square bracket gives the wanted $\log \frac{1}{s-1}$ for $\chi=1$, and what remains to be shown is that for $\chi \neq 1$, it is bounded. It is slightly more technical, but can be done using similar arguments.
Other notions of density
The density defined above was the analytic density, it measures roughly "how the sum of the inverses diverge". This is a useful tool to estimate the "size" of a set of integers : for $\mathbb{N}^*$, the divergence is $\frac{1}{s-1}$, for primes, it is $ \log \frac{1}{s-1}$ and for primes in $P_{m,a}$ it is $\frac{1}{\phi (m)} \log \frac{1}{s-1}$.
An other idea to compare the sizes of sets of integer is to truncate them at some fixed value, say $N$, and to compare their finite cardinal. If we let $N$ go to infinity, the ratio of the two cardinals may tend to a limit, which we call the natural density. One can prove that, if $A$ has natural density $k$, then the analytic density of $A$ exists and is equal to $k$. The converse does not hold in general.
subscribe via RSS