Le dictionnaire de l'Histoire

Allemagne

Le mot Allemagne par lequel les Français désignent le grand pays voisin du leur vient d'une tribu germanique établie en Forêt Noire et que vainquit Clovis à Tolbiac, les Alamans. Les Allemands eux-mêmes appellent leur pays Deutschland. Ce nom dérive de tiudesc-Land, qui signifie en langue germanique le « pays du peuple » et dérive de l'adjectif germanique tiudesc (« populaire »).

Voir : Deux Allemagnes sur les ruines du IIIe Reich

Actualités de l'Histoire
Revue de presse et anniversaires

Histoire & multimédia
vidéos, podcasts, animations

Galerie d'images
un régal pour les yeux

Rétrospectives
2005, 2008, 2011, 2015...

L'Antiquité classique
en 36 cartes animées

Frise des personnages
Une exclusivité Herodote.net