Le dictionnaire de l'Histoire

Allemagne

Le mot Allemagne par lequel les Français désignent le grand pays voisin du leur vient d'une tribu germanique établie en Forêt Noire et que vainquit Clovis à Tolbiac, les Alamans. Les Allemands eux-mêmes appellent leur pays Deutschland. Ce nom dérive de tiudesc-Land, qui signifie en langue germanique le « pays du peuple » et dérive de l'adjectif germanique tiudesc (« populaire »).

Voir : Deux Allemagnes sur les ruines du IIIe Reich

Aucune réaction disponible

Respectez l'orthographe et la bienséance. Les commentaires sont affichés après validation mais n'engagent que leurs auteurs.

Actualités de l'Histoire
Revue de presse et anniversaires

Histoire & multimédia
vidéos, podcasts, animations

Galerie d'images
un régal pour les yeux

Rétrospectives
2005, 2008, 2011, 2015...

L'Antiquité classique
en 36 cartes animées

Frise des personnages
Une exclusivité Herodote.net