Le dictionnaire de l'Histoire

Allemagne

Le mot Allemagne par lequel les Français désignent le grand pays voisin du leur vient d'une tribu germanique établie en Forêt Noire et que vainquit Clovis à Tolbiac, les Alamans. Les Allemands eux-mêmes appellent leur pays Deutschland. Ce nom dérive de tiudesc-Land, qui signifie en langue germanique le « pays du peuple » et dérive de l'adjectif germanique tiudesc (« populaire »).

Voir : Deux Allemagnes sur les ruines du IIIe Reich

Aucune réaction disponible

Respectez l'orthographe et la bienséance. Les commentaires sont affichés après validation mais n'engagent que leurs auteurs.

Actualités de l'Histoire

Histoire & multimédia

Nos livres d'Histoire

Récits et synthèses

Jouer et apprendre

Frise des personnages