Deutscher Bund
Der Deutsche Bund war ein Verein von Staaten , ein Staatenbund. Gegründet wurde er im Jahr 1815. Damals fand der Wiener Kongress statt. Dort hatte man darüber gesprochen, wie es in Europa weitergehen sollte: Der französische Kaiser Napoleon hatte halb Europa erobert und war nun besiegt.
https://klexikon.zum.de/wiki/Deutscher_Bund