Wildnis in Deutschland
21.09.2011 - Wildnis ist da, wo der Mensch in die Natur nicht eingreift, wo er die Landschaft nicht gestaltet. In früheren Jahrhunderten haben die Menschen deshalb Wildnis keineswegs als faszinierend, sondern als öde und wüst empfunden. Echte Wildnis gibt es in Deutschland nicht mehr. Es gibt aber Bemühungen, Wildnisgebiete wieder entstehen zu lassen, zum Beispiel in Biosphärenreservaten und Nationalparks sowie in kleineren Naturschutzgebieten.
http://www.planet-wissen.de/natur/landschaften/naturlandschaften/pwiewildnisindeutschland100.html