Doku "Deutsche Kolonien" über die Kolonialpolitik Deutschlands

Die Kolonialpolitik Deutschlands fand mit dem Ersten Weltkrieg ein rasches Ende. Mit dem Versailler Vertrag erlosch jeder Anspruch Deutschlands auf seine ehemaligen Übersee-Territorien. Die Sehnsucht nach den Kolonien lebte jedoch weiter. Kolonialausstellungen, Völkerschauen und Spielfilme zielten auf die nostalgische Verklärung der deutschen Kolonialzeit.

Keine Kommentare:

Kommentar veröffentlichen