Streaming HD     Download HD
   
Favorite Comment

Unter Herrenmenschen — Der deutsche Kolonialismus in Namibia (2019)

Die Deutschen kolonisierten das Land Namibia im südlichen Afrika während eines kurzen Zeitraums von 1840 bis zum Ende des Ersten Weltkriegs. Die Geschichte des so genannten Deutsch-Südwestafrikas (1884-1915) ist abscheulich; ein versteckter und verschwiegener Bericht über Plünderung und Völkermord.