image_pdfimage_print

Deutsche Kolonien

Deutschland und sein Kolonialreich 1914: Deutsches Kaiserreich Deutsche Kolonien Die deutschen Kolonien wurden vom Deutschen Kaiserreich seit den 1880er Jahren erworben und nach dem Ersten Weltkrieg gemäß dem Versailler Vertrag von 1919 abgetreten. Sie wurden von Bismarck Schutzgebiete genannt, weil