Deutschland hat auf dem afrikanischen Kontinent zu

Deutschland hat auf dem afrikanischen Kontinent zu Beginn des 20. Jahrhunderts eine unfassbare Blutspur hinterlassen, als Kolonialmacht und in Herrenmenschenmanier, und Sigmar Gabriel haut erstmal raus: “Wir waren nie Kolonialstaat”.sigmar gabriel