Informationen in Leichter Sprache

© Reinhild Kassing

In diesem Text geht es um Kolonialismus.  

Das Wort bedeutet:

Ein Land erobert Gebiete in einem anderen Land.

Meistens liegt das eroberte Land in einem anderen Teil der Welt.

Und die Menschen dort haben eine

andere Lebens-Weise als die Eroberer.  

Die Eroberer übernehmen die Herrschaft über die Einwohner.

Manche Gebiete nehmen sich die Eroberer mit Gewalt.  

Die eroberten Gebiete werden mit einem Fach-Wort bezeichnet.

Man nennt sie: Kolonien.

Die Länder von den Eroberern nennt man: Kolonial-Mächte.

"Macht" ist ein anderes Wort für ein Land, das großen Einfluss hat.

Kolonialismus in den letzten 500 Jahren

© Reinhild Kassing

Kolonien gab es schon immer.  

Auch die alten Römer und Griechen hatten Kolonien.  

Sie haben Gebiete in anderen Ländern erobert.

Und sie haben sich dort niedergelassen.  

Das Wort "Kolonialismus" hat aber

mit Kolonien in einer bestimmten Zeit zu tun.  

Die Zeit des Kolonialismus fing vor etwa 520 Jahren an.

Also ungefähr im Jahr 1500.  

Damals haben Länder aus Europa angefangen,

in anderen Teilen von der Erde Gebiete zu erobern.  

Zum Beispiel in:  

  • Amerika
  • Asien
  • Afrika
© Reinhild Kassing

Viele Gebiete hatten die Europäer

gerade neu für sich entdeckt.  

Zum Beispiel bei Entdeckungs-Reisen durch

Abenteurer, Forscher und See-Fahrer.

Zum Beispiel durch den See-Fahrer Christoph Kolumbus.

Warum haben die Kolonial-Mächte das gemacht?

© Reinhild Kassing

Es gab verschiedene Gründe,

warum die Kolonial-Mächte Gebiete erobert haben:

  • Sie wollten mehr Gebiete besitzen.
    Durch mehr Gebiete hatten sie mehr Einfluss.
    Und sie hatten mehr Platz für Menschen.
    Oder für die Land-Wirtschaft.
  • Sie wollten wertvolle Dinge aus den Gebieten haben.
    Zum Beispiel Gold, Gewürze oder Farb-Stoffe.  
  • Sie wollten ihre Lebens-Weise verbreiten.
    Zum Beispiel die christliche Religion.
  • Sie wollten Waren an die Kolonie verkaufen.
    Denn dadurch konnte man viel Geld verdienen.

Was ist mit den Einheimischen passiert?

Die Einheimischen sind die Menschen,

die schon immer in den eroberten Gebieten gelebt haben.  

Die Einheimischen waren nach der Eroberung

nicht mehr frei.  

Sie wurden unterdrückt.

Sie mussten für die Kolonial-Macht arbeiten.  

Manche hat man zu Sklaven gemacht.

Oft wurden die Einheimischen auch vertrieben.

Oder sie wurden als Sklaven in

andere Länder gebracht oder verkauft.  

Oder sie wurden ermordet.  

Die Einheimischen hatten keine Rechte mehr.  

Sie mussten die Gesetze von der Kolonial-Macht annehmen.  

Und auch die Sprache und Lebens-Weise.  

Die Kolonial-Mächte dachten,

dass die Lebens-Weise von den Einheimischen

weniger wert war als ihre eigene Lebens-Weise.

Sie nannten sie zum Beispiel: Wilde.

© Reinhild Kassing

Es gab auch Probleme mit Krankheiten.  

Und zwar mit ansteckenden Krankheiten,

die die Kolonial-Mächte mitgebracht haben.

Daran sind viele Einheimische gestorben.

Welche Länder hatten Kolonien?

© Reinhild Kassing

Die ersten großen Kolonial-Mächte

waren Spanien und Portugal.  

Beide Länder hatten viele Schiffe.  

Mit den Schiffen entdeckten sie neue Gebiete.

Portugal hat zum Beispiel Indien entdeckt.  

Später hatten auch folgende Länder viele Kolonien:  

  • die Niederlande
  • Groß-Britannien
  • Frankreich
  • Deutschland
  • Italien
  • Belgien
  • Japan

Streit um Afrika

© Reinhild Kassing

Im 19. Jahrhundert teilten die großen

Kolonial-Mächte fast die ganze Welt unter sich auf.  

Dabei kam es zu einem Streit um Afrika.  

Jedes Land in Europa wollte Gebiete in Afrika als Kolonie haben.  

Am Ende war fast ganz Afrika erobert.  

Fast alle Gebiete von Afrika wurden

zwischen den europäischen Ländern aufgeteilt.

Fast alle Völker in Afrika hatten ihre Freiheit verloren.

Was war mit Deutschland?

© Reinhild Kassing

Auch Deutschland hat beim Kolonialismus mitgemacht.  

Und beim Streit um Afrika.  

Deutschland hat Gebiete in Asien und Afrika übernommen.  

Diese Gebiete sind heute eigene Länder.

Sie heißen heute zum Beispiel:

  • Togo
  • Kamerun
  • Tansania
  • Namibia
  • Ruanda
  • Burundi
  • Papua-Neuguinea

Ab wann hatte Deutschland Kolonien?

© Reinhild Kassing

Deutschland hatte von 1884 bis 1919 Kolonien.

Also ungefähr 30 Jahre lang.  

Deutschland hat später mit dem Kolonialismus angefangen,

als die anderen Länder von Europa.  

Ein Grund dafür war:

Die deutsche Regierung hatte wenig

Interesse an Kolonien.

Deutschland als Kolonial-Macht

© Reinhild Kassing

Deutschland hatte schließlich viele Kolonien.

Auf der Liste der größten Kolonial-Mächte war es auf Platz 3.  

Nur Groß-Britannien und Frankreich hatten größere Gebiete.  

Alle deutschen Kolonien zusammen

waren am Ende 6-mal so groß wie Deutschland.  

Vor allem Händler wollten,

dass Deutschland Kolonien hat.  

Sie wollten mit den Kolonien Geld verdienen.

Und den Handel verbessern.  

Es ging aber auch um Macht und einen guten Ruf.

Einheimische wehren sich

© Reinhild Kassing

Nicht alle Einheimischen in den Kolonien

haben sich einfach erobern lassen.  

Manche kämpften für ihre Freiheit.  

Oft haben sie gegen die Europäer verloren.

Denn die Europäer hatten die besseren Waffen.

In deutschen Kolonien haben sich

die Einheimischen immer wieder gewehrt.  

Diese wurden hart bekämpft.  

Besonders im heutigen Namibia haben sich 2 einheimische Völker

gegen die Deutschen gewehrt.  

Das eine Volk waren die Herero.

Das andere Volk hieß Nama.  

Die Deutschen haben die Menschen extrem unterdrückt.

Und sie haben ihr Land geraubt.  

Deswegen kam es zwischen 1904 und 1908 zu schlimmen Kämpfen.

© Reinhild Kassing

Die Herero und die Nama haben sich gewehrt.

Und die Deutschen sind

mit Gewalt gegen sie vorgegangen.

Sie haben die Herero und die Nama

in so eine Art Gefängnis gesperrt.

Und sie haben viele Herero und Nama ermordet.

Es waren viele 10-Tausend Tote.

Das Ende vom deutschen Kolonialismus

© Reinhild Kassing

Deutschland hatte 30 Jahre lang Kolonien.  

Nach dem 1. Welt-Krieg musste Deutschland

alle Kolonien aufgeben.  

Die Sieger vom 1. Welt-Krieg hatten das entschieden.

Weil Deutschland den 1. Welt-Krieg verloren hat.

Das Ende vom Kolonialismus weltweit

© Reinhild Kassing

Heute gibt es keine Kolonien mehr.  

Alle Länder von der Welt können

selbst über sich bestimmen.  

Aber viele von den ehemaligen Kolonien sind heute arm.  

Es gibt Kriege und Hunger.  

Das ist auch eine Folge der Zeit,

als diese Länder Kolonien waren.

Weil die Länder dabei so stark ausgebeutet wurden.  

Viele Länder waren auch nicht

auf ihre Freiheit vorbereitet worden.

Deswegen haben sie heute Probleme.

Sprechen über die Zeit der Kolonien

Lange wurde in Deutschland nicht über

die Zeit der Kolonien gesprochen.  

Das hat sich geändert.  

Es geht zum Beispiel um solche Fragen:

© Reinhild Kassing
  • Die Deutschen haben in der Kolonien viel Schlimmes getan.
    Sie haben viele Länder ausgebeutet.
    Dabei wurden viele Menschen getötet.
    Wie sollen die Deutschen mit dieser Schuld umgehen?  
  • Sollen wir uns mehr mit dem deutschen Kolonialismus beschäftigen?
    Zum Beispiel in der Schule?
  • Brauchen wir Orte,
    um uns an den deutschen Kolonialismus zu erinnern?
    Zum Beispiel Denkmäler?  
  • Wie können sich die ehemaligen Kolonial-Mächte bei den früheren Kolonien entschuldigen?
    Zum Beispiel mit Geld als Entschädigung?  
  • Sollen die ehemaligen Kolonial-Mächte Dinge zurückgeben,
    die sie den Kolonien weggenommen haben?
    Zum Beispiel Kunst-Gegenstände?  
  • Wie können die Länder heute besser zusammen-arbeiten?

Mit diesen Fragen beschäftigt sich

auch der Bundes-Tag.

Dieser Text wurde in Leichte Sprache übersetzt vom:

NachrichtenWerk

Beilage zur Wochenzeitung "Das Parlament" 2-3/2020

Informationen dieser Seite als PDF