Das Wort Kolonie kommt aus dem Lateinischen und hat mit der Landwirtschaft zu tun. Gemeint kann damit sein, dass Einwohner aus einer Stadt oder einem Land sich woanders niedergelassen haben. So eine Siedlung ist dann die Kolonie. Vor allem denkt man bei „Kolonie“ daran, dass ein Land sich ein fremdes Gebiet erobert hat. Die Menschen in dem fremden Gebiet, der Kolonie, mussten für die Eroberer arbeiten. Wenn Länder so etwas machen, nennt man es Kolonialismus.
Im Altertum haben einige Phönizier und Griechen ihre Heimat verlassen und neue Städte gegründet, Tochterstädte. Die Einwohner der neuen Städte konnten zwar selbst über alles bestimmen. Aber sie sprachen dieselbe Sprache wie die Mutterstädte und tauschten mit ihnen Waren aus.
In der Neuzeit, also seit ungefährt dem Jahr 1500, haben Länder aus Europa sich neues Land gekauft oder es mit Gewalt erobert. Beispielsweise sind Seefahrer aus Portugal mit Schiffen um Afrika gefahren. An einigen Orten haben sie eigene Städte und Festungen gegründet, damit ihre Schiffe dort sicher Halt machen konnten.
Andere Länder mit vielen Kolonien waren Spanien, Frankreich und Großbritannien. Seit dem 19. Jahrhundert haben fast alle Länder aus Westeuropa und Japan Kolonien gehabt. Um das Jahr 1900 waren die Länder in Südamerika schon frei geworden. Aber fast ganz Afrika und ein großter Teil von Asien bestand aus Kolonien der Europäer.
Im Laufe des 20. Jahrhunderts sind fast alle Kolonien unabhängig geworden, dass heißt, es sind Länder geworden, die bei sich selbst das Sagen haben. Allerdings sind sie oft arm geblieben und werden Entwicklungsländer oder Dritte Welt genannt. Auch wenn die Zeit des Kolonialismus vorbei ist: Die reichen Länder im Norden der Erde haben immer noch viel Macht und können beim Handel mit dem Süden vieles bestimmen.
Hier geht´s zum ganzen Artikel
Aus: Klexikon, die Wikipedia für Kinder. Der Inhalt ist verfügbar unter der Lizenz „Creative Commons: Namensnennung-Weitergabe unter gleichen Bedingungen 3.0 Deutschland“