Schlagwort Dekolonisation
Dekolonisation bezeichnet den Prozess, bei dem Kolonien politisch unabhängig werden und sich von ihren ehemaligen Kolonialherren lösen. Die Dekolonisation fand vor allem in der Zeit nach dem Zweiten Weltkrieg statt und führte zur Entstehung vieler neuer unabhängiger Staaten in Asien, Afrika und Lateinamerika. Die Dekolonisation war ein wichtiger Schritt in Richtung globaler Gerechtigkeit und Selbstbestimmung für die ehemaligen Kolonien, hatte aber auch tiefgreifende Auswirkungen auf die politischen, wirtschaftlichen und kulturellen Beziehungen zwischen ehemaligen Kolonialmächten und ihren ehemaligen Kolonien.