Kann mir eigentlich jemand ein gutes, informatives und vor allem lesbares Buch über das Zeitalter des Imperialismus empfehlen? Nicht nur auf Deutschland bezogen, sondern auf Europa? Oder kennt jemand das hier und sagt, ja, lies das, kann man machen? (Der Einband deprimiert mich so.) Oder eher das? Taucht beim Wikipedia-Eintrag in der Literaturliste auf.
mail ‘at’ ankegroener ‘punkt’ de. Dankeschön.
—
Edit: Der Herr Hobsbawm liegt mit seinem Werk weit vorne in der Lesergunst. Vielen Dank für eure Hilfe.