La Alemania Nazi: Orígenes y Ascenso al Poder
La Alemania Nazi. Alemania fue la gran derrotada en la Primera Guerra Mundial, humillada por las condiciones impuestas en la Paz de Versalles. Tras la abdicación de Guillermo II y sofocada la revolución Espartaquista, se proclamó la República de Weimar.
República de Weimar
Formada por un gobierno de coalición entre el Partido del Centro, el Partido Democrático y el Partido Socialdemócrata. La primera decisión fue la firma del humillante Tratado Sigue leyendo