lunes, 24 de mayo de 2010

NAZISMO


El nazismo es uno de los movimientos fascistas (otros son el fascismo italiano y el militarismo japonés) que se desarrollaron y tomaron el poder político después de la primera Guerra Mundial. Los fascismos impulsaron regímenes totalitarios y nacionalistas a ultranza que se fundaron en el militarismo, el intervencionismo, la intolerancia política y el racismo y que llevaron a sus países a una segunda guerra mundial.

Después de la primera Guerra Mundial
Los tratados de paz que dieron fin a la primera Guerra Mundial no dejaron contento a nadie. Las tensiones entre las potencias de Europa, Japón y Estados Unidos por mantener una posición privilegiada, las hostilidades del mundo capitalista contra la Unión Soviética y la expansión de tendencias socialistas provocaron que durante los años veintes y treintas del siglo XX proliferaran las luchas económicas, sociales y políticas, nacionales e internacionales.

Después de la guerra quedaron desocupados millones de hombres que, al abandonar los ejércitos, no encontraron trabajo y no podían dar sustento a sus familias. El sentimiento de desamparo e impotencia fue generalizado. El oportunismo político se puso a la orden del día y entre las capas sociales más afectadas por la crisis de la posguerra prendieron una serie de ideas nacionalistas que crearon un ambiente de intolerancia y revanchismo.

Crisis en Alemania
Tras ser derrotada en la primera Guerra Mundial, Alemania se vió obligada a ceder territorios, renunciar a sus colonias, entregar su parte de su armamento y su flota, y mantener un ejército reducido.