O fim do Império Americano?
A hegemonia Americana está em declínio. Os Estados Unidos da América (EUA) já não tem mais o poder unilateral de dar as cartas do mundo. Evidentemente, o país ainda continua sendo um poder nacional forte. Mas vai perder o posto […]