A história dos direitos das mulheres

As mulheres viveram durante muitos séculos sendo marginalizadas e excluídas do processo econômico, social e político da humanidade, se reservando a um papel doméstico de pouco destaque nos espaços públicos de poder. Por meio de muitas lutas e conquistas, no século XX as mulheres possuem os seus direitos reconhecidos de maneira global, com a publicação da Convenção sobre a Eliminação de Todas as Formas de Discriminação contra a Mulher.