Bilan

Au cours d'un demi siècle, le statut des femmes en France s'est sans aucun doute amélioré dans plusieurs domaines tel que personnelle et familiale, professionnelle ainsi que politique. Elles ont acquis de nombreux droits au fil des années. Il y a donc une nette amélioration, mais l'égalité entre les sexes est loin d'être une réalité.

 

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site