Please note that the content of this book primarily consists of articles available from Wikipedia or other free sources online. Le féminisme en France est l'ensemble des idées politiques, philosophiques et sociales cherchant à promouvoir ce qu'il considère être les droits des femmes et leurs intérêts dans la société civile française. La façon dont les femmes se sont émancipées et ont pris un rôle significatif dans la vie publique est relative au féminisme en France. Sous l'Ancien régime, si la société n'était pas au départ opposée à ce que des femmes aient accès à certaines fonctions importantes, les lois entourant la succession des enfants de Philippe IV condamnent de jure et de facto les femmes à un rôle non politique.
Bitte wählen Sie Ihr Anliegen aus.
Rechnungen
Retourenschein anfordern
Bestellstatus
Storno