Publicité

Comment les femmes prennent le pouvoir dans le cinéma ?

Les femmes ont longtemps eu des rôles dégradants ou secondaires dans le cinéma. Depuis l'affaire Weinstein et la naissance du mouvement #MeToo, les lignes sont en train de bouger