La culture du viol, c’est un terme qui est apparu ces dernières années pour désigner un ensemble d’attitudes, de manières et de comportements partagés décrédibilisant, minimisant et normalisant le viol, justifiant les actions de l’agresseur et réduisant sa culpabilité.  Aujourd’hui, nous allons parler de la culture du viol : un concept on ne peut plus présent en 2020, et qui plus est, en France.

image de couverture : © Oceane Colson et Amelie Zimmerman / L’alter ego 

Pour approfondir le sujet : 

montage : louise bur