Enligt vilken definition då? Vad jag vet handlar det om att kvinnor och män ska behandlas som jämlikar, för att de ska göra det måste ju dock kvinnor få fler möjligheter och rättigheter än idag för att nå dit mannen är.
Här är Wikipedias definition: "Feminism är en samling rörelser och ideologier vars målsättning är att ge kvinnor samma rättigheter och möjligheter som tidigare endast varit tillskrivet män. Det handlar om politiska, ekonomiska och sociala rättigheter."
Ja, just det, "att ge kvinnor", inte män. Tycker du att det låter jämställt?