C
Gast
(Gelöschter Account)
Ich dürfte wohl nicht der einzige sein dem es aufgefallen ist dass heutzutage Frauen mehr und mehr alles feminine aus ihrem Leben verdrängen.
Einige Beispiele:
Früher war es für Frauen in der Arbeit noch üblich elegant gekleidet zu erscheinen (Rock, Bluse, selbstverständlich Strumpfhose), sich dezent aber ansprechend zu schminken (Lippenstift inklusive) usw... Heutzutage kann man froh sein wenn es bis zum Hosenanzug reicht, der Regelfall ist allerdings Kleidung die in vielen Fällen problemlos auch ein Mann tragen kann (Jeans und Pullover, Sportschuhe).
Frauen die sich feminin kleiden werden von Kolleginnen angezickt oder ausgelacht.
Aber es geht nicht nur um die Kleidung, auch das ganze Verhalten der Frauen ist deutlich männlicher geworden. Es werden Machtkämpfe ausgefochten, es werden offen Aggressionen gezeigt. Weibliche Eigenschaften wie Empathie und Offenheit --> Fehlanzeige.
Macht man diesen "Damen" ein Kompliment oder ist einfach nett zu ihnen reagieren sie nicht etwa freundlich darauf sondern zicken einen an oder meinen man solle ja nicht auf die Idee kommen sie anzumachen oder werfen einem vor sie als Sexobjekt zu betrachten.
Auch in Alltagssituationen kommt es einem vor als ob es primär darum geht Härte zu zeigen.
Mich würde interessieren was sich die Frauen davon versprechen. Dass sie damit bei Männern nicht unbedingt besser ankommen dürfte ihnen ja wohl klar sein. Ist ihnen das egal oder ist diese Unweiblichkeit schon durch die Erziehung so tief verankert dass sie gar nicht mehr anders können?
Einige Beispiele:
Früher war es für Frauen in der Arbeit noch üblich elegant gekleidet zu erscheinen (Rock, Bluse, selbstverständlich Strumpfhose), sich dezent aber ansprechend zu schminken (Lippenstift inklusive) usw... Heutzutage kann man froh sein wenn es bis zum Hosenanzug reicht, der Regelfall ist allerdings Kleidung die in vielen Fällen problemlos auch ein Mann tragen kann (Jeans und Pullover, Sportschuhe).
Frauen die sich feminin kleiden werden von Kolleginnen angezickt oder ausgelacht.
Aber es geht nicht nur um die Kleidung, auch das ganze Verhalten der Frauen ist deutlich männlicher geworden. Es werden Machtkämpfe ausgefochten, es werden offen Aggressionen gezeigt. Weibliche Eigenschaften wie Empathie und Offenheit --> Fehlanzeige.
Macht man diesen "Damen" ein Kompliment oder ist einfach nett zu ihnen reagieren sie nicht etwa freundlich darauf sondern zicken einen an oder meinen man solle ja nicht auf die Idee kommen sie anzumachen oder werfen einem vor sie als Sexobjekt zu betrachten.
Auch in Alltagssituationen kommt es einem vor als ob es primär darum geht Härte zu zeigen.
Mich würde interessieren was sich die Frauen davon versprechen. Dass sie damit bei Männern nicht unbedingt besser ankommen dürfte ihnen ja wohl klar sein. Ist ihnen das egal oder ist diese Unweiblichkeit schon durch die Erziehung so tief verankert dass sie gar nicht mehr anders können?