Bei all der Positivität und der Liebe zu Japan, würde mich dennoch auch interessieren, ob ihr Erfahrungen gemacht habt, die euch vielleicht ein Stück weit ernüchtert haben? Vielleicht auch etwas, das ihr zukünftig anders handhaben würdet, wenn ihr (wieder) in Japan seid? Ich persönlich habe in Deutschland für zwei japanische Firmen gearbeitet und habe mir anschliessend gesagt, dass ich das nicht mehr möchte. Mich hat ernüchtert, wie wenig Wert auf die Meinung einer Frau gelegt wird. Lieber spricht man das gleiche Thema nochmal mit einem Mann durch, nur um dann auf das gleiche Ergebnis zu kommen, dass vorher die Frau vorgeschlagen hat. Oder aber, dass praktisch überhaupt nicht gebrainstormed wird, sondern man einfach wartet, dass der Teamleiter eine Entscheidung trifft. Trotzdem werden täglich Meetings gehalten.... Mir wurde da einfach bewusst, dass ich "zu deutsch" bin und mich in der Arbeitswelt Japans nicht wohl fühle. Auch wenn ich sonst keine Probleme habe, mich anzupassen. Aber das ist einfach nichts für mich. Seitdem bin ich auch der Meinung, dass ich mir ein Leben in Japan zwar gut vorstellen kann, nicht aber, wenn ich dort arbeiten müsste. Dann bin ich nämlich nicht nur ne Frau sondern auch noch eine ausländische Frau, die gerne ihre Meinung kundtut 😅.