Es ist schon total komisch, dass die Oscar-Verleiher in Hollywood deutsche Filme nur dann wahrnehmen , wenn es um Nazis, Ex-Nazis, Gut-Nazis.Ist es das einzig Attraktive an Deutschland, dass hier mal die Nazis ihr niederträchtiges Unwesen getrieben haben? Hollywood mag aber leider nur Nazi-Storys von uns. So bleiben die Deutschen weltweit stigmatisiert in der Ecke des Bösen stehen.Wir sind aber kein "Spielzeugland" des Massenmordes.Es gibt durchaus liebenswürdige, nette und gottesfürchtige Leute hier bei uns.Darum:Lieber von Gott erleuchtet, als von den Medien manipuliert.
alles klar
Guter Artikel Ali, danke. Nun es ist doch wohl klar, wer in Hollywood die Fäden zieht.