Hollywood und die Nazis

Es ist schon total komisch, dass die Oscar-Verleiher in Hollywood deutsche Filme nur dann wahrnehmen , wenn es um Nazis, Ex-Nazis, Gut-Nazis.Ist es das einzig Attraktive an Deutschland, dass hier mal die Nazis ihr niederträchtiges Unwesen getrieben haben? Hollywood mag aber leider nur Nazi-Storys von uns. So bleiben die Deutschen weltweit stigmatisiert in der Ecke des Bösen stehen.Wir sind aber kein "Spielzeugland" des Massenmordes.Es gibt durchaus liebenswürdige, nette und gottesfürchtige Leute hier bei uns.Darum:Lieber von Gott erleuchtet, als von den Medien manipuliert.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Ich stimme zu

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.