Das Bild zeigt eine Filmszene aus „Der Tiger“.

Der Film „Der Tiger“ ist ein Drama über deutsche Soldaten während des Zweiten Weltkriegs. Die bildgewaltige, deutsche Produktion verzichtet dabei auf moralische Bewertungen. Gerade im Ausland sorgt das für Furore.

Dieser Beitrag JF-Plus Icon Premium„Der Tiger“ Deutschland kann Film wurde veröffentlich auf JUNGE FREIHEIT.

Abbildung des Banners Meinung ist keine Straftat
Nach oben scrollen