Ich schaue ja viele (US) Serien und Filme und dabei fällt mir immer auf, daß fast in jeder Serie oder Film Bezug zu Deutschland genommen wird: sei es wegen einer Stadt, einer Person, Industrie, etc. - andere Länder (bsw. aus Europa wie Italien, Tschechien, Holland,...) finden da fast nie eine Erwähnung. Ich finde das gut und macht mich auch stolz. Nur würde mich mal interessieren, warum die Amis so fixiert auf Deutschland in ihren Serien-und Filmhandlungen sind.
Becks
Becks