Mabuse
Trådstartare
Ja, ni vet det där med greatest country on earth och så vidare - som icke-amerikan känns det som en så märklig tanke. Jag kan förstå att man tycker bäst om sitt eget land och vill bo där, men varför tror amerikanare att USA är planetens objektivt bästa land? Varför skulle det vara det? Och varför vill man säga det hela tiden?
Nån med lite mer insikt i amerikansk kultur som vill förklara lite?
Tror folk på riktigt att USA är bättre än alla andra länder, eller är det mer att man säger så men man menar det inte bokstavligen?
Nån med lite mer insikt i amerikansk kultur som vill förklara lite?
Tror folk på riktigt att USA är bättre än alla andra länder, eller är det mer att man säger så men man menar det inte bokstavligen?