📝Noms(masculin)/wɛstɛʁn/
western
#cinéma#littérature#États-Unis
5
synonymes
📖 Définition
Un western est un film ou une histoire qui se passe dans l'Ouest américain autrefois, avec des cow-boys, des Indiens, des shérifs et des duels au revolver. Ça raconte des aventures dans les grands déserts et les petits villages du Far West.
