Des sélections pour tous sur différents sujets !
Le western est LE genre cinématographique et littéraire qui continue de nourrir notre imaginaire sur l’Ouest américain et nos fantasmes sur les États-Unis. Des territoires hostiles sans foi ni loi, des saloons crasseux peuplés de cow-boys, chasseurs de primes, Indiens : les westerns sont de vraies épopées romanesques et de grands récits d’aventure. Le genre révèle également des récits subtils et touchants qui nous renseignent sur la formation de la nation américaine telle qu’elle est aujourd’hui.