Publié le 4 Février 2021
Le cinéma américain demeure l'industrie culturelle la plus influente. Il diffuse la norme du mode de vie occidental. Néanmoins, certains films peuvent ouvrir des réflexions qui questionnent l'ordre social et politique. Le cinéma d ’ Hollywood reste particulièrement...