Que signifie "naturalisme"

  • Doctrine qui soutient que tout est d'origine naturelle et que rien n'existe en dehors de la nature.
  • Ecole littéraire et picturale du XIXème siècle, qui visait à reproduire la réalité de la manière la plus objective possible.

Aucun commentaire

  • SOYEZ LE PREMIER À COMMENTER CET ARTICLE !
Avatar par defaut Invité