Quel est la définition du positivisme ?
Quel est la définition du positivisme ? Illusion personnelle qui consiste à croire que tout est relatif même le pire des malheurs.
Ils pourraient également vous intéresser
Citation Désaccords
Citation Racisme
Citation Culture
Citation Timidité
Citation Nourriture