Associations avec le mot «Biologisme»

Wiktionnaire

BIOLOGISME, nom. (Sciences) Théorie scientiste selon laquelle la biologie, les conditions naturelles et organiques de la vie et de son évolution (gènes, hormones, neurotransmetteurs, lois darwiniennes) sont la base de la réalité physique et spirituelle de l’homme et de la société.

Sages paroles

Dès que tu as prononcé un mot, ce mot règne sur toi; jusque là, c'est toi qui règne sur lui.
Proverbe arabe