Markus Hofer
, copyright: © Spiegel TV
Dès l'enfance, les normes sociales, culturelles et religieuses apprennent en Occident à SE vêtir et à considérer la nudité comme honteuse. Certaines personnes luttent pourtant contre ce tabou. Apparu en Europe au XIXe siècle, le naturisme, comme son nom l'indique, est né de la volonté de se sentir plus proche de la nature. À l'ère de la "body positivity", de plus en plus de jeunes s'y convertissent.