El “Body Positive” es un movimiento que nació en Estados Unidos a fines de los 90’ y su objetivo es trata de visibilizar, normalizar y respetar realidades del cuerpo humano que generalmente son escondidas: marcas y cicatrices en la piel, estrías, celuliti