Hola Wilson,
La "positividad corporal" (o "Body Positive" en inglés) es un movimiento social arraigado en la creencia de que todos los seres humanos deben tener una imagen corporal positiva, al hacerlo, desafía las formas en que la sociedad presenta y ve el cuerpo físico junto con los ideales de belleza.
Saludos,
Marina