Você já deve ter ouvido falar em roda de amigos ou em algumas notícias pelas redes sociais, de que as mulheres costumam cuidar melhor da saúde do que os homens. O que você talvez não saiba, é que essa afirmação é totalmente verdadeira e confirmada por estudos.