¿Qué significado tiene el término género

 ¿Qué significado tiene el término género?

Género: 
Es cómo la sociedad define lo que es un hombre y una mujer. En ese sentido, es distinto del sexo en términos biológicos, ya que el género se construye social y culturalmente. Por eso cambia a lo largo del tiempo y de cultura a cultura.  



Comentarios

Entradas populares