Definición de dermatología en Español:

dermatología

nombre femenino

  • 1

    Parte de la medicina que se ocupa de las enfermedades de la piel.