Definición de legitimismo en Español:

legitimismo

nombre masculino

  • 1

    Doctrina que afirma la legitimidad de una dinastía o de una rama de una dinastía por considerar que tiene mayor derecho a ocupar el trono que la dinastía o la rama reinante.

    el legitimismo se aplicaba a los carlistas en España