Droit du travail

En France, le droit du travail est une branche du droit social qui régit les relations nées d’un contrat de travail entre les employeurs et les salariés. Le droit du travail a pour objet d’encadrer la relation de subordination qui lie salarié et employeur, et de limiter le déséquilibre entre les parties au contrat de travail.