Nous répondons à l’ensemble des besoins rencontrés par les employeurs comme par les employés.
Le droit du travail ou droit social
En France, le droit du travail est une branche du droit social qui régit les relations nées d’un contrat de travail entre les employeurs et les salariés. Le droit du travail a pour objet d’encadrer la relation de subordination qui lie salarié et employeur, et de limiter le déséquilibre entre les parties au contrat de travail.