Le droit est « l'ensemble des règles qui régissent la conduite de l'homme en société, les rapports sociaux. », ou de façon plus complète, « l'ensemble des règles imposées aux membres d'une société pour que leurs rapports sociaux échappent à l'arbitraire et à la violence des individus et soient conformes à l'éthique dominante »
Définition Wikipedia