Définition Droit

Définition "Droit"

Le droit est l'ensemble des règles de conduite extérieures, définies par des hommes pour régir les rapports sociaux, et généralement sanctionnées par la contrainte publique. La sanction attachée à la règle de droit est ce qui distingue cette dernière des autres règles, telles que les règles morales et de politesse.

Articles contenant Droit

Articles contenant "Droit"