Diritto positivo
È il diritto elaborato ed emanato dal legittimo organo legislativo dello Stato. Si contrappone al
diritto naturale [
vedi].
In quanto manifestazione della volontà di un legislatore, l’espressione designa il diritto effettivamente in vigore in un dato ordinamento e in un dato contesto storico [
vedi Positivismo giuridico].