niemieckie prawo
 
Encyklopedia PWN
niemieckie prawo,
termin powstały w pocz. XIII w. na Śląsku i Morawach oznaczający swobody i prawa przyznawane kolonistom przybywającym od końca XII w. z Rzeszy na wezwanie władców i wielkich właścicieli ziemskich; → prawo niemieckie.
zgłoś uwagę
Przeglądaj encyklopedię
Przeglądaj tabele i zestawienia
Przeglądaj ilustracje i multimedia