Miary czasu i przestrzeni
 
Miary czasu i przestrzeni
Człowiek od zawsze żył w czasie i przestrzeni. Nie zawsze jednak uświadamiał to sobie i dopiero od pewnego momentu zaczął mierzyć poszczególne wymiary przestrzeni (głównie długość i szerokość) oraz upływ czasu. Ewolucja miar obu kategorii przebiegała podobnie. U początków leżały pojedyncze wydarzenia oraz cielesne i terenowe punkty odniesienia, zaś na końcu — rozbudowane systemy o uniwersalnej użyteczności i zasięgu. Ich zwieńczeniem w Europie są system metryczny (nie w Anglii) oraz kalendarz gregoriański. Jednakże geneza i rozwój miar czasu oraz przestrzeni była znacznie bardziej złożona i przez to ciekawa.
Czas
Sama natura narzuciła człowiekowi swój porządek i swoje miary. Dzień i noc stworzyły dobę, w trakcie której człowiek musiał znaleźć czas na sen. Fazy księżyca ułatwiły wynalezienie miary tygodnia oraz miesiąca jako odstępu między dwiema identycznymi fazami. Okresowe zjawiska przyrodnicze pomogły w wyodrębnieniu innej odmiany miesięcy oraz w uświadomieniu sobie istnienia roku (jako odstępu między dwiema identycznymi porami, głównie końcem zimy). W wyżej rozwiniętych cywilizacjach to położenie Ziemi względem wybranych gwiazd nasunęło ludziom nowe wyznaczniki roku.
Jednakże nie wszędzie i nie zawsze posługiwano się miarami wynikającymi z obserwacji przyrody i zachowań ludzkiego organizmu, nie mówiąc już o kosmosie. Nie wszyscy posługiwali się miarą tygodnia (być może nie znali jej pogańscy Słowianie). Tam zaś, gdzie stosowano ową jednostkę czasu dłuższą niż doba i krótszą niż miesiąc, mogła ona liczyć od 3 do 10 dni. Przypuszcza się, że długość tak różnych tygodni zależała od częstotliwości targów lokalnych a nie obrotów księżyca. A co z określaniem czasu dłuższego i odleglejszego niż jeden rok, czyli historii?
Od najdawniejszych czasów aż do dziś, czas zdarzeń określano za pomocą innych zdarzeń jako punktów odniesienia, o niekoniecznie przyrodniczym charakterze. Dotyczyło to zarówno sfery życia osobistego (np. „przed — po urodzeniu się dziecka”), jak i historycznej („gdy płonęła puszcza”, „w czasie bitwy nad rzeką x”). Miary te określa się mianem znaczeniowych, jako że zawierają w sobie informacje czytelne jedynie dla osób z danej kultury o często lokalnym zasięgu; dla osób cokolwiek wiedzących o życiu danej rodziny, położeniu puszczy oraz bitwie nad rzeką X i samej rzece. Wielkie cywilizacje antyku stworzyły własne, historyczne bądź mityczne punkty odniesienia: Grecy — rok pierwszej olimpiady (776 p.n.e.), Rzymianie — legendarne założenie ich miasta (753 p.n.e.), Żydzi — mityczne stworzenie świata (5508 p.n.e.), chrześcijanie — narodziny Chrystusa (1 n.e.), zaś muzułmanie — ucieczkę Mahometa do Medyny (622 n.e.).
Wielkie cywilizacje, także poza Europą (Majów w Ameryce Płd., chińska i indyjska w Azji) usystematyzowały obliczanie upływu czasu w skali dni i lat — stworzyły kalendarze. Jak się wydaje, ich pierwotną podstawę stanowił cykl księżycowy. Rok liczony w ten sposób liczył 354 dni. Z biegiem czasu zaczęto układać kalendarze na bazie roku słonecznego, bądź księżycowo-słonecznego. Pierwszy, doskonały kalendarz wypracowali Egipcjanie, którzy regulowali pomiar upływu czasu na podstawie położenia Ziemi i jasno świecącej gwiazdy — Syriusza (365 dni). Nie było jednak bardziej brzemiennego w skutki zdarzenia w dziejach pomiaru czasu niż wynalezienie kalendarza juliańskiego. Ułożony przez astronoma Sozygenesa z Aleksandrii wprowadzony został w życie decyzją Juliusza Cezara (46 p.n.e.). Za podstawę rzymskiego kalendarza uznano rok słoneczny (365,5 dnia). By poradzić sobie z tym ułamkiem ustalono, że w czteroletnich cyklach trzy lata mają liczyć sobie po 365, a jeden rok 366 dni (przestępny). Początek roku wyznaczono na 1 stycznia, jego bieg podzielono na 12 miesięcy, o dobrze nam znanej długości. Doskonałość juliańskiego kalendarza sprawiła, że przejęło go chrześcijaństwo, w którego kręgu stosowany był aż po XVI w. Jednakże w kalendarzu juliańskim dzień wiosennej równonocy, bardzo ważny dla obliczania daty święta Zmartwychwstania, przesuwał się co 128 lat o jeden dzień w tył. By temu zaradzić uczeni włoscy postanowili, by w 1582 po 4 zaczął się od razu 15 października, oraz by opuszczać dni przestępne znacznie rzadziej niż w kalendarzu rzymskim. W tym samym roku papież Grzegorz XIII zatwierdził i odnowił kalendarz nazwany od jego imienia gregoriańskim. Z czasem przyjęły go wszystkie kraje o tradycjach chrześcijańskich i wiele z innych kręgów kulturowych (Polska już w 1582).
Wiele sporów budziła kwestia początku roku. Ograniczając się do kręgu europejskiego średniowiecza i czasów późniejszych możemy wymienić następujące style: 1 III (Ruś do XV w., Wenecja do końca XVIII w.), 25 III — święto Zwiastowania (Włochy, Anglia, Niemcy, Flandria,), ruchoma Wielkanoc (Francja, Flandria, Holandia), jak również 25 grudnia — święto Bożego Narodzenia (kuria papieska, Anglia do XIII w., Niemcy, Szwecja, Czechy, Polska) i 1 stycznia — święto Obrzezania Pańskiego. Ostatni styl zyskał powszechne uznanie już w XVI w. i do dziś pełni funkcję pierwszego dnia nowego roku w wielu kulturach.
Pory roku i miesiąc. Początkowo być może nie rozróżniano pór roku od miesiąca. Przyjmuje się zresztą, że np. Prasłowianie dzielili rok tylko na dwie pory — zimną i ciepłą. Również miesiące znaczyły przez bardzo długo coś innego niż dzisiaj. Nie były to okresy czasu o ustalonej długości, lecz okresy, w których zachodziły charakterystyczne zjawiska przyrodnicze (np. lipiec — zakwitanie lip) oraz wykonywano coroczne prace (np. sierpień — sierp — żniwa). W rozwiniętych cywilizacjach antyku a później średniowiecza miesięczny podział roku opierał się na cyklach księżycowych i obliczeniach matematycznych. Reforma Juliusza Cezara rozstrzygnęła problem liczby i długości miesięcy na dobre.
Data dzienna i tydzień. Dni określano bardzo różnie w zależności od tego czy traktowano je jako elementy tygodnia, miesiąca czy roku. Popularne jest określanie dnia w zależności od jego miejsca w tygodniu, który w naszej kulturze wywodzi się z tradycji żydowskiej (7 dni). Chrześcijaństwo zmieniło dzień święty na niedzielę, którą w krajach chrystianizowanych przedstawiano jako dzień pierwszy (stąd nazwy: np. wtorek — to drugi dzień po niedzieli). Inne nazewnictwo obowiązywało od czasów hellenizmu (koniec IV–I w. p.n.e.) w kulturze antycznej. Powiązano poszczególne dni z bóstwami planetarnymi (np. poniedziałek to dies Lunae — bogini Księżyca — we Francji lundi, w Anglii Monday, zaś w Niemczech Montag).
W chronologii rzymskiej dominowało równocześnie określanie dni na podstawie ich miejsca w miesiącu. Rzymianie wybrali sobie trzy dni jako punkty odniesienia — dzień pierwszy (kalendy), piąty lub zastępczo siódmy (nony) oraz trzynasty lub zamiennie piętnasty (idy). System rzymski stosowano jeszcze w głównych kancelariach średniowiecznej Europy, choć w tym okresie i jeszcze długo później preferowano określanie dnia wedle jego świętego patrona lub patronki (np. „na świętego Grzegorza”). Pod koniec średniowiecza zaczęto natomiast stosować numeryczny sposób określania dni, który obowiązuje współcześnie.
Doba: od piania koguta do sekundy. Oprócz naturalnego podziału na dzień i noc, stosowano i dokładniejsze wyznaczniki czasu dobowego, zależne od pozornego ruchu słońca (np. brzasku, zmierzchu). Odwoływano się także do czasu posiłków jako ważnych wyznaczników doby. Trudniej było z podziałem nocy, którą pierwotnie utożsamiano z czasem snu człowieka. W społeczeństwach rolniczych korzystano z trzykrotnego piania koguta.
Podział dnia na równe godziny (12) wynaleziono najwcześniej w Babilonii. W Europie większą jednak rolę odegrał pomysł Egipcjan, by podzielić dobę na 24 godziny — 12 dziennych, 12 nocnych. W okresie hellenistycznym rozpowszechnił się on na rozległych terytoriach Europy, Afryki i Azji. Uczeni chrześcijanie średniowiecza znali co prawda ów podział, lecz w praktyce ograniczono podział dnia do 7 godzin kanonicznych, kiedy to należało odmawiać stosowane modlitwy. Horae canonicae oznajmiane były biciem dzwonów, które przez stulecia regulowały życie mieszkańców wsi, a także miast. Dopiero od końca XIII w. pojawiły się zegary mechaniczne, które automatycznie odmierzały i wybijały godziny o równej długości, niezależnej od pór roku. Część zegarów miała podzieloną tarczę na 24, część zaś (tzw. półzegary) — na 12 jednostek.
W późniejszych stuleciach, gdy wykształciły się więzi między odległymi regionami, powstał problem uzgadniania czasu w różnych miejscach Ziemi. Kłopotów dodało wynalezienie pociągu i szybkie przemieszczanie się na duże odległości. Od XVII w. zaczęto stosować tzw. czas średni dla sztucznie wydzielonych stref. Było ich jednak bardzo dużo — w Stanach Zjednoczonych aż 71! By uzgodnić pomiar czasu w skali międzynarodowej w 1884 podzielono Ziemię na 24 strefy czasowe, z których każda obejmowała 15 stopni szerokości geograficznej i zarazem 1 godzinę. Punkt zerowy wyznaczono w Greenwich pod Londynem.
Co do mniejszych jednostek czasu, to dzisiejszy podział godziny na 60 minut i 3600 sekund wywodzi się jeszcze ze starożytnej Babilonii. Na zegarach zaczęto je zaznaczać i dodawać dodatkowe wskazówki dopiero w XVIII–XIX w. Potrzeba coraz większej precyzji narastała nieubłaganie. Dla jej zaspokojenia w 1967 przyjęto, że sekunda to „czas trwania 9192631770 okresów promieniowania odpowiadającego przejściu między dwoma nadsubtelnymi poziomami stanu podstawowego atomu cezu 133”.
 
Przestrzeń
Gdy mówimy o pomiarach przestrzeni mamy na myśli głównie mierzenie długości (odległości) oraz powierzchni. Pomińmy kwestię objętości. Mimo ścisłych związków, miary długości wymyślono wcześniej niż powierzchni. Przez długi czas rozwijały się one niezależnie.
Miary długości. Wszystko zaczęło się od bardzo prostych mierników. Dla człowieka pierwotnego oraz jego następcy żyjącego we wspólnotach odległych od miast, punktem odniesienia było własne ciało. To wedle niego określał długość mniejszych przedmiotów przyrównując je do własnego palca, rozstępu między kciukiem a małym palcem (piędź), odległości między czubkiem dłoni a łokciem (łokieć), odstępu między czubkami palców obu dłoni przy rozciągniętych ramionach (siąg, sążeń) itd. Podobnie miało miejsce wymierzanie odległości — za pomocą stopy i kroku. Człowiek tradycyjny określał długości biorąc pod uwagę siłę własnych mięśni („odległość na rzut kamieniem”), niekiedy za pomocą narzędzi wspomagających („odległość wystrzelonej strzały”). Również dla oszacowania większych dystansów wytrzymałość fizyczna podróżującego okazywała się przydatna jako miernik. Często mierzył on bowiem przebytą odległość liczbą postojów, koniecznych dla odpoczynku (staje, stajanie, mila). Odległość mierzono też niekiedy czasem podróży („odległość dnia naturalnego”, tj. od wschodu do zachodu słońca; „odległość trzydziestu dni”). Niekiedy uzupełniano tę ważną miarę informacją o środku transportu („o sześć dni jazdy wielbłądem”). Z podobnych przesłanek wzięły się też dźwiękowe miary odległości, zależne m.in. od instrumentu emitującego dźwięk. Wykorzystywano więc donośność ludzkiego krzyku, dźwięku rogów bądź trąb, albo też dzwonu czy zaśpiewu muezzina.
Z dzisiejszego punktu widzenia wszystkie te miary były bardzo niedokładne. Poza tym za każdym razem oznaczać mogły różną długość czy odległość. Lecz dla ówczesnych ludzi były użyteczne, gdyż wynikały z ich codziennego doświadczenia przeżywanego w dobrze znanych im warunkach. Dlatego mimo wielu późniejszych zmian, część archaicznych sposobów mierzenia odległości przetrwała. Do dziś lubimy określać dystans do przebycia za pomocą czasu (np. „Giewont — 3,5 godziny”).
W pewnym jednak momencie zaczął się proces konwencjonalizacji, tj. zamiany miar archaicznych, znaczeniowych na jednostki abstrakcyjne, obejmujące tę samą długość niezależnie od miejsca dokonywania pomiaru. W świecie starożytnym dopracowano się wzorców łokcia (Egipt — „łokieć nilowy”, tj. do badania poziomu rzeki Nil; Grecja, Rzym), stopy, kroku (Grecja, Rzym), stadionu (177,6 metrów), jak również mili (1000 kroków = 1478 metrów). Mila rzymska tworzyła cały system, u podstawy którego była stopa (około 30 cm).
Po upadku świata starożytnego część miar przetrwała (np. stopa, mila), jednakże we wczesnym średniowieczu (X–XI w.) dominowały miary lokalne. Późniejszy rozkwit gospodarczy Europy i powstawanie dalekosiężnych powiązań handlowych przyczyniło się do odrodzenia miar konwencjonalnych, zrozumiałych i podobnych w oddalonych od siebie regionach. Dobrym tego przykładem jest mila. Jej długość zależała od zagospodarowania i zaludnienia regionu, w którym ją stosowano. Panowała zasada: im mniej zaludniona przestrzeń, tym dłuższy wzorzec mili. Tak więc np. mila włoska (lombardzka) mierzyła około 1750 m, francuska — okolo 4,5 km, zaś niemiecka — około 7–8 km. Podobnie średniowieczne mile polskie (6–ponad 7 km). W Europie panowało nadal jednak jeszcze wiele, choć mniej niż wcześniej, odmian podstawowych miar długości. Mimo różnych reform podejmowanych w XVII–XIX w. tylko jedna okazała się prawdziwie przełomowa — powstanie systemu metrycznego. Opierał się on na dobrze nam znanym wzorcu metra i zasadzie wielokrotności dziesiętnej, jeśli chodzi o jednostki większe względem mniejszych. Ojczyzną systemu metrycznego jest Francja, gdzie wprowadzono go po raz pierwszy w 7 IV 1795 (1799 — wzorzec metra). Jednakże system metryczny uznano za międzynarodowy dopiero w 1875, gdy osiemnaście państw Europy, Ameryki Północnej i Ameryki Południowej podpisało tzw. Konwencję Metryczną. W Polsce wprowadzono go w 1919. Do 1965 Konwencję podpisało dalszych kilkadziesiąt państw, w tym tak rozległe, jak Chiny oraz Indie. Jeden metr definiowano różnie, z tendencją do jeszcze większej dokładności. Rozwój fizyki jądrowej, budowa rakiet, podróże w kosmos wymagały coraz większej precyzji. Dlatego od 1960 wzorcową sztabkę zastąpiono skomplikowaną definicją o następującym brzemieniu: „1 metr jest to długość równa 1650763,73 długości fali w próżni promieniowania odpowiadającego przejściu od poziomu 2p10 do poziomu 5d5 atomu kryptonu 86”.
Miary powierzchni. Także i tu dominowały początkowo miary znaczeniowe. Zapewne najstarszym określeniem powierzchni było po prostu podanie punktów w terenie, pomiędzy którymi rozciągała się dana powierzchnia. Archaicznym, choć przez stulecia stosowanym sposobem określania wielkości danej powierzchni było podawanie długości jej obwodu (np. „obwód miasta Konstantynopola wynosi 18 mil”). Inne miary stosowano dla powierzchni pól ornych. Zanim wynaleziono miary abstrakcyjne powierzchnie wyznaczano na trzech zasadniczych podstawach: zdolności produkcyjnej jednej rodziny rolniczej (tzn. wielkości pola, którą była w stanie obrobić grupa kilku chłopów); czasie orania określonej powierzchni (od jednego dnia naturalnego do sezonu rolniczego); jednostce objętości ziarna, którym zasiewano daną powierzchnię orną. Miary te miały charakter znaczeniowy, zawierały bowiem różne cenne informacje dla współczesnych i mogły oznaczać zupełnie różną wielkość w zależności od wielu lokalnych okoliczności (jakości gleby, narzędzi orki, siły pociągowej, wielkości miary objętości).
Już w antyku przeprowadzono pierwszą konwencjonalizację miar powierzchni. W starożytnym Egipcie wykorzystano wzorzec łokcia, by na jego podstawie stworzyć jednostkę powierzchni arura. Był to kwadrat o boku równym 100 łokciom (około 2000–2720 m2 w zależności od wzorca łokcia). Grecy i Rzymianie podnieśli do rangi abstrakcji miarę powierzchni równą obszarowi, jaki można było zaorać parą wołów w ciągu dnia naturalnego. Nic dziwnego, że grecki plethron i rzymski iuger miały zbliżone rozmiary (odpowiednio: około 2960 m2 i około 2520 m2). Jednocześnie rzymska miara tworzyła podstawową jednostkę całego systemu zawierającego większe jednostki (największa saltus obejmowała 800 iugerów).
W okresie średniowiecza przez całe stulecia posługiwano się miarami prymitywniejszymi, znaczeniowymi. Popularne stały się miary radła lub pługa, które oznaczały obszar możliwy do obrobienia tymi narzędziami w określonym czasie (raczej: sezonu orki). Jednocześnie w użyciu znalazły się miary, które zawierały informacje o sile pociągowej (np. „ziemia na dwa woły”). Oznaczały one pole, który w danej okolicy można było obrobić zaprzęgiem dwóch wołów (o stosowanym w każdym przypadku narzędziu orki wiedzieli ówcześni gospodarze z danej wsi, my — nie).
Mniej więcej od XI–XII w. w Europie Zachodniej nastąpiła konwencjonalizacja miar powierzchni przy wykorzystaniu mili. W związku z kolonizacją Wielkiej Niziny Europejskiej nastąpiło upowszechnienie miary łana. Funkcjonowały jego dwie odmiany. Mniejsza, łan flamandzki (w Polsce: chełmiński), obejmowała powierzchnię 16–18 ha. Większa, łan niemiecki (frankoński), odpowiadała wielkościom 23–27 ha. Łan dzielił się na półłany, ćwierćłany, jak również morgi (1 łan flamandzki to 30 morg/włók, 1 łan frankoński — 43 morgi). Jednakże zdobywanie dominującej pozycji przez łan w metrologii późnego średniowiecza i nowożytności było nieuchronne. W XVII–XIX w. dokonano wielu przekształceń systemu łana, tak aby stworzyć jeden spójny system i przełamać regionalne odmiany tej miary. Dzielono łan na różne, także abstrakcyjne podjednostki: pręty, morgi-staje, zagony. Istniały jednak różne odmiany tych miar. Dlatego ostateczna unifikacja dokonała się dopiero po wynalezieniu i upowszechnieniu systemu metrycznego. Powstały wielkości podniesione do kwadratu, którym przyporządkowano nowe miary stosowane m.in. w rolnictwie (hektar = 10000 m2 i ar = 100 m2). Stosuje się je do dziś.
Grzegorz Myśliwski
zgłoś uwagę
Ilustracje
Greenwich, ogród w stylu angielskim (Wielka Brytania)fot. J. Kilian/Archiwum Ilustracji WN PWN SA © Wydawnictwo Naukowe PWN
Przeglądaj encyklopedię
Przeglądaj tabele i zestawienia
Przeglądaj ilustracje i multimedia