informatyka
 
Encyklopedia PWN
informatyka
[łac. informatio ‘wyobrażenie’, ‘wizerunek’, ‘pomysł’],
dyscyplina naukowa zajmująca się przetwarzaniem informacji z użyciem komputerów;
obejmuje teorie informatyczne, budowanie systemów informatycznych (w tym programowanie), budowę i działanie sprzętu komputerowego, zastosowania metod informatycznych w różnych dziedzinach działalności ludzkiej i in. Teorie informatyczne zajmują się badaniem zjawisk związanych z operowaniem informacją — jej przedstawianiem, przechowywaniem, uzyskiwaniem, porządkowaniem, przetwarzaniem. Prawa rządzące tymi zjawiskami leżą u podstaw budowy narzędzi informatyki, będących obiektami fizycznymi (głównie komputerami) i logicznymi (np. algorytmami, językami programowania, programami, strukturami danych). Te z kolei stanowią przedmiot badań działów teoretycznych informatyki. Informatyka posługuje się językiem i metodami matematyki, logiki matematycznej i specyficznych dziedzin, takich jak: teoria języków formalnych i automatów abstrakcyjnych, teoria algorytmów, teoria obsługi masowej; teorie te tworzą również swój własny język i metody. Programowanie i budowanie systemów informatycznych obejmuje w szczególności tworzenie narzędzi ułatwiających programowanie i ogólnie — posługiwanie się komputerami; do narzędzi tych należą języki programowania, translatory, systemy operacyjne i in.; do działu informatyki związanego z programowaniem należą też metody programowania i oceny programów. Dział informatyki związany ze sprzętem komputerowym (jego budową i metodami oceny) wykorzystuje zarówno rozwój elektroniki, jak i modele obliczeniowe tworzone w celu szybkiego, algorytmicznego rozwiązywania zadań; modele te stanowią teoretyczną podstawę tzw. architektur komputerowych, realizowanych następnie elektronicznie.
Informatyka stała się wyodrębnioną dziedziną naukową w latach 60. XX w.; jej początki sięgają jednak XVII–XIX w., kiedy podejmowano próby automatyzacji obliczeń za pomocą maszyn mechanicznych (m.in. W. Schickard, B. Pascal, G.W. Leibniz, w Polsce — A. Stern) i zastosowania kart perforowanych do sterowania procesami technologicznymi (1725). Istotne znaczenie dla późniejszego rozwoju technik obliczeniowych miały prowadzone 1820–43 prace Ch. Babbage’a nad maszynami liczącymi; wynikiem tych prac była m.in. przypisywana A.A. Lovelace pionierska idea symbolicznego zapisu programów. Wynalezienie przez H. Holleritha maszyn licząco-analitycznych umożliwiło automatyzację przetwarzania dużych ilości danych statystycznych (1890). Intensywny rozwój informatyki został zapoczątkowany w latach 1940–45 przez skonstruowanie pierwszych elektromechanicznych maszyn cyfrowych (m.in. H.H. Aiken, K. Zuse), pierwszej elektronicznej maszyny cyfrowej (J.V. Atanasoff), a następnie — pierwszego komputera (ENIAC), zaprojektowanego i zbudowanego 1945 przez J.P. Eckerta i J.W. Mauchly’ego. Fundamentalne znaczenie dla informatyki miały prowadzone w tym okresie prace teoretyczne A.M. Turinga i J. von Neumanna. Zastosowanie pamięci operacyjnej (M.V. Wilkes, 1949) umożliwiło rozwój technik programowania, m.in. opracowanie pierwszych języków programowania wysokiego poziomu (Fortran, 1957) i ich rozwój (m.in. Algol, Pascal). Znacznym osiągnięciem informatyki polskiej było zapoczątkowanie w końcu lat 50. budowy komputerów (XYZ), wyposażonych w oryginalne oprogramowanie (systemy operacyjne, translatory). Rozwój elektroniki w latach 70.–80. (m.in. wynalezienie mikroprocesora) umożliwił powszechny dostęp do sprzętu komputerowego, powstanie nowych technik jego użytkowania (graficzny interfejs użytkownika) i nowych metod programowania (programowanie obiektowe), a także narzędzi informatyki związanych z sieciami komputerowymi, zwłaszcza Internetem (HTML, Java). Podstawą współczesnej informatyki były m.in. prace naukowe E. Dijkstry, N. Wirtha, D. Knutha, C.A.R. Hoare’a.
Dzięki stosowaniu metod informatyki wiele różnych dziedzin działalności ludzkiej zostało usprawnionych, np. administracja i zarządzanie, obliczenia naukowe, sterowanie procesami technologicznymi, przygotowywanie tekstów (edytor tekstu), prace wydawnicze (DTP), przesyłanie wiadomości (poczta elektroniczna), projektowanie (CAD, CAM), diagnostyka medyczna (np. tomografia komputerowa). Rozwijają się też niedawno powstałe dziedziny informatyki, m.in. sztuczna inteligencja i grafika komputerowa.
Międzynarodową współpracę w dziedzinie informatyki wspierają m.in.: Międzynarodowa Federacja Przetwarzania Informacji, amerykańska federacja stowarzyszeń inżynierskich IEEE, stowarzyszenie ACM i in.; za osiągnięcia w dziedzinie informatyki jest przyznawana m.in. Nagroda Turinga. W Polsce informatyka jest wykładana na uczelniach wyższych; elementów informatyki naucza się też w szkołach średnich. Wydawane są liczne czasopisma naukowe i popularnonaukowe; działalność szkoleniową i popularyzatorską prowadzi m.in. Polskie Towarzystwo Informatyczne.
Przeglądaj encyklopedię
Przeglądaj tabele i zestawienia
Przeglądaj ilustracje i multimedia