Informatyka stała się wyodrębnioną dziedziną naukową w latach 60. XX w.; jej początki sięgają jednak XVII–XIX w., kiedy podejmowano próby automatyzacji obliczeń za pomocą maszyn mechanicznych (m.in. W. Schickard, B. Pascal, G.W. Leibniz, w Polsce — A. Stern) i zastosowania
kart perforowanych do sterowania procesami technologicznymi (1725). Istotne znaczenie dla późniejszego rozwoju technik obliczeniowych miały prowadzone 1820–43 prace Ch. Babbage’a nad maszynami liczącymi; wynikiem tych prac była m.in. przypisywana A.A. Lovelace pionierska idea symbolicznego zapisu programów. Wynalezienie przez H. Holleritha maszyn licząco-analitycznych umożliwiło automatyzację przetwarzania dużych ilości danych statystycznych (1890). Intensywny rozwój informatyki został zapoczątkowany w latach 1940–45 przez skonstruowanie pierwszych elektromechanicznych maszyn cyfrowych (m.in. H.H. Aiken, K. Zuse), pierwszej elektronicznej maszyny cyfrowej (J.V. Atanasoff), a następnie — pierwszego komputera (
ENIAC), zaprojektowanego i zbudowanego 1945 przez J.P. Eckerta i J.W. Mauchly’ego. Fundamentalne znaczenie dla informatyki miały prowadzone w tym okresie prace teoretyczne A.M. Turinga i J. von Neumanna. Zastosowanie pamięci operacyjnej (M.V. Wilkes, 1949) umożliwiło rozwój technik programowania, m.in. opracowanie pierwszych języków programowania wysokiego poziomu (
Fortran, 1957) i ich rozwój (m.in.
Algol,
Pascal). Znacznym osiągnięciem informatyki polskiej było zapoczątkowanie w końcu lat 50. budowy komputerów (
XYZ), wyposażonych w oryginalne oprogramowanie (systemy operacyjne, translatory). Rozwój elektroniki w latach 70.–80. (m.in. wynalezienie
mikroprocesora) umożliwił powszechny dostęp do sprzętu komputerowego, powstanie nowych technik jego użytkowania (
graficzny interfejs użytkownika) i nowych metod programowania (
programowanie obiektowe), a także narzędzi informatyki związanych z
sieciami komputerowymi, zwłaszcza
Internetem (
HTML,
Java). Podstawą współczesnej informatyki były m.in. prace naukowe E. Dijkstry, N. Wirtha, D. Knutha, C.A.R. Hoare’a.
Dzięki stosowaniu metod informatyki wiele różnych dziedzin działalności ludzkiej zostało usprawnionych, np. administracja i zarządzanie, obliczenia naukowe, sterowanie procesami technologicznymi, przygotowywanie tekstów (
edytor tekstu), prace wydawnicze (
DTP), przesyłanie wiadomości (
poczta elektroniczna), projektowanie (
CAD,
CAM), diagnostyka medyczna (np.
tomografia komputerowa). Rozwijają się też niedawno powstałe dziedziny informatyki, m.in.
sztuczna inteligencja i
grafika komputerowa.
Międzynarodową współpracę w dziedzinie informatyki wspierają m.in.:
Międzynarodowa Federacja Przetwarzania Informacji, amerykańska federacja stowarzyszeń inżynierskich
IEEE, stowarzyszenie
ACM i in.; za osiągnięcia w dziedzinie informatyki jest przyznawana m.in.
Nagroda Turinga. W Polsce informatyka jest wykładana na uczelniach wyższych; elementów informatyki naucza się też w szkołach średnich. Wydawane są liczne czasopisma naukowe i popularnonaukowe; działalność szkoleniową i popularyzatorską prowadzi m.in.
Polskie Towarzystwo Informatyczne.