Wydajność komputerów

Autor: Zbigniew Mazgaj

Kategoria: Kultura i nauka Artykuł opublikowano w CX News nr 3/19/2006

W branży IT funkcjonuje tzw. prawo Moore'a, które mówi że co 18 miesięcy komputery podwajają swoją wydajność. Łatwo policzyć, że w ciągu 25 lat wydajność powinna wzrosnąć o około 216, czyli 65 000 razy. I jak na razie to się sprawdza.

Cóż, pan Gordon Moore to nie byle kto, jest on jednym z założycieli firmy Intel. A to  właśnie w tej firmie wynaleziono mikroprocesor - drugiego cichego bohatera tej historii. W 1971 roku Intel wprowadził na rynek pierwszy mikroprocesor o symbolu 4004, zaś w IBM konstrukcję peceta oparto o jego praprawnuka, procesor 8086. Do dzisiaj procesory w pecetach są zgodne wstecz z 8086,  a Intel jest największym producentem procesorów do pecetów na świecie.

Porównanie wydajności komputerów jest złożonym zadaniem. Zależy ona bowiem nie tylko od typu i częstotliwości zegara procesora, ale również od konstrukcji płyty głównej (różnice mogą sięgać 20%!), rozmiaru i rodzaju zastosowanej pamięci RAM, szybkości systemu dyskowego, karty graficznej, i wreszcie używanego oprogramowania. W praktyce na testowanych maszynach uruchamia się specjalnie dobrany zestaw programów (najczęściej są to programy biurowe, bazodanowe, numeryczne, graficzne oraz gry), po czym mierzy się czas ich wykonania. I może się okazać, że komputer który jest demonem obliczeń numerycznych zupełnie nie nadaje się do gier... Ale to temat na osobny artykuł.