Używamy technologii takich jak pliki cookie do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Robimy to, aby poprawić jakość przeglądania i wyświetlać spersonalizowane reklamy. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak zgody lub wycofanie zgody może negatywnie wpłynąć na niektóre cechy i funkcje. Informujemy, że istnieje możliwość określenia przez użytkownika serwisu warunków przechowywania lub uzyskiwania dostępu do informacji zawartych w plikach cookies za pomocą ustawień przeglądarki lub konfiguracji usługi. Szczegółowe informacje na ten temat dostępne są u producenta przeglądarki, u dostawcy usługi dostępu do Internetu oraz w Polityce prywatności plików cookies

Szczegóły znajdziesz w Regulaminie.

Opisz historię komputera .

Autor: Mooonika, 2011-09-03 11:57:34
Dodaj do:
Opisz historię komputera .

Rozwiązania (4)

Autor: madzia3883
9
dodano: 2011-09-14 17:24:03
Choć komputery są współcześnie przez tak wielu
ludzi, historia tych urządzeń wcale nie jest długa. Pierwsze
komputery pojawiły się w latach 40. naszego wieku. Jednym z nich był ENIAC, skomplikowana maszyna licząca, której możliwości były takie jak używanych dzisiaj nowoczesnych, elektronicznych kalkulatorów.
W latach 50. i 60. z komputerów korzystały wyłącznie ośrodki wojskowe, naukowe i wyższe uczelnie, dlatego też dostęp do tych urządzeń był bardzo ograniczony. Dopiero w latach 70. pojawiły
się pierwsze komputery mieszczące się na biurku, jednak ze względu
na wysoka cenę wykorzystywano je tylko w dużych firmach i
przedsiębiorstwach.
Komputery zaczęto stosować powszechnie dopiero na początku
lat 80.

Historia komputera
Były to najpierw mikrokomputery domowe, m.in. Spectrum,
Atari, Commodore. Mogły one wyświetlać obraz, zamiast na ekranie
monitora, na zwykłym telewizorze, a wszystkie ich elementy mieściły
się w jednej obudowie razem z klawiaturą. Mikrokomputery domowe pozwalały pisać teksty, wykonywać nieskomplikowane obliczenia oraz
programować. To dzięki nim niezwykle popularne stały się gry komputerowe. Współcześnie rzadko stosuje się komputery tego typu.Widząc niezwykłe powodzenie małych komputerów domowych,
amerykańska firma IBM (International Business Machines) zaoferowała użytkownikom komputer osobisty. W ten sposób w swej
krótkiej opowieści o komputerach dotarliśmy do komputera PC (PECET).
Co zdecydowało o tym, że właśnie PC stał się najpopularniejszym typem komputera na świecie? Wielki wpływ na to miała decyzja IBM,
które udostępniło innym firmom dane techniczne swojego urządzenia. Dzięki temu na rynku pojawiły się liczne komputery stworzone, co prawda, przez różnych producentów, lecz według pomysłów inżynierów z IBM, a wraz z nimi ogromna liczba programów przeznaczona dla tych urządzeń. Do dzisiaj niektórzy użytkownicy nazywają je po prostu IBM-ami, choć tak naprawdę są to tylko Komputery kompatybilne (zgodne) z komputerami IBM PC.

Komputery są kompatybilne, jeśli mogą pełnić
Takie same funkcje, wykonywać takie same
programy oraz współpracować z takimi samymi
urządzeniami.

Od czasu powstania pierwszych komputerów PC
ich konstrukcja bardzo się zmieniła, są one
ciągle unowocześniane i modyfikowane.
Autor: Liczer
5
dodano: 2011-11-08 13:47:54
1. Kamienie milowe w rozwoju technologii informacyjnej
Historia informatyki od XX w.
1.1 Co to jest informatyka?
INFORMATYKA [łac.], dziedzina nauki i techniki zajmująca się metodami zapisywania, przechowywania i przetwarzania informacji, zwłaszcza za pomocą sprzętu komputerowego. Obejmuje teorie informatyczne, budowanie systemów informatycznych (w tym programowanie), budowę i działanie sprzętu komputerowego, zastosowania metod informatycznych w różnych dziedzinach działalności ludzkiej i inne. Teorie informatyczne zajmują się badaniem zjawisk związanych z operowaniem informacją ? jej przedstawianiem, przechowywaniem, uzyskiwaniem, porządkowaniem, przetwarzaniem. Prawa rządzące tymi zjawiskami leżą u podstaw budowy narzędzi informatyki, będących obiektami fizycznymi (gł. komputerami) i logicznymi (np. algorytmami, językami programowania, programami, strukturami danych). Te z kolei stanowią przedmiot badań działów teoretycznych informatyki. Informatyka posługuje się językiem i metodami matematyki, logiki matematycznej i specyficznych dziedzin, takich jak: teoria języków formalnych i automatów abstrakcyjnych, teoria algorytmów, teoria kolejek. Teorie te tworzą również swój własny język i metody. Programowanie i budowanie systemów informatycznych obejmuje w szczególności tworzenie narzędzi ułatwiających programowanie i ogólnie ? posługiwanie się komputerami. Do narzędzi tych należą języki programowania, translatory, systemy operacyjne i inne. Do działu informatyki związanego z programowaniem należą też metody programowania i oceny programów. Dział informatyki związany ze sprzętem komputerowym (jego budową i metodami oceny) wykorzystuje zarówno rozwój elektroniki, jak i modele obliczeniowe tworzone w celu szybkiego, algorytmicznego rozwiązywania zadań. Modele te stanowią teoretyczną podstawę tzw. architektur komputerowych, realizowanych następnie elektronicznie.
1.2 Historia informatyki
Fleming John Ambrose (1849-1945)
Elektrotechnik i radiotechnik angielski. Współpracował z G. Marconim w pracach nad radiotelegrafem. Sformułował regułę prawej dłoni; w 1904 wynalazł diodę.

Dioda (gr. d(s) ?dwa razy? od do ?dwa? hódos ?droga?) fiz., tech. przyrząd dwuelektrodowy, który w jedną stronę przepuszcza prąd elektryczny, a w drugą tylko w minimalnym stopniu, obecnie przede wszystkim stosuje się diody półprzewodnikowe.
Heike Kamerlingh Onnes (1853-1926)
Holenderski fizyk, odkrył zjawisko nadprzewodnictwa, zajmował się zależnością oporu przewodników metalowych od temperatury. W 1911 roku stwierdził, że opór przy temperaturze w okolicach zera (0?K) spada, zbliżając się skokowo do zera. Poza tym stwierdził, że to zjawisko może ustać wskutek wpływu pola magnetycznego. Brak strat energii na wydzielanie ciepła w trakcie przepływu prądu elektrycznego w nadprzewodniku stwarza możliwości praktycznego zastosowania nadprzewodników Proszę
Autor: sylwiag042
2
dodano: 2012-01-08 17:52:15
Komputer (z ang. computer od łac. computare – liczyć, sumować; dawne nazwy używane w Polsce: mózg elektronowy, elektroniczna maszyna cyfrowa, maszyna matematyczna) – maszyna elektroniczna przeznaczona do przetwarzania informacji, które da się zapisać w formie ciągu cyfr albo sygnału ciągłego.

Pomimo że mechaniczne maszyny liczące istniały od wielu stuleci, komputery w sensie współczesnym pojawiły się dopiero w połowie XX wieku, gdy zbudowano pierwsze komputery elektroniczne. Miały one rozmiary sporych pomieszczeń i zużywały kilkaset razy więcej energii niż współczesne komputery osobiste (PC), a jednocześnie miały miliardy razy mniejszą moc obliczeniową.

Małe komputery mogą zmieścić się nawet w zegarku i są zasilane baterią. Komputery osobiste stały się symbolem ery informatycznej i większość utożsamia je z "komputerem" właśnie. Najliczniejszymi maszynami liczącymi są systemy wbudowane sterujące najróżniejszymi urządzeniami - od odtwarzaczy MP3 i zabawek po roboty przemysłowe.Komputer od typowego kalkulatora odróżnia zdolność wykonywania wielokrotnie, automatycznie powtarzanych obliczeń, wg algorytmicznego wzorca zwanego programem, gdy tymczasem kalkulator może zwykle wykonywać tylko pojedyncze działania. Granica jest tu umowna, ponieważ taką definicję komputera spełniają też kalkulatory programowalne (naukowe, inżynierskie), jednak kalkulatory służą tylko do obliczeń numerycznych, podczas gdy nazwa komputer najczęściej dotyczy urządzeń wielofunkcyjnych.
Global Digital Divide1.png

Jakkolwiek istnieją mechaniczne urządzenia liczące, które potrafią realizować całkiem złożone programy, zazwyczaj nie zalicza się ich do komputerów. Warto jednak pamiętać, że prawzorem komputera była maszyna Turinga, którą można by wykonać w całości z części mechanicznych (o ile zrezygnujemy z nieskończonej długości taśmy), a pierwsze urządzenia ułatwiające obliczenia były znane w starożytności, np. abakus z 440 p.n.e..

W początkowym okresie rozwoju komputerów budowano komputery zerowej generacji na przekaźnikach i elementach mechanicznych.

Właściwie wszystkie współczesne komputery to maszyny elektroniczne. Próby budowania komputerów optycznych (wykorzystujących przełączniki optyczne), optoelektronicznych (połączenie elementów optycznych i elektronicznych), biologicznych (wykorzystujące wypreparowane komórki nerwowe) czy molekularnych (wykorzystujące jako bramki logiczne pojedyncze cząsteczki) są jeszcze w powijakach i do ich praktycznego zastosowania jest wciąż długa droga. Innym rodzajem komputera jest komputer kwantowy, którego układ przetwarzający dane wykorzystuje prawa mechaniki kwantowej.W definicji komputera mieszczą się też urządzenia do przeliczania wartości reprezentowanych przez wielkość ciągłą (napięcie lub prąd elektryczny). Programowanie ich polega na określeniu toru przetwarzania sygnałów przełącznikami i ewentualnie określeniu stałych za pomocą potencjometrów. Komputery takie stosowano w połowie XX wieku i istniały nawet wyspecjalizowane w tym celu układy scalone. Obecnie nie opłaca się implementować algorytmów obliczeniowych w technice analogowej, ze względu na niską cenę mikroprocesorów. Można jeszcze spotkać (np. w Rosji) analogowe komputery balistyczne służące do obliczania toru pocisków artyleryjskich, jednak i tam zastępuje się je komputerami cyfrowymi.To, co odróżnia współczesne komputery od wszystkich innych maszyn, to możliwość ich programowania, czyli wprowadzenia do pamięci komputera listy instrukcji, które mogą być wykonane w innym czasie.

W większości przypadków instrukcje, które komputer wykonuje, są bardzo proste - dodawanie dwóch liczb, przeniesienie danych z jednego miejsca w inne, wyświetlenie komunikatu itd. Instrukcje te odczytywane są z pamięci komputera i zazwyczaj wykonywane są w tej samej kolejności, co w pamięci. Istnieją jednak instrukcje umożliwiające "skok" w pewne określone miejsce programu i wykonanie go z tego miejsca. Ponadto instrukcje skoku mogą być wykonane warunkowo, co umożliwia wykonanie różnych zestawów instrukcji w zależności od uzyskanych wcześniej wyników obliczeń. Ponadto istnieją instrukcje umożliwiające tworzenie podprogramów, pamiętające miejsce z którego wykonano skok, by wrócić do niego po wykonaniu podprogramu.

Programowanie można w pewnym stopniu przyrównać do czytania książki. W większości wypadków słowa odczytywane są po kolei, zdarzają się jednak momenty, gdy czytelnik wraca do wcześniejszego rozdziału lub omija nieciekawy fragment. Komputery mają możliwość wykonania pewnych instrukcji w pętli, dopóki nie zostanie spełniony jakiś warunek.

Można tu użyć przykładu człowieka próbującego zsumować kolejne liczby na kalkulatorze. Dodaje 1 + 2, do wyniku dodaje 3 itd. Przy próbie zsumowania 10 liczb nie stanowi to problemu, jednak już przy tysiącu po pierwsze zajmuje to bardzo dużo czasu, po drugie przy tak dużej ilości operacji istnieje duże prawdopodobieństwo błędu. Komputer z kolei wykona tę operację w ułamku sekundy, przy użyciu prostego programu:mov #0,sum ; ustaw sum na 0
mov #1,num ; ustaw num na 1
loop: add num,sum ; dodaj num i sum
add #1,num ; dodaj 1 do num
cmp num,#1000 ; odejmij num od 1000
ble loop ; jeżeli num
Autor: magda199914
10
dodano: 2013-06-03 18:48:46
Historia komputera.
Historia komputera sięga wbrew pozorom czasów najdawniejszych i nie zaczyna się jak to część osób myśli na komputerze.
3000 p.n.e. - Powstaje pierwsze liczydło w Babilonii.


250-230 p.n.e. - Metodą sita Eratostenesa udaje się ustalić liczby pierwsze. Metoda poszukiwania liczb pierwszych polega na usuwaniu z ciągu liczb naturalnych liczb będących iloczynami liczb naturalnych.

876 n.e. - Pierwsze, zarejestrowane w Indiach, użycie symbolu 0.

1620 - Edmund Gunter z Anglii wynajduje suwak logarytmiczny, który stanie się protoplastą kalkulatora elektrycznego.

1642-1643 - Blaise Pascal konstruuje arytmometr - mechaniczną maszynę, która potrafi dodawać liczby. Formułuje też prawa podzielności liczb całkowitych wykorzystujące sumowanie cyfr. Opracowywuje metodę wyznaczania współczynników dwumianu dowolnego stopnia (trójkąt Pascala).

1666 - Samuel Morland konstruuje w Anglii mechaniczny kalkulator, który potrafi dodawać i odejmować.

1670 - Gottfried Wilhelm Leibniz, niemiecki filozof i matematyk formułuje idee rachunku całkowego.

1674 - Gottfried Wilhelm Leibniz, twórca rachunku różniczkowego i całkowego, skonstruował czterodziałaniowy arytmometr z mechanizmem kół osadzonych na osi obracanej za pomocą korbki. Konstrukcja ta stała się prawzorem wielu poźniejszych urządzeń

1679 - Gottfried Wilhelm Leibniz wprowadził arytmetykę binarną (dwójkową). W arytmetyce tej każda liczba mogła być przedstawiona przy użyciu jedynie dwóch symboli.

1694 - Gotffried Leibniz konstruuje pierwszą maszynę liczącą używającą zerojedynkowego zapisu liczb.

1812 - Robotnik Ned Ludd zachęca innych robotników, by zniszczyli maszyny zastępujące człowieka, gdyż obawia się utraty pracy. Terminu "Luddite" używano później na określenie oponentów technologii.

1820 - Joseph-Marie Jacquard skonstruował krosno sterowane za pomocą kart perforowanych, Charles Thomas de Colmar (1785-1870) stworzył pierwszy masowo produkowany arytmometr.

1833 - Charles Babbage, matematyk angielski nazywany pionierem informatyki, projektuje pierwszą maszynę analityczną, działającą na zasadzie zbliżonej do zasady działania komputerów cyfrowych, nazwaną "młynem arytmetycznym". Maszyna ta miała wykonywać podstawowe działania matematyczne, zapamiętywać dane wejściowe, pośrednie oraz wyniki obliczeń końcowych. Wprowadzanie i wyprowadzanie danych miało przebiegać na kartach dziurkowanych. Projekt nie został zrealizowany z powodu istniejącego wówczas niskiego poziomu techniki. W 1991 w Science Museum w Londynie wykonano wg oryginalnych planów fragment (arytmometr) Drugiej Maszyny Różnicowej, udowadniając poprawność konstrukcji.

1844 - Samuel Morse przesyła informację za pomocą telegrafu z Waszyngtonu do Baltimore.

1854 - George Boole publikuje uwagi na temat symboli logicznych, które sto lat później staną się podstawą działania komputerów.

1857 - Sir Charles Wheatstone wprowadza taśmę papierową w rolkach, która może służyć do zapisywania i odczytywania danych.

1858 - Linia telegraficzna przeprowadzona zostaje przez Ocean Atlantycki.

1876 - Aleksander Graham Bell w wieku dwudziestu siedmiu lat opatentowuje wynalazek telefonu.

1884 - Pierwsza linia telefoniczna połączyła Boston z Nowym Jorkiem.

1886 - William Burroughs skonstruował mechaniczną maszynę sumującą, która jako pierwsze tego typu urządzenie odniosła sukces rynkowy.

1890 - Herman Hollerith projektuje maszynę analityczną wykorzystującą karty dziurkowane, co pozwala amerykańskim instytucjom zajmującym się spisami ludności zredukować czas obliczania danych z dziesięciu lat do dwu i pół roku.

1892 - W La Porte w stanie Indiana uruchomiono pierwszą automatyczną centralę telefoniczną.

1893 - Opracowany zostaje pierwszy czterodziałaniowy kalkulator.

1895 - Guglielmo Marconi transmituje pierwsze sygnały radiowe.

1896 - Herman Hollerith zakłada firmę Tabulating Machine Company, która, łącząc się następnie z dwiema innymi, będzie znana jako IBM.

1897 - Karl Braun wynajduje lampę katodową.

1900 - Kryształek, Amerykanin Reginald Fessenden jako pierwszy przesłał głos drogą radiową.

1901 - Marconi nadał pierwsze sygnały radiowe poprzez Ocean Atlantycki.

1904 - John Ambrose Fleming, elektrotechnik i radiotechnik angielski wynajduje diodę.

1907 - Charles Krumm przedstawił prototyp dalekopisu.

1911 - Heike Kamerlingh - Onnes, fizyk holenderski, odkrywa zjawisko nadprzewodnictwa.

1918 - Dwóch wynalazców buduje maszynę liczącą wykorzystującą liczby w postaci zerojedynkowej.

1919 - Eccles i Jordan, Amerykańscy fizycy wymyślają przekaźnik.

1920-1921 - Czechosłowacki pisarz - Karel Capek używa słowa "robot".

1924 - T.J. Watson zmienia nazwę firmy Tabulating Machine Company na IBM.

1927 - Twarz Herberta Hoovera pokazuje się podczas pierwszej, czarnobiałej transmisji telewizyjnej w USA.

1929 - Powstają pierwsze kolorowe telewizory.

1936 - Angielski matematyk Alan Turing wystąpił z tezą, że wszystkie rozwiązywalne problemy mogą być rozwiązywane metodą algorytmiczną. Jego prace wywarły niezaprzeczalny wpływ na późniejszy rozwój komputerów.

1937 - Inżynier George Stibitz z Bell Telephone Laboratories w New Jersey zbudował pierwszą binarną maszynę sumującą nazwaną Model K. Do jej skonstruowania użył przekaźników telefonicznych.

1937 - John Vincent Attanasoff rozpoczyna prace nad pierwszym elektronicznym komputerem cyfrowym, jednak nie występuje o patent. Prawie dziesięć lat później komputer ENIAC zostanie zbudowany na podstawie jego pionierskich dokonań. George Stibitz tworzy w Laboratoriach Bella pierwszy cyfrowy obwód. Alan Turing tworzy maszynę Turinga z nieskończenie długą taśmą (twór czysto teoretyczny), która realizuje zadania logiczne.

1938 - Niemiec Konrad Zuse w warunkach domowych skonstruował Z1, pierwszą binarną maszynę liczącą. W późniejszym okresie logika binarna stała się podstawą działania komputerów elektronicznych.

1938 - William Hewlett i David Packard zakładają firmę Hewlett-Packard w garażu w Palo Alto, w Kaliforni.

1939 - Georges Stibitz i Samuel Williams budują Complex Number Computer, który zawiera czterysta przekaźników telefonicznych i jest podłączony do trzech dalekopisów, prekursorów nowoczesnych terminali.

1941 - Konrad Zuse, anglik, wykonuje Z3, pierwszy w pełni programowalny kalkulator.

1942 - John Atanasoff i Clifford Berry ukończyli budowę jednej z pierwszych elektronicznych maszyn liczących nazwanej ABC (Atanasoff-Berry Calculator). W roku 1973 sąd amerykański uznał, że ich maszyna miała wystarczająco dużo cech komputera, aby unieważnić patenty jakimi objęty był ENIAC, uważany powszechnie za pierwszy elektroniczny komputer.

1943 - 31 maja w Moore School of Electrical Engineering w Filadelfi powstaje ENIAC (Electronic Numerical Interpreter And Calculator), konstruowany przez J.P. Eckerta i J.W. Mauchly'ego na Uniwersytecie Pensylwanii, dla potrzeb obliczeń balistycznych Marynarki Wojennej USA. W Bletchley Park w Anglii skonstruowano elektroniczny komputer o nazwie Colossus, który miał ułatwić łamanie szyfrów wojennych. Fakt ten utrzymywano w tajemnicy przez następne 32 lata.

1944 - Inżynierowie z Harvardu budują komputer Mark I, ale wkrótce ulega on uszkodzeniu. Amerykanie John Von Neumann i Oscar Morgenstern opracowali teorię gier.

1945 - J. Presper Eckert i John Mauchly budują komputer EDVAC (Electronic Discrete Variable Automatic Computer).

1946 (14 lutego) - USA po trzech latach pracy na Uniwersytecie Pensylwania J.P. Eckert i J.W. Mauchly uruchamiaja pierwszą maszynę liczacą wykorzystującą lampy elektronowe - była to pierwsza maszyna pierwszej generacji. Jest to słynny ENIAC, Elektroniczny, Numeryczny, Integrator, Analizator i Komputer. zajmujący powierzchnie 15x10m, pobierąjacy energię 174 kW. W jego niezwykle pradożernym wnętrzu kryje się 17468 lamp elektronowych, 1500 przekaźników, 70 000 oporników i 10 000 kondensatorów. Liczby przedstawione były w kodzie dziesiętnym, do 10 cyfr. Szybkość pracy była już znacznie większa od maszyn zerowej generacji - przy częstotliwości zegarowej 100 kHz czas dodawania wynosił 0,2 ms, mnożenie trwało 2,8 ms. ENIAC nie mógł zbyt długo pracować bez przerwy - przeszkoda była bardzo duża moc potrzebna na ogrzanie lamp. Okazało się jednak, że niezawodność tego energochłonnego kolosa była niezła - na tydzień wymieniano 2-3 lampy! W ENIACu nie zastosowano żadnych nowych metod obliczeniowych, działania wykonywane były równolegle, na cyfrach dziesiętnych.

Pierwszy tranzystor1947 - 23 grudnia pracownicy Bell Telephone Laboratories, William Bradford Shockley, J. Bardeenem i W.H. Brattainem tworzą tranzystor, za co otrzymują Nagrodę Nobla w 1956 r. Powstają pierwsze magnetyczne nośniki danych. Są to sporej wielkości bębny magnetyczne.


1948 - Ten rok obfitował w wiele komputerowych nowości. John von Neumann proponuje architekturę komputerów stosowana praktycznie do dnia dzisiejszego. Polega ona na umieszczeniu programu i danych w jednej pamięci jako identycznie reprezentowanych struktur. Na rynek komputerowy wchodzi IBM z maszyną SSEC(12 500 lamp), a nieco póżniej Model 604 (1 400 lamp). Richard Hamming opracowywuje sposób wykrywania błędów w programach.

1949 - Short Order Code, wymyślony przez Johna Mauchly, jest pierwszym językiem programowania wysokiego poziomu.

1951 - John Mauchly i John Eckert budują UNIVAC I, pierwszy komercyjny komputer, zainstalowany w amerykańskiej instytucji zajmującej się spisami ludności. Grace Murray Hopper wynajduje translator AO, zamieniający kod programu w kod binarny (ASM -> OBJ). (5 600 lamp), pierwszy komputer produkowany seryjnie. W marcu powstaje komputer Univac I, który wykorzystywany jest do obliczeń podczas spisiu ludności.

1952 - Wbrew panującym opiniom UNIVAC I przewiduje w wyborach prezydenckich przygniatające zwycięstwo prezydenta Dwighta Eisenhowera nad Adlaiem Stevensonem.

1953 - IBM produkuje komputer o nazwie 650, pierwszy wytwarzany masowo. Do czasu wycofania z rynku w 1969 roku sprzedano 1,5 tysiąca sztuk. W 1953 r Powstaje pamięć oparta na rdzeniach ferrytowych, IBM opracował pierwszy komputer "dla ludzi" - IBM 701. To nie oznaczało, że tak jak to jest teraz, można było samemu siąść i uruchomić go. Była to (były) maszyny zajmujące kilka pokoi, z własnym źródłem zasilania, klimatyzacją. Do tych pokoi wchodzili jedynie wtajemniczeni ubrani w białe kitle, czapeczki i specjalne buty, a "zwykły" użytkownik pokornie stał pod drzwiami. Czasami po kilka dni. Programowanie takich mastodontów polegało na: napisaniu programu najpierw na zwykłej kartce a potem na specjalnie kratkowanym formularzu; oddaniu go pani maszynistce, która przepisywała go na specjalne karty perforowane lub na taśmę perforowaną (karty perforowane wynaleziono już w 1890 roku przy okazji spisu powszechnego w USA); plik takich kart perforowanych mógł liczyć sobie nawet ponad tysiąc sztuk; można sobie wyobrazić rozpacz operatora po upuszczeniu go na podłogę; operator maszyny wkładał kartki do maszyny, ta obrabiała program i biedny użytkownik mógł (np. po dwu dniach) dowiedzieć się, że opuścił przecinek lub pani maszynistka zamiast średnika postawiła dwukropek; użytkownik robił poprawkę, oddawał maszynistce i .... aż do skutku. O sposobie działania komputerów czyli o Systemie Operacyjnym wiedzieli tylko wtajemniczeni i zazdrośnie strzegli tajemnicy. Koszty takiej komputeryzacji były wysokie, nawet gdy wykonywano działania rutynowe, "pompując dane" do gotowych programów np. finansowych. Innym istotnym elementem był fakt, że komputery były zgrupowane w ośrodkach obliczeniowych (po polsku ZETO). Dając do opracowania np. wyniki finansowe - klient był narażony na potencjalną możliwość ujawnienia ich konkurencji. Szybkie dokonanie zmian w programach lub działania (gry) symulacyjne, były wręcz niemożliwe. Kolejki do pracujących całą dobę maszyn były często kilkudniowe a czas niewielu programistów był cenny. Tak więc wówczas - prawie do połowy lat 70 - komputery były nieprzyjazne i denerwujące dla osób spoza kręgu kapłanów i ministrantów sztuki komputerowej. Były jednak coraz szerzej stosowane, pomimo niewygód i ceny (!!), bowiem nie chodziły na urlop, nie piły kawy a przede wszystkim - finanase! - myliły się zdecydowanie rzadziej niż ludzie - zwłaszcza w żmudnych dodawankach ekonomicznych i przy powtarzających się obliczeniach. Raz opracowany i przetestowany program w zasadzie był bezbłędny - o ile nie dokonywano zmian i w sieci był prąd.

1954 - Powstaje pierwsza drukarka, Uniprinter, opracowana przez Earla Mastersona. Drukuje 600 lini na minutę. Texas Instruments przedstawia tranzystor krzemowy, który jest tańszy w produkcji od germanowego. John Backus z IBM wymyśla język programowania Fortran (formula translator), przeznaczony do obliczeń matematycznych.

1955 - Narinder Kapany wynajduje włókno optyczne. Linie lotnicze American Arlines instalują utworzoną przez IBM pierwszą dużą sieć baz danych, łączącą 1,2 tysiąca dalekopisów. Bell Telephone Labs produkuje pierwszy komputer oparty na tranzystorach.

1956 - IBM opracowuje pierwszy twardy dysk, nazywany RAMAC. Programiści IBM tworzą język programowania FORTRAN. MANIAC I jest pierwszym komputerowym programem, który pokonał człowieka w grze w szachy. Powstaje IBM 305

1958 - Bell Telephone prezentuje pierwsze modemy. Naukowcy z Laboratorium Bella wynajdują laser. J.Kolby opracowuje dla Texas Instruments pierwszy układ scalony.

1959 - Korzystając z liczydeł, chiński profesor Lee Kaichen wykonuje obliczenia szybciej od komputera w Seattle, Nowym Yorku i Taipei. Grace Murray Hopper i Charles Phillips tworzą COBOL. John McCarthy i Marvin Minsky zakładają Laboratorium Sztucznej Inteligencji (Artificial Intelligence Lab) na MIT. Xerox wprowadza na rynek pierwszą komercyjną kopiarkę.

1960 - Powstaje język programowania Algol 60. W listopadzie firma DEC(Digital Equipment Corporation) przedstawia PDP-1, pierwszy komputer wyposażony w monitor i klawiaturę.

1961 - John Kelly w Labratoriach Bella programuje komputer, by "zaśpiewał" piosenkę "Daisy Bell (Bicyccle Bulit for Two)". Texas Instruments produkuje na potrzeby armii pierwszy komputer oparty na układach scalonych z pamięcią półprzewodnikową. Fernando Corbato z Uniwersytetu MIT wykorzystuje podział czasu procesora umożliwiając pracę na nim jednocześnie kilku użytkownikom.

1962 - 10 lipca wystrzelony zostaje satelita telekomunikacyjny Telstar, który umożliwia przekazy telewizyjne poprzez Atlantyk. Na Uniwersytecie Stanford and Purdue powstaje specjalizacja - informatyka. Opracowana zostaje pierwsza gra video.

7 bitowy kod ASCII

1963 - Douglas Engelbart opracowuje mysz w Stanford Research Institute. Dwadzieścia lat później Macintosh będzie ją wykorzystywał jako standardowy komponent. Rozpoczęto seryjne wytwarzanie komputera Odra 1003. Powstaje program Eliza, który wykazuje pewne przejawy inteligencji. Potrafi prowadzić proste rozmowy z człowiekiem. Na uniwersytecie Kalifornijskim rozpoczynają się prace nad logiką rozmytą (fuzzy logic), która ma pomóc w stworzeniu komputera myślącego. Zatwierdzony zostaje 7-bitowy kod ASCII.



1964 - Firma Zenith tworzy pierwszy komercyjny produkt wykorzystujący układ scalony - przyrząd pomagający słyszeć. American Standard Association decyduje, że kod ASCII będzie standardem transferu danych. Gordon Moore sugeruje, że poziom integracji systemów komputerowych (wydajności procesorów) podwaja się corocznie. Dzisiaj stwierdzenie to znane jest jako prawo Moora.

1965 - Digital Equipment Corporation buduje pierwszy minikomputer, który kosztuje 18 000 dolarów. Zostaje stworzony uproszczony język programowania BASIC, który stanie się standardowym językiem programowania PC.

1966 - świętowano pierwszą setkę maszyn cyfrowych z wrocławskiej fabryki.

1967 - Texas Instruments produkuje na potrzeby armii pierwszy komputer oparty na układach scalonych z pamięcią półprzewodnikową. Ole-Johan Dahl i Kristen Nygaard z Norwegian Computing Centre opracowują język Simula, który jest pierwszym obiektowo zorientowanym językiem programowania.

1968 - Po raz pierwszy komputer (HAL 9000) bierze udział w filmie. Jest to 2001: Odyseja kosmiczna Stanleya Kubricka. "Śpiewa" piosenkę "Daisy Bell (Bicyccle Bulit for Two)", którą komputer Johna Kelly "zaśpiewał" siedem lat wcześniej. D.Engelbart prezentuje NLS używający jako użądzenie wskazujące mysz. Edsger Dijkstra przekonuje, że instrukcja GOTO może być szkodliwa i nie powinno się jej stosować. 18 lipca Robert Noyce, Andy Grove i Gordon Moore zakładają firmę Intel. Jako standard przyjmuje się zapis daty w postaci sześciu cyfr (YYMMDD - rok - miesiąc - dzień) przy wymianie informacji. Cóż, był to ewidentny błąd, który spowodował po latach powstanie problemu roku 2000. Firma Rand przedstawiła dla ARPA projekt zdecentralizowania sieci informatycznych.

1969 - Ustalony zostaje standard RS-232-C umożliwiający wymianę danych pomiędzy komputerami i urządzeniami zewnętrznymi. Departament Obrony USA zleca utworzenie sieci Arpanet, która połączyła uniwersytety UCLA, UC w Santa Barbara, SRI i University of Utah.

1970 - SRI International opracowuje pierwszego robota ze sztuczną inteligencją do nawigacji. Dennis Ritchie i Kenneth Thomson opracowują system operacyjny Unix w firmie Bell Labs.

Intel 40041971 - Niklaus Wirth opracowuje język programowania Pascal. Ted Hoff, S. Mazor i F. Fagin opracowują 4-bitowy, pierwszy mikroprocesor Intel 4004 (108 Khz). Jego cena wynosiła 200 USD. Wykonywał 60 tys. operacji na sekundę. Składał się z 2300 tranzystorów. Ray Tomlinson z firmy Bolt Beranek and and Newman wysyła pierwszy e- mail.


1972 - Dennis Ritchie opracowuje język programowania C w firmie Bell Labs. Powstaje procesor Intel 8008 (200 Khz), pierwszy 8 bitowy układ, zastąpiony niebawem przez Intel 8080. Powstaje dyskietka 5 1/2 cala. Język Smalltalk opracowany zostaje w Xerox PARC?s Learning Research Group. Jego autorem jest Alan Kay. Alain Colmerauer z University of Marseille opracowuje język programowania Prolog. Steve Wozniak buduje "blue box" - generator częstotliwości 2600 hz, który oszukuje miejskie aparaty telefoniczne. Dzięki temu może rozmawiać za darmo z całym światem.

1973 - Naukowcy z Xerox PARC opracowują eksperymentalny komputer PC. Używa on myszy, sieci Ethernet i GUI. Alan Kay opracowywuje własną wersję domowego komputera PC. Bazuje on na języku Smalltalk, używa ikon i grafiki. Gary Kildall pisze prosty system operacyjny w języku PL/M. Nazywa go CP/M (Control Program/Monitor). Rozpoczynają się prace nad protokołem TCP (Transmission Control Protocol) w laboratorium Stanford University. Prace nadzoruje Vinton Cerf. Scelbi Computer Consulting Company oferuje pierwszy zestaw komputerowy do samodzielnego złożenia, oparty o procesor Intel 8008. Cena zestawu z 1 kB pamięci wynosi 565 USD, dodatkowe 15 KB kosztuje 2760 USD! Powstają procesory w dużej skali integracji. W 1 cm kwadratowym mieści się 10 tys. komponentów (m.in. tranzystorów). Protokół Ethernet i FTP

1974 - W kwietniu powstaje 8 bitowy procesor 8080 (2 Mhz). Składa się z 6 tys. tranzystorów. W artykule na łamach Radio Electronics ukazuje się opis, w jaki sposób zbudować własny komputer - Mark-8. Charles Simonyi z Xexoc PARC pisze pierwszą aplikację WYSIWYG, która nazywa się Bravo. Protokół TCP

1975 - IBM przedstawia drukarkę laserową. Powstaje pierwszy PC - Altair 8800. W kwietniu Bill Gates i Paul Allen zakładają firmę Micro-Soft. Potem nazwa została zamieniona na "Microsoft", oraz opracowują BASIC dla ALTAIR 8800 We wrześniu wychodzi pierwszy numer magazynu Byte.

1976 - IBM opracowuje drukarkę atramentową. (lipiec) - Steve Jobs i Steve Wozniak budują komputer Apple I. Gary Kildall pisze system operacyjny CP/M działający na 8-bitowych komputerach z procesorem Intel 8080. W marcu Intel przedstawia procesor 8085 (5-MHz), w którym znajduje się 6,5 tys. tranzystorów. W kwietniu Steve Jobs i Steve Wozniak zakładają firmę Apple Computer. W lipcu Zilog wypuszcza 8-bitowy procesor Z80 (2,5 MHz).

TSR-801977 - W kwietniu Commodore Business Machines prezentuje komputer PET 2001 z procesorem 6502, 4KB RAM, 14KB ROM, klawiatura, monitorem i magnetofonem. W sierpniu firma Radio Shack, oddział firmy Tandy wypuszcza mikrokomputer TRS-80 z procesorem Z80, 4KB RAM, 4KB ROM, klawiaturą, czarnobiałym monitorem i magnetofonem jako pamięcią zewnętrzną. Język Fortran, standard ASCII, Apple II (kwiecień)

1978 - Powstaje Wordstar, pierwszy procesor tekstu opracowany na komputery działające pod systemem operacyjnym CP/M, potem także pod DOSem. W czerwcu Intel przedstawia pierwszy 16-bitowy procesor - 8086 (4,77 Mhz). Składał się z 29 tys. tranzystorów, oraz zewnętrznie okrojony do 8 bitót 8088 Apple wypuszcza stacje dysków do Apple II Ron Rivest, Adi Shamir i Leonard Adelman opracowują standard szyfrowania danych RSA z kluczem publicznym. W grudniu firma Atari wypuściła komputery Atari 400 i 800 z procesorem 6502.

Don Bricklin i Bob Franston1979 - 11 maja Don Bricklin i Bob Franston piszą pierwszy arkusz kalkulacyjny VisiCalc, dzięki niemu wzrasta zainteresowanie komputerami. We wrześniu Motorola przedstawia procesor 68000, który składał się z 68 tys. tranzystorów (stąd jego nazwa). Basic dla 8086



1980 - Urodził się autor tej strony. APPLE tworzy APPLE III; Na rynek wchodzi firma ATARI z modelami 400 i 800 ze specjalizowanym ukladem dzwiękowym POKEY oraz nowoczesną 256 kolorową grafiką, dysk twardy Seagate. Powstaje język programowania Ada. Wayne Ratliff pisze dBase II, pierwszą wersję bazy danych na komputery PC. IBM wybiera PC-DOS Microsoftu, jako swój system operacyjny stosowany w komputerach PC. W lutym Sinclair Research przedstawia komputer ZX80, wykorzystujący 8-bitowy procesor NEC 3,25 Mhz i mający 1 Mb RAM oraz 4KB ROM. W czerwcu Seagate Technologies prezentuje dysk Winchester 5,25 cala. Używa on czterech talerzy i ma 5 MB pojemności. Kosztuje 600 USD.

1981 - Jest to rok prawdziwej rewolucji: SIR CLIVE SINCLAIR wypuszcza ZX81 natomiast IBM prezentuje pierwszy komputer z serii IBM PC z systemem MS DOS 1.0; COMMODORE wprowadza model VIC-20; w Wielkiej Brytani powstaje BBC MICRO przewyższający szybkością pracy najnowsze IBM PC. IBM zastosował prosty chwyt - opublikował dokumentację komputera PC. Stworzyło to natychmiast szereg standardów i spowodowało "klonowanie" komputera. System operacyjny napisany został przez Microsoft, dzięki temu Micresoft stał się potęgą softwar'u.

1982 - APPLE konstruuje prototyp MACINTOSHA dla którego MICROSOFT tworzy system graficzny; pojawia się SIRIUS 1 - pierwszy poważny konkurent IBM PC oraz DEC RAINBOW; SINCLAIR wypuszcza ZX SPECTRUM który szybko zdobywa sobie ogromną popularność jako komputer domowy, arkysz kalkulacyjny Multiplan, Columbia Data Products produkuje pierwsze "klony" komputerów IBM PC. Niedługo potem Compaq również zaczyna produkować takie komputery. John Warnock opracowuje w firmie Adobe język PostScript. W marcu Intel prezentuje 16-bitowy procesor 80286 (6 Mhz). Zawiera on 134 tys. tranzystorów.

1983 - APPLE sprzedaje pierwszy komputer z graficznym interfejsem użytkownika (GUI) APPLE LISA; COMMODORE prezentuje C-64 przeznacony do domowych zastosowań ,głównie do gier ze względu na bardzo dobrą grafikę i dźwięk, arkusz Lotus 1-2-3, edytor MS Word 1.0,(listopad) premiera Windows 1.0. W maju Microsoft przedstawia pierwszą mysz nazwaną "The Microsoft Mouse", kosztuje ona 200 USD.

1984 - Apple wprowadza na rynek komputery Macintosh. Budowane są modemy o prędkości 2400 baudów. Hewlett-Packard reklamuje pierwszą osobistą drukarką laserową LaserJet, a pisarz William Gibson tworzy termin "cyberprzestrzeń". SINCLAIR wypuszcza model QL; ZX SPECTRUM i C-64 przybywa konkurent AMSTRAD CPC-464, drukarka HP LaserJet, karta graficzna EGA, MS/PC-DOS 3.0 Powstaje interface MIDI (Musical Instrument Digital Interface) standard służący do wymiany informacji pomiędzy komputerami i urządzeniami muzycznymi. Sony przedstawia CD-ROM.

1985 - Zostaje założona America Online. Microsoft tworzy system Windows 1.0 dla IBM PC. Bill Gates z Microstoftu i John Sculley z Apple podpisują tajne uzgodnienie, dające Microsoftowi prawo do wykorzystywania elementów graficznego interfejsu użytkownika w swoim oprogramowaniu, potwierdzając jednocześnie, że system Mac OS stanowił inspirację przy tworzeniu systemu Windows. W Stanach Zjednoczonych pojawia się Nintendo. ATARI wypuszcza model 520ST; COMMODORE wychodzi z zastępcą popularnego C-64 - modelem C-128, oraz z niezwykle zaawansowanym graficznie modelem AMIGA 1000 będącym poważnym konkurentem ATARI ST oraz IBM PC; AMSTRAD pokazuje maszyny CPC 664 oraz CPC 6128; MICROSOFT wypuszcza pracujący na PC system MS WINDOWS 1,0(listopad), (marzec) język PostScript, Page Maker 1.0, Apple LaserWritter z PostScriptem, (pażdziernik) procesor 386 DX, Nowel NetWare

1986 - Microsof wchodzi na giełdę. National Science Foundation zgadza się na utworzenie szkieletu Internetu. Pojawia się pierwszy komputer przenośny z ekranem ciekłokrystalicznym; ATARI wypuszcza model 1040ST a APPLE model MAC PLUS w którym po raz pierwszy zastosowano interfejs SCSI, SGML (Standarized Generalized Markup Langue) standardem ISO, IBM PS/2, karta VGA

1987 - SINCLAIR prezentuje pierwszego palmtopa CAMBRIDGE COMPUTER Z88; APPLE wprowadza modele MAC SE oraz MAC II przeznaczone do celów DTP; pojawia się AMIGA 2000; ATARI wypuszcza MEGA ST i 65XE; pojawia się nowy superkomputer ACORN ARCHIMEDES oparty na procesorze RISC, Poltype - polskie systemy składu na PC/XT (maj), Excel dla Windows (pażdziernik) Windows 2.03 (listopad)

1988 - Microsoft prezentuje system Windows 2.03, którego okna przypominają okna Maca. Sześć lat później w sprawie kosztującej około 10 milionów dolarów sąd rozstrzyga na korzyść Microsoftu. Steve Jobs prezentuje NeXT. W Internecie pojawia się samoreplikujący się program-wirus, Internet Worm. Steve Jobs prezentuje superkomputer NeXT; AMSTRAD wychodzi z modelem AMSTRAD 2000 z kartą graficzną PARADISE VGA; pojawia się ATARI ABAQ z 24-bitową grafiką; INTEL zaczyna sprzedaż taniego 80386SX(czerwiec), OS/2 1.1 (pażdziernik), opracowanie złącza EISA

Motorola 680401989 - Motorola wypuszcza procesor 68040 skladający sie z 1,2 miliona tranzystorów. Tim Berners Lee tworzy Sieć - World Wide Web. Xerox wytacza sprawę Apple'owi o kradzież projektu graficznego interfejsu dla komputerów Lisa i Macintosh. Po sprzedaży około 60 tysięcy komputerów Lisa Apple zaprzestaje produkcji i pali pozostałe egzemplarze w Utah. W Japonii pojawia się telewizja HDTV. APPLE wprowadza nowe modele: MACINTOSH IIC i SE/30 oparte na procesorze MOTOROLA 68030 oraz laptopa APPLE PORTOABLE ; pojawia się nowy układ 80486 DX(czerwiec); ATARI wprowadza rewelacyjnego palmtopa PORTFOLIO, Corel Draw 1.0 (wrzesień), Auto CAD 9 po polsku (listopad)


1990 - IBM wypuszcza tanią stacje roboczą RS/6000; COMMODORE prezentuje komputer AMIGA 3000; APPLE wypuszcza na rynek model MAC IIFX; pojawiają się pierwsze karty PCMCIA, Windows 3.0 (maj), karta graficzna XGA Intel wprowadza procesor i486. U.S. Federal Trad Commission rozpoczyna śledztwo w sprawie Microsoftu. Wartość sprzedaż produktów Microsoftu sięga miliarda dolarów. Windows pojawia się w wersji 3.0.

1991 - Powstaje przenośny APPLE POWERBOOK; INTEL sprzedaje tani procesor 486SX, Visual Basic (maj)

1992 - Procesor 486 DX2 (marzec), Procesor MIPS 4000 (marzec), Powstanie specyfikacji HTML (kwiecień), Windows 3.1, Tim Berners-Lee opracowuje standard HTTP co powoduje narodziny WWW; ATARI wypuszcza doskonałego FALCON'a; COMMODORE w odpowiedzi prezentuje bardzo popularne do dzisiejszego dnia modele AMIGA 1200 oraz AMIGA 4000; APPLE wprowadza wydajne komputery z serii QUADRA; INTEL INTELOWI przybywa konkurencja w postaci firm AMD i CYRIX

1993 - Wprowadzone zostają komputery PDA typu handheld. Itel wprowadza procesor Pentium. Mark Andreessen i Eric Bina projektują Mosaic, pierwszą graficzną przeglądarkę internetową. Zaprezentowany zostaje komputer Apple Newton. Procesor Alpha (styczeń), Procesor 486 DX4 (luty), polski Windows 3.0 (marzec) procesor PowerPC (kwiecień), Windows NT (maj), MOSAIC - poprzednik Netscape Navigator-a (czerwiec), Windows 3.11 for Workgrups (pażdziernik). Pojawia się długo oczekiwany PENTIUM oraz wersja alfa WINDOWS 95

1994 - W Stanach Zjednoczonych dostępny jest już system nawigacji satelitarnej GPS. Intel sprzedaje 2 miliony wadliwych procesorów Pentium. Iomega prezentuje napęd Zip, a Marc Andreessen pomaga założyć firmę Netscape. ustawa o prawach autorskich (luty). W Londynie otwarto Cyberię, pierwszą kawiarnię, w której oprócz kawy oferowano również dostęp do Internetu.

1995 - Delphi (kwiecień), Netscape Navigator (maj), język Java (czerwiec), Windows 95 (sierpień) procesor Pentium Pro (listopad) Pojawiają się monitory z płaskim ekranem. Microsoft prezentuje system Windows 95. Pixar Animation Studios i Disney prezentują wytworzony przez komputer pełnoekranowy film - "Toy Story". Microsoft wprowadza pakiet Office 95. Następuje standaryzacja technologii DVD. Jeffrey Bezos zakłada firmę Amazon.com, a Netscape wchodzi na giełdę.

1996 - procesorHP PA-RISC 8000 (czerwiec), DVD-ROM (lipiec), Windows 95 OEM SR2 (sierpień), Windows NT 4.0 Server i Workstation (wrzesień), procesor Pentium MMX (pażdziernik). Powstają pierwsze naprawdę konkurencyjne dla PENTIUM procesory CYRIX MII oraz AMD K6. Urządzenia zewnętrzne pozwalają surfować w Internecie przy wykorzystaniu telewizora. Debiutuje Palm Pilot.

1997 - Windows NT 4.0 Workstation po polsku (styczeń), Windows Ce dla palmtopów (luty) Pentium II (maj), AutoCAD 14 (maj), IBM DEEP BLUE wygrywa w szachy z Gari Kasparowem (maj), Delphi 3 (czerwiec). Wychodzi PENTIUM II W Stanach Zjednoczonych dostępne są już pierwsze odtwarzacze DVD.

1998 - Powstaje tania alternatywa PENTIUM II CELERON; pojawiają się konkurencyjne AMD K6-2 oraz AMD K6-III 3DNow! Firma Diamond Multimedia wprowadza pierwszy odtwarzacz MP3. Raport Starra zostaje opublikowany w Internecie w ciągu kilku godzin. Grupa hackerów Hacking for Girls włamuje się do sieci "New York Timesa" i blokuje ją na dziewięć godzin. Apple wprowadza komputery w cukierkowych kolorach - iMac. Coraz powszechniejszy staje się handel w Internecie. Zakupów dokonuje około 30 milionów użytkowników. Clarion i Microsoft prezentują Auto PC. Niebotycznie wzrastają ceny akcji serwisów Yahoo i Infoseek. Rozegrano pierwszy turniej ligi zawodowych graczy komputerowych.

1999 - Kolejny krok w dążeniu do maksymalnej wydajności to INTEL PENTIUM III i AMD ATHLON. Nadchodzą czasy Linuksa. AOL przejmuje Netscape'a. Microsoft zatrudnia 27 320 pracowników i osiąga zysk 14,48 miliarda dolarów. Na skutek awarii handel elektroniczny (E-Trade) zostaje wstrzymany na trzy dni z rzędu.

2000 - układ AMD K6-III; kolejny krok w dążeniu do maksymalnej wydajności to INTEL PENTIUM III i AMD ATHLON. Nadchodzą czasy Linuksa. AOL przejmuje Netscape'a. Microsoft zatrudnia 27 320 pracowników i osiąga zysk 14,48 miliarda dolarów. Na skutek awarii handel elektroniczny (E-Trade) zostaje wstrzymany na trzy dni z rzędu, Pojawia się VOODOO 3, TNT 2, GeForce 256 i VOODOO 5 5500, Windows 2000 (kontynuator lini NT flagowy system Microsoftu, Windows ME - ostatni system z linii Windows oparty na Jądrze Dosowym.

2001 - GeForce 3, Pentium III w technologii 0.13 mikrona, od 1.26 GHz. Pentium 4 powyżej 2 GHz i 400MHz FSB + i850 chipset Celerony i Athlony AMD powyżej 1 GHz, Nagrywarki DVD-ROM i DVD-RW pojawiają się na rynku.

2002 - Pentium 4 powyżej 3 GHz i 800MHz FSB Technologia 0.09 microna, notebooki z P4 powyżej 2GHz

2003 - Pentium Centrino do notebooków, szybkie procesory oszczędzające energię, z bezprzewodową łącznością w standardzie WiFi (811b), 64-bitowe procesory AMD Opteron, oraz Itanium-2 Intela do serwerów, oraz AMD Athlon64 FX and Intel's Pentium 4 Extreme Edition do PC, Pojedyncze dyski większe od 200 GB

2004 - Standard kina domowego WMV Microsoft, wymaga 3GHz, 512 MB RAM i ekranu 1920 x 1440, 64-bitowe procesory AMD i Intela do PC, Technologia 90 nanometrów w procesorach Intela 4 E i AMD.
Dodaj rozwiązanie
AEGEE - Logo
...