historia da informatica_i
DESCRIPTION
HISTORIA DA INFORMATICATRANSCRIPT
CENTRO DE ENSINO TÉCNICO DA UNINORTE
Curso: Técnico em Computação Gráfica
Disciplina: Informática Aplicada
Professor: Roberto Anderson Oliveira Duarte.
HISTÓRIA DA INFORMÁTICA
Aparentemente, o homem primitivo não necessitava contar, pois retirava da natureza o que
necessitava para a sobrevivência. Os números e o processo de contagem devem ter sido inventados
com o desenvolvimento de atividades como a agricultura e o pastoreio, quando o homem deixou
de ser nômade, passando a fixar-se.
A partir do momento em que o homem pré-histórico passou a construir abrigos e a habitar
aldeias, começou a produzir alimentos e domesticar animais. Então, foi preciso delimitar as épocas
de plantio e colheita, ou seja, era necessário ter um método de contagem do tempo e dos alimentos
e também contar para conseguir controlar a posse de animais, no pastoreio.
Portanto, foi necessário estabelecer a sequência dos números e a maneira de representá-
la, originando o sistema decimal e os termos digito e digital. É fácil de imaginar que o processo de
contagem pode ter começado com a correspondência unidade a unidade, em que, por exemplo,
cada animal corresponderia, a uma pedrinha que era armazenada num recipiente. Aliás, a palavra
cálculo, que usamos hoje, é derivada da palavra latina “calculus”, que significa pedrinha.
Civilizações como a egípcia e a babilónica, no início da história da escrita, anotavam os
primeiros nove números inteiros pela repetição de traços verticais:
I II III IIII IIIII IIIIII IIIIIII IIIIIIII IIIIIIIII
1 2 3 4 5 6 7 8 9
Quando chegavam a 10, trocavam as dez marcas por um símbolo semelhante a Ŋ, e
continuavam até o 19:
10 Ŋ 15 ŊIIIII
11 ŊI 16 ŊIIIIII
12 ŊII 17 ŊIIIIIII
13 ŊIII 18 ŊIIIIIIII
14 ŊIIII 19 ŊIIIIIIIII
O 20 era representado por Ŋ Ŋ Ŋ Ŋ.
30: Ŋ Ŋ Ŋ; 40: Ŋ Ŋ Ŋ Ŋ… 90: Ŋ Ŋ Ŋ Ŋ Ŋ Ŋ Ŋ Ŋ Ŋ.
Para registar 100, adoptaram um novo símbolo: ּפ
Com a sua repetição, continuavam a representar os números e, para registar 1000,
substituíam dez marcas de 100 por outro símbolo: Ħ, implicando um uso enorme de símbolos para
números com muitos dígitos. Havia também símbolos diferentes para os números 10.000, 100.000
e 1.000.000. Ou seja, como não havia o conceito e a representação do número zero, a cada
multiplicação por 10 havia necessidade de um símbolo novo. Por volta do ano 1500 a.C., surgia o
Ábaco, o primeiro instrumento capaz de calcular com precisão e rapidez.
Este calculador decimal que se opera manualmente e que consiste, geralmente, numa
moldura retangular com cordas ou arames transversais, correspondentes a uma posição digital
(unidades, dezenas, centenas…) nos quais ficam os elementos de contagem (bolas, contas, fichas…)
que podem ser deslizados livremente. De acordo com o número de elementos, há um valor
representado.
O ábaco russo era o mais simples: continha 10 contas. Bastava contá-las para obter as suas
quantidades numéricas. O ábaco chinês exibia 2 conjuntos de contas por fio, contendo 5 contas no
conjunto das unidades e 2 contas que representavam 5 unidades. No Japão, este calculador decimal
que se opera manualmente, é chamado de soroban e na china de suánpan, que significa bandeja de
calcular. O ábaco mostrou-se tão eficiente e simples de usar que nada melhor que ele surgiu até ao
século XVII.
Por volta do século XVII, intelectuais de todo mundo empenharam-se em desenvolver
sistemas mais complexos e eficientes de calcular. Um dos métodos mais eficazes descobertos na
época foi criado pelo escocês John Napier, que introduziu na comunidade cientifica o cálculo
logarítmico em 1614. A própria palavra logaritmo foi escrita pela primeira vês por Napier a partir do
grego “logos” (que significa razão) e “aritmos” (que quer dizer números). A junção das duas, em
português, seria algo como “razão dos números”. Os cálculos e tabelas criadas por Napier após
exaustivas horas de cálculo foram usados por William Oughtred por volta de 1620 para desenvolver
a régua de cálculo.
Em 1642, o cientista francês Blaise Pascal construiu a primeira calculadora mecânica capaz
de somar ou diminuir números rapidamente. A Pascalina, como foi apelidada, foi criada quando
Pascal tinha apenas dezoito anos.
O modelo desenvolvido pelo jovem inventor consistia numa caixa contendo rodas dentadas
e engrenagens, que conforme se encaixavam, produziam os cálculos visados. O operador girava as
rodas dentadas de modo que os números a serem somados ficassem expostos no mostrador. Cada
casa decimal era representada por uma roda diferente, isto é, uma era a unidade, outra a dezena, a
seguinte a centena e assim por diante. Comercialmente, a Pascalina foi um fracasso pois não
foram produzidas mais de cinquenta unidades e o seu preço era excessivamente alto.
A maquina da Pascal era boa, mas as operações mais complicadas e trabalhosas
(multiplicação e divisão) ficavam de fora do seu círculo operacional. Como uma evolução da
Pascalina, o alemão Gottfried von Leibnitz, na ânsia de agilizar os intermináveis cálculos
astronómicos (conhecidos por ele durante uma visita, em paris, ao astrónomo Christian Huygens),
se empenhou em aperfeiçoar o modelo de Pascal. No ano seguinte a visita, Leibnitz finalizava a sua
calculadora mecânica capaz de fazer facilmente cálculos envolvendo as quatro operações
fundamentais e ainda extrair a raiz quadrada. O modelo era muito semelhante ao de Pascal, mas
com componentes extras que agilizavam os cálculos e se moviam dentro da máquina, otimizando
os cálculos repetitivos.
Com uma máquina de tecer, foi inventado um sistema que representava os padrões de cores
num tear manual. O tecelão lia os cartões até que, em 1801, Joseph Marie Jacquard, matemático
francês, inventou o tear mecânico com uma leitura automática de cartões. Entravam os cartões,
saía o tecido.
Essa ideia chegou até Inglaterra e o matemático e inventor Inglês Charles Babbage,
conhecido como “o pai do computador”, idealizou e projetou a “maquina analítica”, com
dispositivos de entrada para ler cartões perfurados que continham instruções a serem executadas
(a essência do software) e unidade de memória ou armazenamento, em que se guardavam as
informações para uso futuro. Processava as quatro operações básicas e tinha uma unidade de saída
que fazia as impressões em cartões.
Se Charles Babbage é o pai do computador, Ada Augusta – Lady Lovelace – é a mãe.
Matemática, tornou-se a primeira programadora, escreveu as primeiras instruções para a máquina
analítica. Infelizmente, a máquina nunca chegou a funcionar. Entretanto, os projetos inspiraram
uma série de equipamentos.
Por mais estranho que possa parecer, uma das maiores revoluções para o “mundo dos
cálculos”, não foi nenhuma máquina milagrosa ou a evolução das já existentes – mas sim uma teoria.
A publicação de dois livros, A análise Matemática da Lógica e Uma Investigação das Leis do
Pensamento, em 1847 e 1854 respectivamente, deram a George Boole o título de inventor da lógica
matemática. Os dois livros foram a base da atual Ciência da Computação e da Cibernética. O que
Boole propôs era que qualquer coisa (sejam números, letras ou mesmo objetos) poderiam ser
representados por símbolos e regras. Ele também introduziu o conceito dos códigos binários, ou
seja, apenas dois tipos de entidade – sim ou não, verdadeiro ou falso, um ou zero, ligado ou
desligado, passa corrente ou não passa corrente, em cima ou para baixo, etc.…
Boole achava que eliminando elementos subjetivos e mantendo reduzidas as opções, o
sistema se manteria menos susceptível a falhas. Visando acelerar o imenso trabalho dispensado ao
censo nos Estados Unidos, Herman Hollerith, desenvolveu um equipamento que usava os mesmos
cartões perfurados idealizados por Jacquard. Incentivado por John Shaw Billings (seu futuro sogro e
funcionário do governo americano, que lhe tinha dito que o sistema de tabulação usado no censo
poderia ser feito usando cartões perfurados), Hollerith aperfeiçoou o modelo antecessor: o tear
programável. A máquina de Hollerith venceu várias outras num concurso realizado no mesmo ano
que foi construída e ganhou a concorrência, ficando responsável pelo censo americano.
Desta vez, cada cartão perfurado era dividido em zonas correspondentes ao sexo, idade,
moradia, data de nascimento, raça, nacionalidade e demais dados interessantes a um censo. Depois
de perfurados no lugar correspondente a determinada característica da pessoa, o cartão era levado
até a máquina propriamente dita. Os cartões eram então pressionados por dezenas de pinos que
procuravam passar pelos buracos do cartão, sendo que os pinos que atravessavam eram somente
aqueles dos lugares previamente perfurados. Uma vez ultrapassado o cartão, os pinos mergulhavam
num recipiente de mercúrio, fechando um circuito e indicando a sua posição. Esse sistema trabalhou
de forma tão veloz que os resultados do censo saíram num terço do tempo gasto usando métodos
antigos.
O sucesso de Hollerith foi tanto que ele fundou, em 1896, a Tabulation Machine Company,
empresa especializada em operar e fabricar as maquinas. A TMC veio fundir-se com mais duas
empresas formando a Computing Tabulation Recording Company. A mesma CTRC, anos depois da
morte de Hollerith, mudava de nome, nascendo a mundialmente famosa IBM – International
Business Machine.
Em 1937, o professor de matemática Howard Aiken com o auxílio da IBM e da Marinha
Americana, que tinha como objetivo calcular as trajetórias de projéteis durante a Segunda Guerra,
desenvolveu o primeiro computador eletromecânico – MARK I. Um gigante que 2,5 metros de altura
por 18 metros de comprimento, tinha 750.000 partes e 700 quilómetros de cabos.
A partir do momento que surgiram os primeiros computadores na acepção popular da
palavra, divide-se a história dos computadores em cinco gerações distintas. O pulo para a geração
seguinte dá-se com o início de um nova tecnologia que possibilita grandes avanços do poder de
cálculo ou descobertas que modificam a base de um computador.
A PRIMEIRA GERAÇÃO (Tecnologia de Válvulas Eletrônicas 1940 – 1955)
Principais características
Válvulas eletrônicas
Armazenamento: banda magnética, disco magnético
Memória principal: ferrite magnética
Introdução da programação
Introdução da comunicação
Inicialmente desenvolvida para a indústria radiofónica possibilitou cálculos milhares
de vezes mais rápidos do que com os anteriores
Relés eletromecânicos.
Principais defeitos:
Consomem bastante energia;
Era necessário aquecer primeiro;
Em 1943, um grupo de matemáticos, da Universidade da Pensilvânia, liderados por J.
Presper Eckert e John Mauchly começou a desenvolver uma máquina electrónica chamada ENIAC:
Electronic Numerical Integrator and Calculator.
O ENIAC ocupava mais de 170 metros quadrados, era mil vezes mais rápido do que qualquer
máquina anterior, resolvendo 5 mil somas e subtrações, 350 multiplicações ou 50 divisões por
segundo. Tinha o dobro do tamanho do Mark I: pesava cerca de 30 toneladas, enchendo 40
gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas electrónicas, tendo um
consumo de 150 kW. Apesar dos seus inúmeros ventiladores, a temperatura ambiente chegava por
vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado
para resolver um conjunto particular de problemas, a sua reprogramação era muito lenta. Tinha
cerca de 19.000 válvulas substituídas por ano. Em 1943, antes da entrada em operação do ENIAC a
Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos
alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns
anos antes.
Inspirado na lógica booleana de 1847, Claude Shannon, um estudante do MIT (Instituto de
Tecnologia de Massachusetts), estudava meios mais simples que não fossem através de grandes e
complicadas engrenagens de calcular. Ele percebeu quão semelhante era o princípio booleano de
números binários com um circuito eléctrico - e que esse circuito poderia ser usado num computador.
Prosseguindo os seus estudos e experiências sobre códigos binários, o estudante publicou na sua
tese de mestrado as conclusões que havia chegado. A sua teoria foi tão bem recebida que em
poucos meses já estava a ser adaptada aos sistemas telefónicos americanos. Shannon foi o
responsável pela expansão do conceito de numeração binário e de ter introduzido nos meios
académicos o bit como é conhecido atualmente: binary digit (bit).
Em 1945 Von Neumann sugeriu que o sistema binário fosse adoptado por todos os
computadores, e que as instruções e dados fossem compilados e armazenados internamente no
computador, na sequência correta de utilização. Estas sugestões tornaram-se a base filosófica para
projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que
funcionam com fuzzy logic, lógica confusa)
A partir dessas ideias, e da lógica matemática ou álgebra de Boole, introduzida no início do
século XIX, é que Mauchly e Eckert projectaram e construíram o EDVAC - Electronic Discrete Variable
Automatic Computer, dotado de cem vezes mais memória interna que o ENIAC - um grande salto
para a época, completado em 1952, sendo a primeira máquina comercial electrónica de
processamento de dados do mundo. Eles tinham tentado isso com o BINAC - computador
automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a
bordo de um avião, mas que nunca funcionou a contento. As instruções já não eram passadas ao
computador por meio de fios ou válvulas: elas ficavam num dispositivo electrónico denominado
linha de retardo. Esse dispositivo era um tubo contendo vários cristais que refletiam pulsos
electrónicos para frente e para trás muito lentamente.
Baseado na revolucionária teoria de Von Neumann (pensada por ele a partir do
funcionamento do EDVAC) O primeiro computador comercial de grande escala foi o UNIVAC -
Universal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de
6.000 chaves e ligado por cabos a um painel. A entrada e saída de informações era realizada por
uma fita metálica de 1/2 polegada de largura e 400 m de comprimento. Ao todo, venderam-se 46
unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor
chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava
fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de
armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM - Manchester
Automatic Digital Machine, o SEC - Simple Electronic Computer, e o APEC - All-Purpose Electronic
Computer.
Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar
informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT
(monitor de vídeo), ou na flexowriter - espécie de máquina de escrever (Whirlwind quer dizer
redemoinho).
A SEGUNDA GERAÇÃO (Tecnologia do Transistor 1956 – 1963)
Principais características
Transístores
Evolução das soluções de equipamento;
Evolução da programação;
Não necessitam de aquecimento;
Consomem pouca energia;
Não queimam;
Com apenas 1/200 do tamanho de uma das primeiras válvulas e consumindo menos de
1/100 da energia, o transístor viu o seu uso generalizado nos computadores por volta de 1960. A
função básica do transístor num computador é o de um interruptor electrónico para executar
operações lógicas.
Em 1952 surgiu um novo componente que apresentava inúmeras vantagens em relação às
antigas válvulas: ele tinha características como menor aquecimento, maior poder de cálculo e
confiabilidade e um consumo de energia bem menor - com o adicional de que não necessitava de
tempo para aquecer. A Bell Laboratories inventava o transístor. Os cálculos passaram a ser medidos
de segundos para micro segundos. As linguagens utilizadas para esses computadores eram
normalmente a FORTRAN, COBOL ou ALGOL.
A partir desse momento, devido à maior facilidade e praticidade do transístor, muito
modelos de computador surgiram. O primeiro modelo de computado 100% transistorizado foi o
TRADIC, da Bell Laboratories. Outro modelo dessa época era o IBM 1401, com uma capacidade
memória base de 4.096 bytes operando em ciclos de memória de 12 micro segundos. A instalação
de um IBM 1401 ocupava uma sala e o tamanho dos computadores ainda era bastante grande.
Existiam também outros modelos, como o sofisticado IBM 7094. O IBM TX-0, de 1958, tinha um
monitor de vídeo de alta qualidade, além de ser rápido e relativamente pequeno. Um outro modelo
de computador que virou mania no MIT era o PDP-1: alunos utilizavam o computador para jogar
Rato-no-Labirinto e Spacewar utilizando o auxílio de uma caneta óptica e um joystick. No entanto,
os elevados custos destas máquinas restringiam sua utilização a aplicações estratégicas do governo,
grandes empresas e universidades.
Principais características
Dos circuitos integrados
Criação de minicomputadores
Utilização em tempo partilhado
Introdução do conceito de compatibilidade
Programação em assembly
Desenvolvimento de software
Evolução dos diversos componentes
A terceira geração inicia-se com a introdução dos circuitos integrados (transístores,
“resistores”, diodos e outras variações de componentes eletrônicos miniaturados e montados sobre
um único chip) nos computadores. Após o surgimento desses circuitos, no final da década de 50,
eles foram aprimorando-se até chegar ao estágio de adaptação aos computadores. Os custos de
produção de um computador começavam a cair, atingindo uma faixa de mercado que abrangia
empresas de médio porte, centros de pesquisa e universidades menores. Uma nova linguagem foi
desenvolvida pelo Grupo de Cambridge: a CPL.
O Burroughs B-2500 foi um dos primeiros modelos dessa geração. O PDP-5, produzido pela
DEC, foi o primeiro minicomputador comercial e o INTEL 4004 o primeiro microprocessador (circuito
integrado que contém todos os elementos de um computador num único local). Eram alguns dos
seus componentes, a unidade calculadora e a memória. Além disso, diversos modelos e estilos
foram sendo lançados nessa época: IBM-PC, Lotus 1-2-3, Sinclair ZX81/ZX Spectrum, Osborne1 e os
famosos IBM PC/XT. O PC/XP usava o sistema operacional PC/MS-DOS, uma versão do MS-DOS
desenvolvida para a IBM pela Microsoft
Principais características
Introdução dos microprocessadores
Desenvolvimento dos computadores pessoais
Evolução dos dispositivos diversos componentes
(Hardware e software)
Evolução vertiginosa desde a sua introdução
Ainda mais avançados que os circuitos integrados, eram os circuitos de larga escala (LSI - mil
transístores por "chip") e larguíssima escala (VLSI - cem mil transístores por "chip"). O uso desses
circuitos na construção de processadores representou outro salto na história dos computadores. As
linguagens mais utilizadas eram a PROLOG, FP, UNIX e o início da utilização da linguagem C. Logo
em 1981 nasce o 286 utilizando slots ISA de 16 bits e memórias de 30 pinos.
Quatro anos mais tarde era a vez do 386, ainda a usar memórias de 30 pinos mas com maior
velocidade de processamento. Ao contrário do 286, era possível rodar o Windows 3.11 no 386.
Introduziu-se no mercado as placas VGA e suporte a 256 cores. Em 1989, eram lançados os primeiros
486 DX: eles vinham com memórias de 72 pinos (muito mais rápidas que as antigas de 30 pinos) e
possuíam slots PCI de 32 bits - o que representava o dobro da velocidade dos slots ISA. Os três
últimos computadores citados popularizaram tanto o uso dessas máquinas que foi cunhado o
conceito de "PC", ou "Personal Computer" (Computador Pessoal em português).
Os equipamentos já tinham capacidade para as placas SVGA que poderiam atingir até 16
milhões de cores, porém este artifício seria usado comercialmente mais para frente com o advento
do Windows 95. Neste momento iniciava uma grande fuga para as pequenas redes como, a Novel e
a Lantastic que rodariam perfeitamente nestes equipamentos, substituindo os "micrões" que
rodavam na sua grande maioria nos sistema UNIX (Exemplo o HP-UX da Hewlett Packard e o AIX da
IBM).
Esta substituição era extremamente viável devido à diferença brutal de preço entre estas
máquinas. As aplicações exigem cada vez mais uma maior capacidade de processamento e
armazenamento de dados. Sistemas especialistas, sistemas multimídia (combinação de textos,
gráficos, imagens e sons), banco de dados distribuídos e redes neurais, são apenas alguns exemplos
dessas necessidades.
Uma das principais características dessa geração é a simplificação e miniaturização do
computador, além de melhor desempenho e maior capacidade de armazenamento. Tudo isso, com
os preços cada vez mais acessíveis. A tecnologia VLSI está a ser substituída pela ULSI (Ultra Large
Scale Integration). O conceito de processamento está a caminhar para os processadores paralelos,
ou seja, a execução de muitas operações simultaneamente pelas máquinas. A redução dos custos
de produção e do volume dos componentes permitiram a aplicação destes computadores nos
chamados sistemas embutidos, que controlam aeronaves, embarcações, automóveis e
computadores de pequeno porte. São exemplos desta geração de computadores, os micros que
utilizam a linha de processadores Pentium, da INTEL. Na realidade, as maiores novidades dessa
época são os novos processadores, cada vez mais velozes.
Enfim, a informática evolui cada vez mais rapidamente e as velocidades de processamento
dobram em períodos cada vez mais curtos. Para se ter uma noção disso, basta observar que entre
os modelos de computador mais antigos, os espaçamentos entre uma novidade e outra eram de
dezenas de anos, sendo que hoje não chega a durar num mês. Isso leva-nos a concluir que o avanço
científico e do poder de cálculo avança de maneira que não se encontra paralelo na história humana,
barateando os custos e tornando acessíveis os computadores às pessoas de rendimentos inferiores.
Quem sabe uma nova geração de computadores não está por vir?
Alguns falam em processadores quânticos quando os limites da miniaturização do silício
forem atingidos, enquanto outros falam em moléculas de água armazenando informações - mas o
facto é que coisas novas vão surgir e novas gerações deixarão a atual tão longe e ultrapassada como
está a segunda para nós. Mesmo rompendo recentemente a barreira dos terabytes, a evolução dos
computadores ainda está longe de terminar.
Segue abaixo um histórico do desenvolvimento da informática e das tecnologias ligadas a
computação em geral.
1622 - O matemático inglês William Oughtred desenvolve a primeira régua de cálculo.
1642 - O pesquisador francês Blaise Pascal cria a primeira calculadora.
1822 - O matemático inglês Charles Babbage projeta um computador mecânico, porém este não
saiu do papel.
1847 - É criado o sistema binário pelo matemático inglês George Boole.
1880 - O norte-americano Herman Hollerith cria um processador de dados eletromecânico. O
sistema usava cartões perfurados para inserir dados.
1930 - Nos Estados Unidos, o engenheiro eletricista Vannevar Bush desenvolve um computador
usando válvulas de rádio.
1946 - Os engenheiros norte-americanos John William Mauchly e John Presper Eckart Jr
desenvolvem o Eniac, o primeiro computador eletrônico. O Eniac foi desenvolvido para servir aos
interesses bélicos dos EUA na II Guerra Mundial. Serviu para fazer os cálculos no desenvolvimento
da bomba atômica.
1954 - A empresa eletrônica Texas Instruments fabrica o transistor usando silício.
1956 - Surge, no MIT - Instituto de Tecnologia de Massachusetts - o primeiro computador que utiliza
transistores.
1963 - Douglas Engelbart patenteia o mouse.
1964 - Paul Baran, pesquisador norte-americano, projeta e cria a primeira rede de computadores
interligada por fios.
1966 - A IBM desenvolve o Ramac 305, utilizando discos de memória com capacidade de 5 megabits.
1968 - Douglas Engelbart cria um sistema com mouse, teclado e janelas ( windows ).
1971 - A Intel cria o MCS-4, primeiro microcomputador pessoal com o processador 4004.
1972 - A empresa Atari cria o primeiro videogame com o jogo Pong.
1975 - Desenvolvem a linguagem Basic, primeira linguagem para microcomputadores, . As
linguagens anteriores eram adequadas aos grandes e médios computadores.
1975 - Bill Gates e Paul Allen fundam a Microsoft.
1976 - Steve Wozniak e Steve Jobs projetam e desenvolvem o micro Apple I. No mesmo ano a dupla
funda a Apple Computer Company.
1981 - A IBM lança o micro PC 5150.
1985 - A Microsoft o sistema operacional Windows e o Word 1.0 (primeira versão do processador
de textos).
1989 - Tim Berners-Lee , pesquisador europeu cria a World Wide Web ( WWW) que origina a
Internet.
1991 - Linus Torvald lança o sistema operacional Linux com código-fonte aberto.
1992 - A empresa americana Microsoft lança o sistema operacional Windows 3.1. A nova versão do
Windows incorpora tecnologias voltadas para a utilização de CD-Roms.
1993 - Surge o primeiro browser, o NCSA Mosaic.
1993 - A empresa de processadores Intel coloca no mercado o processador Pentim.
1994 - É criado o navegador de internet Netscape Navigator.
1995 - Chega ao mercando o Windows 95, trazendo incorporado o navegador Internet Explorer.
1995 - Criada a linguagem Java pela Sun Microsystems.
1997 - Garri Kasparov, campeão mundial de xadrez, perde pra o computador Deep Blue da IBM.
1997 - Justin Fraenkel desenvolve o Winamp, programa utilizado para ouvir músicas no formato
MP3.
1998 - A Microsoft lança no mercado o Windows 98.
1999 - A Intel lança no mercado o processador Pentium III.
Você sabia?
- Comemora-se em 15 de agosto o Dia da Informática.