psi aula 1 à 3

57
Princípios de Sistemas de Informação Curso: TI - UNIP Disciplina: Princípios de Sistemas de Informação Professor: Shie Yoen Fang 1° semestre 2011 1

Upload: paulocsm

Post on 20-May-2015

1.567 views

Category:

News & Politics


5 download

TRANSCRIPT

Princípios de Sistemas de Informação

Curso: TI - UNIP Disciplina: Princípios de Sistemas de Informação Professor: Shie Yoen Fang 1° semestre 2011

1

Informações de Produtividade

• Representante da turma – e-mail, telefone e celular. Todos os alunos da classe devem ter essas informações.

• Toda comunicação com os professores e a turma ocorrerá através do representante da turma.

• O coordenador dos cursos de TI estará conversando com vocês para passar a dinâmica do curso, formas de avaliação, etc.

• Todo o material do curso de Princípios de Sistemas de Informação será em PowerPoint e será entregue em arquivo digital para o representante da turma para que este repasse para a turma. Na medida do possível estarei entregando este material com antecedência para que vocês possam imprimir e fazer as anotações da aula nas cópias.

• Peço a todos que peguem pelo menos três contatos da turma de tal forma que caso você tenha que ausentar, alguém passe e pegue o material entregue para você depois.

2

Como o ser humano aprende

Modelo de desenvolvimento humano adotado pela maioria das universidades TOP dos Estados Unidos.

1. Através dos professores (1/3)

2. Auto aprendizado (1/3)

3. Com colegas (1/3)

3

Conceito de Competência

A competência desenvolvida por uma pessoa é função de 3 componentes (CHA): Conhecimento – É o conhecimento que possui sobre um determinado assunto/atividade. Ter informações, estar bem informado. Habilidade – É a prática sobre um determinado assunto. Expertise. Experimentações. Aprender com os erros passados. Faculdade (Estudo de Casos). A maioria das questões do ENADE são de estudo de caso onde se espera uma capacidade de análise e desenvolvimento de uma solução. Atitude – É a postura, disposição que uma pessoa tem em relação a uma atividade. A grande maioria das empresas grandes e principalmente as multinacionais possuem processos de avaliação de desempenho 180º ou 360º baseado nesses três pilares.

4

Conceitos

• BIT

• BYTE

• Tabela ASCII

• KILOBYTE = KB

• MEGABYTE = MB

• GIGABYTE = GB

• TERABYTE = TB

Fonte: Marçula: capítulo 1.

5

Bit

Em inglês BInary digiT.

O bit é a menor unidade de informação nos sistemas computacionais.

O bit possui dois estados (não magnetizado ou magnetizado) e é representado simbolicamente pelos números 0 (zero) e 1 (um).

Um bom exemplo é a lâmpada. Quando a lâmpada está apagada dizemos que tem o valor 0 e quando está ligado dizemos que tem o valor 1.

6

Notação Binária

A numeração decimal utiliza os números 0 a 9 enquanto que a numeração binária utiliza somente os números 0 e 1.

Decimal Binária

Passar exercício 1.

7

0 0

1 1

2 10

3 11

4 100

Sistemas de Numeração

Sistema Decimal => base 10 10´ 10³ 10² 10¹ 10⁰ 10.000 1.000 100 10 1 Sistema Binário => base 2 2µ 2´ 2³ 2² 2¹ 2⁰ 32 16 8 4 2 1 1 0 1 0 0 1 (num. binário) 32 0 8 0 0 1 = 41

8

Sistema Binário -

O sistema binário é a forma que os sistemas computacionais conseguem processar e armazenar.

Desta forma, como o computador manipula os caracteres numéricos, alfanuméricos e especiais em um mundo que só entende 0 (não magnetizado) e 1 (magnetizado)?

9

BYTE

É o nome dado para um número binário de 8 bits. É através do byte que é feita a representação de um caractere!

Pergunta sobre o exercício 1:

a) Quantos valores ou ocorrências podem ser representados com um número binário constituído de 8 dígitos?

10

Como estão armazenados os bits

Lembrando que 0 (zero) significa que na mídia (memória RAM, CD Rom, DVD, HardDisk, PenDrive, Blue Ray, etc) tem um ponto não magnetizado e 1 (um) significa que o ponto na mídia está magnetizado. A agulha dos leitores desses dispositivos conseguem ler/identificar esses “pontos”magnetizados/não magnetizados .

Tabela ASC II

- A ANSI (American National Standards Institute) criou, em 1963, a codificação ASCII (American Standard Coded for Information Interchange) com o intuito de que ela fosse o padrão para a indústria de computadores. Foi idealizada utilizando um número binário de 8 bits, dos quais sete eram utilizados para representar caracteres (128 símbolos) e um era utilizado com uma função especial chamado de bit de paridade.

12

Tabela ASC II

Numeração Decimal

Numeração Binária ASCII

Numeração Decimal

Numeração Binária ASCII

Numeração Decimal

Numeração Binária

Numeração Decimal

Numeração Binária

Numeração Decimal

Numeração Binária

0 0

1 1 51 110011 3 101 1100101 151 10010111 201 11001001

2 10 52 110100 4 102 1100110 152 10011000 202 11001010

3 11 53 110101 5 103 1100111 153 10011001 203 11001011

4 100 54 110110 6 104 1101000 154 10011010 204 11001100

5 101 55 110111 7 105 1101001 155 10011011 205 11001101

6 110 56 111000 8 106 1101010 156 10011100 206 11001110

7 111 57 111001 9 107 1101011 157 10011101 207 11001111

8 1000 58 111010 108 1101100 158 10011110 208 11010000

9 1001 59 111011 109 1101101 159 10011111 209 11010001

10 1010 60 111100 110 1101110 160 10100000 210 11010010

11 1011 61 111101 111 1101111 161 10100001 211 11010011

12 1100 62 111110 112 1110000 162 10100010 212 11010100

13 1101 63 111111 113 1110001 163 10100011 213 11010101

14 1110 64 1000000 114 1110010 164 10100100 214 11010110

15 1111 65 1000001 A 115 1110011 165 10100101 215 11010111

16 10000 66 1000010 B 116 1110100 166 10100110 216 11011000

17 10001 67 1000011 C 117 1110101 167 10100111 217 11011001

18 10010 68 1000100 D 118 1110110 168 10101000 218 11011010

19 10011 69 1000101 E 119 1110111 169 10101001 219 11011011

20 10100 70 1000110 F 120 1111000 170 10101010 220 11011100

13

Tabela ASC II

14

Byte (8 bits) Caracter Byte (8 bits) Caracter Byte (8 bits) Caracter

0100 0001 A 0110 0001 a 0011 0000 0

0100 0010 B 0110 0010 b 0011 0001 1

0100 0011 C 0110 0011 c 0011 0010 2

0100 0100 D 0110 0100 d 0011 0011 3

0100 0101 E 0110 0101 e 0011 0100 4

0100 0110 F 0110 0110 f 0011 0101 5

0100 0111 G 0110 0111 g 0011 0110 6

0100 1000 H 0110 1000 h 0011 0111 7

0100 1001 I 0110 1001 i 0011 1000 8

0101 1000 X 0111 1000 x 0011 1001 9

0101 1001 Y 0111 1001 y 0011 1010 :

0101 1010 Z 0111 1010 z 0011 1011 ;

Exercício 2 de ASCII

• Suponha que você é um leitor de CD\DVD e está lendo um pedaço de dados que está armazenado no harddisk, conforme apresentado no exercício 2. Utilizando a tabela ASCII e lembrando que cada byte corresponde a um número de 8 bits com valores 0 ou 1, transforme os dados apresentados para os caracteres correspondentes na tabela ASCII.

15

Unidades de BYTE

• BYTE = conjunto de 8 bits

• KILOBYTE = KB = 1024 bytes (um mil ...)

• MEGABYTE = MB = 1024 KB = 1.048.576 bytes (um milhão...)

• GIGABYTE = GB = 1024 MB = 1.073.741.824 bytes (um bilhão...)

• TERABYTE = TB = 1024 GB = 1.099.511.627.776 bytes (um trilhão...)

16

Unidades de BYTE

• Kilobyte (KB) = 1024 Bytes Mil

• Megabyte (MB) = 1.024 KB Milhão

• Gigabyte (GB) = 1.024 MB Bilhão

• Terabyte (TB) = 1.024 GB Trilhão

• Petabyte (PB) = 1.024 TB Mil trilhões

• Exabyte (EB) = 1.024 PB Milhão de trilhões

• Zettabyte (ZB) = 1.024 EB

• Yottabyte (YB) = 1.024 ZB

17

• A lei de Moore diz que “A cada 18 a 24 meses é lançada uma nova tecnologia que permite que os computadores dupliquem o desempenho”

Lei de Moore

Se considerarmos 24 meses, a tecnologia Intel se encaixa perfeitamente nesta lei.

Exercício 3

• Quantas fotos de alta definição (1 MB) podem ser armazenados em 1 Terabyte?

• Quanto custa um HD (harddisk) com capacidade de armazenamento de 1 TB?

• Quantos filmes de DVD podem ser armazenados em um HD de TB?

• Quantos filmes em Full HD (Full High Definition / Blu-ray) podem ser armazenados em um HD de 1 TB?

19

Evolução Tecnológica

Resultado da pesquisa feita no dia 23/02/2011 no www.bestbuy.com

20

Evolução Tecnológica - USB

• USB 3.0 (ou SuperSpeed USB) chega ao mercado em um momento basicamente crítico em

relação a transmissão de dados. Isso porque a tecnologia 2.0, a qual possui uma taxa de

transferência de 480 Mbps (60 MB/s), já não está dando conta de transferir, por exemplo,

vídeos em alta definição. Por sua vez, a USB 3.0 promete solucionar tal problema, uma vez

que possuir taxa de transferência de dados de 4,8 Gbps (600 MB/s), ou seja, dez vezes mais

rápida que a tecnologia anterior!

• A USB 3.0 possui quatro fios a mais dentro do seu cabo (totalizando oito), os quais funcionam

de maneira independente para enviar e receber, ao mesmo tempo, dados para o

computador.

• Diferentemente de sua sucessora, a USB 2.0 possui somente quatro cabos, sendo somente

dois deles para a troca de informações, ou seja, a “falta” de cabos faz com que os dados

sejam enviados em somente uma direção, ou seja, eles saem do computador e somente

depois de chegar ao dispositivo USB os dados contidos nele são enviados para o computador.

• Os dispositivos com USB 3.0 funcionam com conexões USB 2.0.

21

Unidade de taxas de transmissão

• A taxa de transmissão de um canal ou meio físico é a quantidade de bits que esse meio consegue transmitir por segundo. Esta taxa pode ser expressa em bits por segundo - bps (bits per second) - ou Kylobits, Megabits ou Gigabits por segundo (Bps, Kbps, Mbps, Gbps, Tbps)

• Para conseguir transformar em bytes é preciso dividir o número de bits por 8

• Mbps Megabits por segundo => + de 1 milhão de bits por segundo

22

Comparativo de portas de E/S

23

Com a tecnologia thunderbolt será possível copiar um DVD em 30 segundos. (Obs.: Matematicamente deveria ser em 4 segundos para transferir 4,5 GB.) Fonte: Apple.com Passar artigo: Conheça mais detalhes sobre a tecnologia Thunderbolt (01/03/2011)

Evolução dos computadores

• ENIAC

• EDVAC

• ORDVAC

• SEAC

• LEO I

• Very-Large-Scale-Integration (VLSI)

• GRID 1101

• 1981 Lançamento de PC (Personal Computer)

O ENIAC (Electrical Numerical Integrator and Computer) foi o primeiro computador digital eletrônico em grande escala. Criado em fevereiro de 1946 pelos cientistas norte-americanos John Eckert e John Mauchly, da Electronic Control Company.

Evolução dos computadores

EDVAC (Electronic Discrete Variable Automatic Computer) foi um dos primeiros computadores eletrônicos. Diferentemente de seu predecessor ENIAC, utilizava o sistema binário e possuía arquitetura de von Neumann.

O EDVAC

• O ORDVAC ou Ordnance Discrete Variable Automatic Computer, foi um computador construído pela Universidade de Illinois para o Laboratório de Pesquisa Balística em Aberdeen Proving Ground. Foi o primeiro computador a ter um compilador. ORDVAC tornou-se operacional na primavera de 1951. Sua finalidade era realizar cálculos de trajetória balística para os militares dos Estados Unidos.

O ORDVAC

• SEAC (Standards Electronic/Eastern Automatic Computer) era um eletrônico first-generation computador, construído dentro 1950 pelo Departamento Nacional dos Padrões (NBS). Era um computador small-scale projetado para ser construído rapidamente e posto em operação. SEAC foi demonstrado em abril 1950 e em maio do mesmo ano entrou em produção cheia, tornando-se o primeiro computador eletrônico a funcionar com store-program .

O SEAC

• Leo I (Lyons Eletronic Computer) é o primeiro computador comercial funcionou sua primeira aplicação de negócio em 1951. Modelado próximo do Cambridge, era o primeiro computador usado para aplicações de negócio comerciais.

Leo I

• Em 1955, um computador pesava apenas 3 toneladas e consumia 50 kwatts de potencia, tendo um custo de US$ 200.000. Uma máquina destas podia realizar 50 multiplicações por segundo. Assim, os primeiros computadores eram também eles máquinas que só estavam ao alcance de grandes empresas ou instituições que tinham necessidades de cálculo muito exigentes e que possuíam as condições econômicas para tão grande investimento.

Em 1955

• Com o rápido desenvolvimento dos transístores entre 1952 e 1960, os tubos de vácuo tornaram-se obsoletos e foi este avanço tecnológico que permitiu a criação de máquinas muito mais rápidas, mais pequenas e mais baratas.

Entre 1952 a 1960

• A construção de circuitos cada vez mais pequenos possibilitou que os circuitos pudessem ser mais leves e dispender menos energia, por terem menos superfície para a dissipação de energia por calor. Esta miniaturização permitiu que se tivesse a mesma capacidade de cálculo de um ENIAC na palma de uma mão. A diminuição do tamanho fez também diminuir a quantidade de energia necessária e o custo caiu com a produção em série dos novos processadores.

Miniaturização de circuitos

Very-Large-Scale-Integration (VLSI) é o processo de criação de circuitos integrados, combinando milhares de transistores em um único chip. VLSI começou nos anos 1970, quando complexas tecnologias de semicondutores e de comunicação estavam sendo desenvolvidos. O microprocessador é um dispositivo VLSI.

Circuitos integrados

• Em 1977 uma calculadora manual pesava menos de meio quilo e consumia meio watt e podia realizar 250 multiplicações por segundo, custando US$ 300.

• Hoje uma calculadora pesa poucos gramas podendo ser incorporada em réguas ou agendas, funciona até a energia solar e custa menos de US$ 5.

Em 1977

• Compass Grid 1101 é considerado o primeiro notebook do mundo. Ele foi desenvolvido pelo designer inglês Bill Moggridge em 1979 e vendido 3 anos depois. Para uma concepção de informática de 32 anos atrás, você tem que reconhecer que o desenho dele foi incrivelmente avançado para o seu tempo!

Grid 1101

• Em 1981 a IBM lançou no mercado o PC (Personal Computer).

• O PC distinguia-se das máquinas existentes até então por estar dirigido a utilizadores individuais que poderiam passar a ter na sua secretária uma máquina para uso exclusivo, quando até aí esse conceito não existia... Os computadores eram mainframe, centralizados, e os utilizadores tinham apenas um monitor e um teclado sendo todo o processamento realizado no servidor.

• O PC tinha ainda outra característica que o tornou revolucionário que era o fato de ter uma arquitetura aberta, ou seja, qualquer fabricante poderia criar peças adaptáveis aquela máquina dando-lhe uma funcionalidade mais especializada, o que até aí era sempre privilégio reservado para o fabricante do computador. Assim o PC passou a ser o standard de fato na indústria.

Em 1981

• Um Pentium a 3 GHz é capaz de realizar 6 bilhões de somas por segundo, enquanto o ENIAC conseguia realizar apenas 5.000. A memória do ENIAC apenas permitia guardar 200 bits, enquanto qualquer computador pessoal tem pelo menos 1 GB, ou seja, 8.589.934.592 bits! O ENIAC custava em torno de US$ 200.000 enquanto um micro com processador Pentium custa menos de US$ 500. Em resumo, milhões de vezes mais potentes e centenas de milhares de vezes mais baratos!

Curiosidades

Tipos de Computadores

Critério baseado no porte (capacidade de processamento)

1) Supercomputadores

2) Grande porte (Mainframe)

3) Médio porte (Mini computadores)

Computador utilizado para servidores transacionais de alto volume

4) Micro computadores

– De mesa (desktop/tablet pc)

• Pessoal

• Servidores utilizado para automação de escritórios e comerciais

– Portáteis (notebook, netbook)

5) Dispositivos Móveis (Palmtops ou Handheld)

Fonte: Marçula capítulo 5

39

Unidade de medida de capacidade de processamento

FLOPS (ou flops) é acrônimo de computação que significa Floating point Operations Per Second, que, em português, quer dizer operações de ponto flutuante por segundo. Isto é usado para determinar o desempenho de um computador, especificamente no campo de cálculos científicos, que fazem grande uso de cálculos com ponto flutuante, similar a instruções por segundo. Computador Desempenho

Nome flops

megaflop 106 1 milhão de operações por segundo

gigaflop 109 1 bilhão de operações por segundo

teraflop 1012 1 trilhão de operações por segundo

petaflop 1015 1 quatrilhão de operações por segundo

exaflop 1018 1 quinqualhão de operações por segundo

zettaflop 1021

yottaflop 1024

40

41

42

43

44

Minicomputadores Servidores

Fonte: WWW.ORACLE.COM

Capacidade de processamento - QphH

45

Composite Query-per-Hour Performance Metric (QphH)

Quadro Tipos de Computadores

46

Supercomputadores Tianhe-1A processa 2,5 petaflops

Maior supercomputador do mundo que foi

desenvolvido pela Universidade Nacional de

Tecnologia de Defesa (NUDT, sigla em inglês)

da China, apresentado em outubro de 2010.

Grande Porte (Main-frame)

Dezenas de milhares de MIPS

(Milhões de Instruções por

Segundo)

A unidade MIPS não é comparável ao conceito

de FLOPS (Operações por segundo).

Médio Porte (Mini-computadores)

Usa unidade de Pesquisas (Query)

por hora (QphH) ou Transações por

segundo (TPS) para comparativos

de performance. Vai de 100 a

1.000 gigaflops.

Estas unidades de medições são realizadas

por institutos independentes.

Pessoal (Micro computadores) 1 a 20 gigaflops (bilhões de

operações por segundo)

Dispositivos Móveis Em torno de 1 gigaflops

• Ler artigo “Mainframe chega aos 45 anos”

Supercomputador da NASA

47

Plano de Aula

Componentes de um computador:

- CPU

- Memória

- Hardware

- Dispositivos de entrada e saída

- Periféricos

48

Arquitetura von Neumann No ENIAC, o programa era feito rearranjando a fiação em um painel. Nesse ponto John von Neumann propôs a idéia que transformou os calculadores eletrônicos em “cérebros eletrônicos”: modelar a arquitetura do computador segundo o sistema nervoso central. Para isso, eles teriam que ter três características: 1. Codificar as instruções de uma forma possível de ser

armazenada na memória do computador. Von Neumann sugeriu que fossem usados uns e zeros.

2. Armazenar as instruções na memória, bem como toda e qualquer informação necessária a execução da tarefa, e

3. Quando processar o programa, buscar as instruções diretamente na memória, ao invés de lerem um novo cartão perfurado a cada passo.

Fonte: Wikipédia (“computador”)

49

Arquitetura von Neumann - CPU

50

Unidade de Controle (UC)

A unidade de controle (UC) coordena todas as atividades realizadas pelo CPU, fornecendo sinais de controle

que sincronizam e ordenam as micro operações realizadas pela UC.

A sincronização é necessária para que os outros componentes do sistema de computação funcionem de

maneira correta. A UC gera uma cadência de pulso elétricos de sincronização transmitidos aos demais

componentes do sistema, que utilizam esses pulsos para sincronizar a sua operação com a operação da UC.

Um pulso do relógio é a menor unidade de tempo que o processamento acontece, conhecido como ciclo do

relógio (clock). Algumas instruções gastam somente um ciclo para serem realizadas, enquanto outras levam

vários ciclos.

A velocidade de um computador é dada pelo seu relógio e é medida em Hz (hertz – ciclos por segundo) que

indica a frequência que os ciclos ocorrem. Os primeiros PCs possuíam relógios com velocidade de 4,7 MHz. Os

PCs modernos atingem velocidades de alguns GHz (bilhões de ciclos por segundo). Se todas as instruções

gastassem somente um ciclo poderíamos dizer que um computador com 4,7 GHz significa ter capacidade para

processar 4,7 bilhões de instruções por segundo, porém como apresentando acima, várias instruções precisam

de mais de um ciclo para serem executados.

51

Unidade de Controle (UC)

A unidade de controle (UC) contém instruções gravadas no seu hardware, é o

chamado microcódigo, um conjunto de instruções básicas (códigos binários), que

indicam quais operações a CPU é capaz de realizar. Essas operações consistem em:

• Operações aritméticas (soma, subtração, multiplicação e divisão)

• Operações lógicas (AND, OR, XOR, etc.)

• Operações de movimentação de dados (memória=>CPU, registrador=> memória,

etc.)

• Operações de desvio (alteração da sequência normal de execução das instruções)

• Operações de entrada e saída (troca de dados com as memórias “de massa” ou

com os dispositivos de entrada/saída)

52

Unidades Lógicas e Aritméticas (ULA)

• Quando a UC encontra uma instrução que envolve operações aritméticas ou lógicas, ela

passa o controle para a ULA que possui a capacidade de realizar esse tipo de operação.

Para fazer isso, a ULA possui circuitos eletrônicos complexos que lhe permitem realizar

um conjunto de operações simples. Quando tem que realizar operações mais

complexas, acontece a realização simultânea de várias dessas operações simples.

• Outra característica importante da ULA é que ela não armazena nenhum dado.

• Atualmente as CPUs possuem diversas ULAs, classificadas de acordo com a sua função

(operação com valores inteiros, operação com valores de ponto flutuante, etc.)

53

Registradores

• Para auxiliar a UC e a ULA no processamento das instruções, como esses componentes não armazenam os

dados com que trabalham, a CPU possui internamente registradores, que são memórias mais rápidas

disponíveis para uso da CPU e são usados como locais de armazenamento temporário dos dados.

• A maioria das operações é realizada nos registradores. Por exemplo, quando a CPU necessita somar o

valor 1 ao que está armazenado em determinada posição da memória principal, ela copia o conteúdo

atual dessa posição de memória em um registrador. A ULA recebe esse valor do registrador e soma 1,

armazenando o resultado novamente no registrador. Daí, esse valor é copiado para a posição original da

memória principal.

• O tamanho em bits dos registradores de uma CPU determina a quantidade de dados que ela pode

processar ao mesmo tempo, o limite de valores que ela pode trabalhar e até a velocidade com que ela

consegue realizar as operações.

• A frase “processador (CPU) de 32 bits” ou “processador de 64 bits” indica que o tamanho dos

registradores do processador é de 32 ou 64 bits.

• Pedir para lerem o texto “Processadores de 32 bits x 64 bits”

54

Memória Principal • Para realizar o processamento, o computador necessita armazenar dados e instruções. Para isso, possui

internamente registradores, mas eles só podem armazenar poucos bytes e a CPU necessita de milhares,

ou mesmo milhões, de bytes de espaço para armazenar programas inteiros e os dados que estão sendo

manipulados por esses programas. Para isso, a CPU utiliza a memória principal, que é uma área de

armazenamento temporário. Fisicamente essa memória consiste de alguns chips ou uma pequena placa

de circuitos. A memória permite que a CPU armazene dados (operação de escrita) e recupere dados

(operação de leitura) muito rapidamente.

• A memória principal é formada por elementos de armazenamento de dados organizados na forma de uma

matriz, na qual cada posição tem um único endereço (representado por um número binário), referenciado

conforme a sua posição sequencial.

• Os endereços de memória são conhecidos pela UC e utilizados por ela para acessar os dados ou

instruções durante as atividades do processamento. Os dados e instruções não se movem fisicamente

para a memória, são sempre copiados.

55

Barramentos dos dispositivos Para interligar todos os dispositivos do computador

existe uma placa de suporte especial, a placa-mãe, que

através de barramentos, fios e soquetes conecta todos

os dispositivos. Sua função inclui também a conexão de

placas auxiliares que sub-controlam os periféricos de

entrada e saída, como a placa de som (conecta-se com

a caixa de som), a placa de vídeo (conecta-se com o

monitor), placa de rede (conecta-se com a LAN) e o fax-

modem (conecta-se com a linha telefônica).

Nota-se que o barramento entre os componentes não

constitui uma conexão ponto-a-ponto; ele pode

conectar logicamente diversos componentes utilizando

o mesmo conjunto de fios.

Vale observar que existem tipos específicos de

barramentos tais como de processador, memória ,

cache, entrada e saída, dados, etc.

56

Barramento de E/S O Barramento de Entrada e Saída (I/O ou E/S) é um conjunto de circuitos e linhas de comunicação que se ligam ao resto do PC com a finalidade de possibilitar a expansão de periféricos e a instalação de novas placas no PC.

Permitem a conexão de dispositivos como: Placa Gráfica Rede Placa de Som Mouse Teclado Modem São exemplos de Barramentos de Entrada e Saída: AGP AMR USB 3.0 EISA FireWire Thunderbolt IrDA ISA MCA PCI PCI Express Pipeline SCSI VESA Local Bus USB 2.0 PS/2

57