Arquiteturas de computadores e sistemas
operacionais
O termo arquitetura de
computador vem da possibilidade de se visualizar uma máquina como um conjunto
hierárquico de níveis que permite entender como os computadores estão
organizados. Os primeiros computadores digitais por exemplo somente possuiam
dois níveis. O primeiro é chamado o nível da lógica digital, formado no início
por válvulas e depois por transistores, circuitos integrados, etc. O segundo é
chamado de nível 1, também chamado de nível de microprograma, que é o nível da
linguagem da máquina, onde toda a programação era feita, através de zeros e
uns, e que posteriormente seria o responsável por interpretar as instruções do
nível 2.
Com Maurice Wilkes em
1951 surgiu outro nível, onde as instruções eram escritas de um modo mais
conveniente para o entendimento humano: a técnica consistia em substituir cada
instrução desse novo nível por um conjunto de instruções do nível anterior
(nível da máquina) ou examinar uma instrução de cada vez e executar a sequência
de instruções equivalentes do nível da máquina. Denominam-se estes
procedimentos por tradução e interpretação. Isto simplificou o hardware que
agora somente tinha um conjunto mínimo de instruções e portanto menos circuitos
eram necessários.
A partir daí a evolução
do hardware avança juntamente com as novas descobertas científicas: quase na
mesma época do aparecimento dos transistores, por exemplo, surgiu o conceito de
barramento de dados, que acelerou a velocidade dos computadores. Ao mesmo tempo
apareceram os grandes sistemas operacionais, (simplificadamente, um conjunto de
programas mantidos no computador durante todo o tempo, liberando o programador
de tarefas relacionadas diretamente com o funcionamento da máquina), como o DOS
e OS, da IBM. Estes evoluíram possibilitando novos conceitos que melhoraram a
performance das máquinas, como por exemplo os sistemas de multiprogramação,
isto é, a possibilidade de vários programas serem executados em paralelo em uma
mesma da máquina. Se um destes programas tiver origem em um terminal remoto,
tal sistema será chamado de tempo compartilhado. Um importante marco que
possibilitou esses avanços foi a introdução de processadores de entrada e
saída, também chamados de canais. Isso motivou o aparecimento dos conceitos de
concorrência, comunicação e sincronização: uma vez que dois processadores estão
operando simultaneamente, surge a necessidade de prover mecanismos para
sincronizá-los e estabelecer um canal de comunicação entre eles.
É a era das arquiteturas
mainframes: o suporte às tarefas computacionais e o desenvolvimento das
aplicações eram feitos numa área central, denominada centro de computação.
Terminais conectados diretamente à máquina eram utilizados somente por pessoas
relacionadas às aplicações disponíveis.
Nos anos 70 surgiram os
supercomputadores, máquinas que inovaram na arquitetura. Até o momento, o
crescimento da eficiência dos computadores estava limitado pela tecnologia,
mais especificamente pelo processamento escalar que exigia que o processador
central de um computador terminasse uma tarefa para começar a realizar outra,
produzindo o gargalo de von Neumann. Um avanço significativo veio com o
supercomputador Cray-1, da Cray Research, em 1971. Foi a primeira máquina
pipeline, cujo processador executava uma instrução dividindo-a em partes, como
na linha de montagem de um carro. Enquanto a segunda parte de uma instrução
estava sendo processada, a primeira parte de outra instrução começava a ser
trabalhada. A evolução seguinte foi a denominada máquina vetorial, ou máquina
SIMD (single instruction multiple data) cujo processador trabalhava com mais de
um conjunto de dados ao mesmo tempo. Um pouco depois surgiu a arquitetura MIMD
(multiple instructions multiple data) e apareceram máquinas com múltiplos
processadores como a Connection Machine, com 65.536 processadores.
Há primariamente três
limites para a performance dos supercomputadores: a velocidade do processador,
o gasto de tempo (o termo técnico, amplamente utilizado na Computação, é
overhead), que envolve fazer um grande número de processadores trabalharem
juntos em uma única tarefa, e a velocidade de entrada e saída entre os
processadores e entre os processadores e a memória. A velocidade dos
processadores aumenta a cada dia, mas a um alto custo de pesquisa e
desenvolvimento, e a realidade é que se está alcançando os limites dos
processadores baseados em silício. Seymour Cray demonstrou que a tecnologia de
gálio arsênico poderia ser a solução, mas é muito difícil trabalhar com ele e
poucas indústrias estariam aptas a desenvolver processadores desse tipo. A
solução, como se falará mais abaixo caminha para o uso de um maior número de
processadores, dando maior velocidade ao computador pelo uso desses
processadores através do processamento paralelo.
Com a tecnologia VLSI
(quarta geração de computadores) surgiram os minicomputadores, o que
possibilitou muitas empresas e universidades informatizarem seus departamentos.
Os grandes usuários interligavam os minicomputadores para enviar tarefas aos
seus mainframes. A arquitetura principal continuava no entanto estabelecida no
centro de computação. Do minicomputador para o computador pessoal foi somente
um passo, e no início da década de 1980 apareceram os primeiros PC's. Ainda nos
anos de 1980 apareceram as arquiteturas RISC (Reduced Instruction Set Code),
com a promessa de ganho de desempenho pela eliminação do conceito de
microprograma. De qualquer maneira estas máquinas ainda são máquinas de von
Neumann tradicionais, com todas as suas limitações, a maior delas a velocidade
dos circuitos que não pode crescer indefinidamente.
As tentativas de quebrar
o gargalo de von Neumann e o início da descentralização dos sistemas, com o
surgimento das arquiteturas de rede que possibilitaram a universalização do uso
da tecnologia da Computação, fizeram emergir e desenvolver as arquiteturas
paralelas de hardware.
A idéia de incluir
paralelismo nos computadores é tão antiga quanto os próprios computadores.
Trabalhos desenvolvidos por von Neumann na década de 1940 já discutiam a
possibilidade de algoritmos paralelos para a solução de equações diferenciais.
O sistema Model V, desenvolvido entre 1944 e 1947 por G. R. Stibitz e S. B.
Willians nos laboratórios da Bell Telephone é um exemplo típico de máquina
paralela. Constituído por dois processadores e de três posições de entrada e
saída, esse multiprocessador primitivo tanto era capaz de executar dois
programas distintos como era possível que os dois processadores ficassem
alocados para um mesmo programa. Posteriormente foi desenvolvido o Illiac IV,
na década de 1960, constituído por 64 processadores. Como foi citado, a partir
da década de 1970 começaram a ser produzidos supercomputadores baseados em
arquiteturas paralelas.
Juntamente com as
arquiteturas evoluiram os sistemas operacionais e a evolução das linhas de
processadores de uma empresa como a Intel servem para refletir a evolução da
indústria dos computadores em um determinado período. Como destaque podem-se
citar o MS-DOS, o OS/2 e o UNIX. Especialmente este último, que surgiu como
fruto dos trabalhos de um engenheiro da Bell Labs, Ken Thompson, foi
popularizado nos meios universitários que usavam computadores PDP-11/45,
durante a década de 1970. A palavra UNIX espalhou-se rapidamente por todo o
mundo e no início de 1980 este sistema operacional estava disponível em mais
máquinas do que qualquer outro sistema operacional da época, continuando hoje
ainda a ser amplamente utilizado.
A mais nova arquitetura,
que determinou a mais recente evolução da Computação foi o resultado da rápida
convergência das tecnologias de comunicações de dados, telecomunicações e a
própria informática. É a Internet, ou modelo computacional baseado em uma rede,
que teve sua origem nos anos da década de 1970, como um esforço do Departamento
de Defesa dos EUA para conectar a sua rede experimental, chamada ARPAnet, a
várias outras redes de rádio e satélites. Espalhou-se logo em seguida nos meios
acadêmicos e está bastante popularizada.
Fonte:
http://www.brasilescola.com/informatica/revolucao-do-computador.htm
Nenhum comentário:
Postar um comentário