Adaptado de Malcolm Gladwell: “Fora de série: outliers”.
No início da década de 1970 os
computadores eram do tamanho de salas. Uma única máquina – que talvez tivesse
menos potência e memória do que um micro-ondas atual – podia custar mais de um
milhão de dólares. Computadores eram raros. Mesmo quando se encontrava um, o
acesso ele era difícil. Quem conseguia pagava uma fortuna pelas horas de
utilização.
Além disso, a programação em si
era extremamente tediosa. Naquela época, os programas de computador eram
criados em cartões de cartolina. Marcava-se cada linha de código com uma
perfuradora. Um programa complexo poderia incluir centenas, senão milhares, de
cartões, que eram agrupados em altas pilhas. Depois que um programa era
perfurado, o programador o levava a um mainframe[i] e
entregava as pilhas de cartões a um operador, que se comprometia a executá-lo.
Os computadores, no entanto, só
conseguiam lidar com uma tarefa de cada vez. Por isso, dependendo do número de
clientes à sua frente na fila, o programador esperava por horas ou até dias na
fila, o programador esperava por horas ou até dias para pegar os cartões de
volta. E, caso tivesse cometido um erro, ainda que fosse de digitação,
precisava recolher o material, descobrir a falha e recomeçar todo o processo.
Naquelas circunstâncias, era
dificílimo alguém se tornar especialista em programação. Com
certeza, realizar essa façanha com pouco mais de 20 anos era praticamente
impossível. Se uma pessoa só conseguia se dedicar à atividade de programação
por alguns minutos em cada hora que passava na sala do computador, como poderia
obter 10 mil horas de prática?
Foi somente em meados da década
de 1960 que surgiu uma solução para o problema. Os computadores se tornaram
poderosos o bastante para lidar com mais de um “compromisso” de cada vez. Os
cientistas da área constataram que, se o sistema operacional fosse reescrito, o
tempo do computador poderia ser compartilhado, isto é, a máquina seria
terminada para se ocupar de centenas de tarefas ao mesmo tempo.
Graças a isso, os programadores
não precisavam mais entregar fisicamente as pilhas de cartões ao operador. Era
possível construir dezenas de terminais e ligá-los a um mainframe por uma linha
telefônica, o que permitia que todos trabalhassem on-line e ao mesmo tempo.
O tempo compartilhado era
interativo: o programa solicitava uma resposta, aguardava até que fosse
digitada, trabalhava nela e mostrava o resultado – tudo em tempo real[ii]. Nesse
momento, entrou em cena a Universidade de Michigan, uma das primeiras
instituições do gênero no mundo a adotar o tempo compartilhado. Em 1967, um
protótipo do sistema estava em operação ali. No início da década de 1970, seu
poder de processamento de dados já era suficiente para permitir que 100
programadores trabalhassem ao mesmo tempo no Centro de Computação.
[i] Um mainframe é um computador de grande
porte, dedicado normalmente ao processamento de um volume grande de
informações. Os mainframes são capazes de oferecer serviços de processamento a
milhares de usuários através de milhares de terminais conectados diretamente ou
através de uma rede. Embora venham perdendo espaço para os servidores de
arquitetura PC e
servidores Unix, que
em geral possuem custo menor, ainda são muito usados em ambientes comerciais e
grandes empresas (bancos, empresas de aviação, universidades, etc.). São computadores que anteriormente
ocupavam um grande espaço e necessitavam de um ambiente especial para seu
funcionamento, atualmente possuem o mesmo tamanho dos demais servidores de
grande porte com menor consumo de energia elétrica. Os mainframes são capazes de
realizar operações em grande velocidade e sobre um volume muito grande de
dados.
[ii] A
diferença entre os cartões de computador e o tempo compartilhado é a mesma que
fazer lances de um jogo de xadrez pelo correio e on-line.
Nenhum comentário:
Postar um comentário