O microchip:

pequena invenção,
grande revolução




página inicial
referências
créditos

(C) 2000 LSI


A Lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Fairchild Semiconductor e mais tarde da Intel, publicou em uma edição da revista Electronics um gráfico semi-log com o número de transistores em um chip de silício em função da data de seu lançamento no mercado. O resultado foi uma linha reta, indicando que o número de transistores dobrava a cada ano -- o que corresponde a um crescimento exponencial. Nos anos seguintes, o número passou a dobrar a cada dezoito meses, taxa que, de certa maneira, é observada até hoje.

Uma projeção feita pela Semiconductor Industry Association (SIA), baseada na Lei de Moore, indicou que se alcançará alguns limites físicos por volta de 2005 -- quando o transistor completará 60 anos. Naquele ano, os transistores terão dimensão da ordem de 0,1 mícron e chips conterão sozinhos de 5 a 10 bilhões de transistores. Os chips terão por volta de 10 centímetros quadrados de área e serão fabricados em wafers de 12 a 16 centímetros de diâmetro.

O duradouro progresso exponencial da microeletrônica, com chips dobrando de capacidade a cada 18 meses, é um evento único no desenvolvimento tecnológico da humanidade. A única outra tecnologia que vem se desenvolvendo com tamanha velocidade é a comunicação por fibra óptica -- a qual dá-se o nome de fotônica. Essas duas tecnologias é que constituem os alicerces da “era da informação”.

Sobre a Lei de Moore
(no site da Intel)
http://www.intel.com/intel
/museum/25anniv/hof/moore.htm


Andrew Grove e a Intel

Em 1957, o jovem András Gróf deixou sua cidade natal, Budapeste, capital da Hungria, então sob o domínio comunista e ocupada por tropas soviéticas. Primeiro foram os horrores da Segunda Guerra Mundial (1939-1945). Agora era a ameaça de um governo totalitário. Muitas pessoas desapareciam sem deixar rastro. O jovem sabia que era hora de fugir: “Eu poderia ficar aqui sentado, e um dia, quando saísse para comprar pão, nunca mais seria visto”. 


Grove: capa da Time em 1997

Acabou indo para Nova York, onde adaptou seu nome para Andrew Grove. A partir daí, sua carreira foi meteórica. Formou-se brilhantemente em engenharia química na City College de Nova York e mais tarde obteve seu Ph.D. pela Universidade da Califórnia. Trabalhou algum tempo na Fairchild Semiconductors, mas a empresa não ia bem na época. Foi então que dois de seus chefes -- Gordon Moore e Robert Noyce -- o convidaram para fundar uma nova empresa. Alguém sugeriu Integrated Electronics, o que foi logo abreviado para Intel. 

A Intel percorreu um longo caminho até tornar-se o que é hoje: líder no mercado de microprocessadores para PCs. Os microprocessadores são superchips contendo milhões de transistores que funcionam como cérebro dos computadores. Sem os chips, a chamada Revolução Digital seria impossível. Para atender à demanda crescente de processamento, todo mês são produzidos pela Intel 4 quatrilhões (4.000.000.000.000.000) de transistores, mais do que meio milhão para cada habitante do planeta. Um único chip Pentium II carrega mais de 7 milhões deles e é capaz de realizar 588 milhões de cálculos por segundo.

Mas os chips não estão só nos computadores. Eles estão em todo lugar: aparelhos de som, rádios, calculadoras, relógios digitais, vídeo games, elevadores, etc.  Dominando hoje um dos produtos mais importantes no mundo – o microchip – a Intel é responsável por cerca de 90% dos microprocessadores para computadores pessoais do planeta. Em 1997, chegou a valer mais de US$ 115 bilhões de dólares (mais do que a IBM), alcançando um rendimento anual de US$ 5,1 bilhões (sétima empresa mais rentável do mundo).


Eniac, o primeiro

Uma revolução silenciosa iniciou-se cinqüenta anos atrás na Universidade da Pensilvânia. Finalizado em 1946, o Eniac (Electronic Numerical Integrator and Computer) foi o primeiro computador digital totalmente eletrônico.

Pesava trinta toneladas e tinha 18 mil válvulas. Funcionários trabalhavam ininterruptamente trocando válvulas que se queimavam. A luz e o calor atraíam insetos, que acabavam morrendo em seu interior -- originando o termo “bug” (inseto em inglês).


O Eniac ocupava uma sala inteira

O Eniac inaugurou a era da computação eletrônica, mas não foi criado por razões comerciais. Ele serviria como uma poderosa “calculadora eletrônica” de trajetórias balísticas para uso do exército norte-americano durante a Segunda Guerra. Até então, o exército utilizava equipamentos pouco sofisticados que apenas auxiliavam no cálculo de trajetórias balísticas. Esses mecanismos não eram suficientes, alguns cálculos ainda não podiam ser feitos. Como conseqüência, cerca de duzentas mulheres trabalhavam com cálculadoras manuais completando os cálculos -- o que geralmente consumia meses.

A demanda por cálculos balísticos aumentava cada vez mais e alguma providência deveria ser tomada. Três homens prontificaram-se a resolver o problema: Herman H. Goldstine, capitão do exército, e John W. Mauchly e J. Presper Eckert Jr., da Escola de Engenharia Elétrica Moore da Universidade da Pensilvânia.

Eles propuseram a criação de uma máquina calculadora eletrônica batizada de Eniac. A máquina utilizava válvulas montadas em blocos de dez unidades, cada bloco com mais de um metro de comprimento. Havia 200 blocos, o que dava ao Eniac uma memória capaz de armazenar 20 números de 10 dígitos cada (era, portanto, uma máquina de 2 décimos de Kb).

A esposa do capitão Goldstine, Adele, foi a primeira “programadora” do Eniac. Os programas eram literalmente diagramas de conexão que ligavam os blocos de válvulas a barramentos. Para “instalar” um programa, um complicado diagrama feito à mão guiava Adele, e assim ela ligava interruptores e cabos de conexão. O Eniac podia calcular em 20 segundos a trajetória de um míssil que levaria 30 segundos para atingir seu alvo (o mesmo cálculo feito numa calculadora manual levaria 2 dias).

Durante a década de 40, outras iniciativas para a construção de computadores eletrônicos surgiram e tomaram diversos caminhos. Mas foi um matemático, John von Neumann, no Instituto de Estudos Avançados da Universidade de Princeton, que deu o grande passo no projeto e construção de computadores. Ele percebeu que enquanto uma máquina computacional não pudesse modificar seu próprio processo, ela não teria a habilidade de realizar escolhas lógicas e consequentemente mudar suas próprias instruções.

Para responder a essa questão, ele projetou o Edvac (Electronic Discrete Variable Automatic Computer) que formalizou o conceito de programa armazenado. Essa foi a primeira vez em que alguém propôs um máquina cujas instruções fossem armazenadas como números numa memória eletrônica. Muitas das idéias e conceitos concebidos por von Neumann são empregados até hoje no campo da computação.

Página da PBS sobre o ENIAC
http://www.pbs.org/wgbh/aso
/databank/entries/dt45en.html

A invenção do ENIAC (no site About.com)
http://inventors.about.com/
education/inventors/library/
weekly/aa060298.htm

era da informação
No dia 16 de dezembro de 1947, nasceu a revolução digital. Foi em Murray Hill, estado de New Jersey, EUA, quando dois cientistas do renomado Bell Laboratories construíram um estranho dispositivo com alguns contatos de ouro, um pequeno pedaço de material semicondutor e um clipe de metal dobrado. A invenção era capaz de amplificar uma corrente elétrica ou ainda ligá-la e desligá-la, como um interruptor. Nascia assim o transistor.

Sem perceber, nossas vidas foram moldadas por esse estranho dispositivo que a maioria de nós nem sabe como funciona. Mais ainda, hoje, milhões de transistores podem ser construídos minuciosamente em pequeninas placas de silício. São os circuitos integrados, ou microchips. Nos microchips, toda a informação e entretenimento do mundo podem ser armazenados em formato digital, processados e enviados a qualquer canto deste planeta interconectado. Mas nem sempre as coisas foram assim…

A velocidade das transformações

    Por milhares de anos, os homens pré-históricos viveram da caça de animais selvagens e da coleta de plantas e frutas fornecidas pela Natureza. Não eram tempos fáceis e cada refeição se transformava numa grande empreitada atrás de alimento. A troca de experiências (isto é, a velocidade de propagação de conhecimentos) entre os diversos indivíduos ou entre grupos distintos era incrivelmente lenta. Uma grande transformação veio mudar esse panorama pré-histórico: a revolução agrícola. As mudanças resultantes desse processo foram profundas, e dentre elas a domesticação de animais teve um significado essencialmente importante: o deslocamento humano por longas distâncias foi enormemente facilitado. A velocidade de propagação de conhecimentos começava a se acelerar.

    Muitos milhares de anos depois, uma nova revolução, iniciada em algumas poderosas nações da época, assolou o mundo: a revolução industrial. O advento das máquinas a vapor e um pouco mais tarde dos trens e em seguida dos automóveis consolidaram o domínio dos homens sobre as máquinas. Um pouco mais tarde, desvendado o eletromagnetismo, a velocidade de propagação de informações atingiu níveis impressionantes, graças, sobretudo, ao telégrafo e ao telefone.

    Mais recentemente, o surgimento de computadores pessoais relativamente baratos e de redes de comunicação globais como a Internet colocam a humanidade frente a uma nova onda de transformações. As luzes que se acendem são de uma era em que bits valem mais que átomos e que bens materiais não são mais garantia de poder e riqueza. Hoje, expressões como “tempo real” e “sob demanda” nos dão idéia de quão rápido corre a informação através dos canais de comunicação que envolvem o globo.

    Depois da revolução agrícola e da revolução industrial, o homem vive a revolução do conhecimento. Não há atividade humana que resista a esse período de transição; o impacto das redes de computadores, da microeletrônica, da nanotecnologia, das telecomunicações é total, pode ser sentido no trabalho, na educação, no entretenimento, nas artes. O homem, inabalável, segue como parte integrante e atuante neste cenário de singularidade e de intensas mudanças tecnológicas. A sociedade é agora “pós-industrial” e vive-se o que é chamado de “era da informação”.

    O microchip marcou -- assim como a máquina a vapor, a eletricidade e a linha de montagem em outros tempos -- um avanço singular no desenvolvimento tecnológico da humanidade. Na nova economia, sai a linha de produção, os carros, o aço, a produção em massa, o marketing de massa e a mídia de massa que distribuíam seus produtos provenientes de grandes indústrias, estúdios e editoras. Entram os websites, rápidos como a luz numa fibra óptica, provendo conteúdo especializado e customizável, milhares deles, a poucos cliques do mouse de distância. É a informação em estado puro, na forma de bits -- intangível, inodoro, incolor, invisível, mas mensurável (não em volts, mas em milhões de dólares!).

The Information Society Journal
http://www.slis.indiana.edu/TIS/

The Mind, Culture, and Activity Homepage
http://communication.ucsd.edu/MCA/index.html

Information Technology an People Journal
http://www.mcb.co.uk/cgi-bin/journal1/itp

Journal of Computer Mediated Communication
http://www.ascusc.org/jcmc/

Phil Agre’s Home Page
http://dlis.gseis.ucla.edu/people/pagre/

Discussões sobre a revolução digital e a sociedade do conhecimento
http://www.ime.usp.br/~is/ddt/mac333/

A Infoera: O Imenso Desafio do Futuro
http://www.lsi.usp.br/~infoera/


O futuro dos microchips

    Nos domínios da microeletrônica, nenhuma previsão ficou tão conhecida (e vem perdurando tanto) como a “Lei de Moore”. Em meados da década de 60, Gordon Moore, um dos fundadores da Intel, previu que o poder de processamento dos microchips dobraria a cada 18 meses, enquanto que, ao mesmo tempo, seus custos cairiam pela metade.


Gordon Moore, co-fundador da Intel

    O sucesso da “Lei de Moore” deve-se, em parte, às próprias características da microeletrônica -- pelo menos em seu estágio atual. A fabricação de microchips hoje, por mais complexos que venham se tornando, não foge à receita simples do “wafer” (lâmina em forma de disco que se assemelha a uma bolacha redonda) de silício coberto de microcomponentes eletrônicos. Simplesmente ainda não se descobriu maneira melhor de colocar tamanho número de componentes num espaço tão diminuto.

    Mas o futuro do silício pode ter seus dias contados. Outros materiais com propriedades dos semicondutores, capazes de desempenhar funções de transistores, já estão sendo pesquisados: são polímeros condutores, estruturas cristalinas orgânicas, materiais cerâmicos, entre outros.

    Cada um desses materiais oferece uma determinada vantagem em relação ao silício (como maior velocidade, menor consumo de energia, etc.). Essas novas técnicas abrem novas perspectivas para a microeletrônica e para a computação, e podem um dia vir a substituir o atual paradigma -- baseado na tecnologia CMOS VLSI -- que tornou populares as arquiteturas Pentium, da Intel, PowerPC, da Motorola, IBM e Apple, e também Alpha, da Digital.

    Essas arquiteturas encontram suas raízes nas idéias do matemático John von Neumann, um dos pioneiros no projeto de computadores durante as décadas de 40 e 50. O próprio microprocessador é um exemplo do sucesso da arquitetura digital von Neumman: uma seqüência de operações acessa dados de uma memória central, processa-os e em seguida retorna os resultados.


John von Neumann e sua segunda esposa

    Outras abordagens para projeto e construção de circuitos capazes de processar informação já estão em desenvolvimento. Uma dessas abordagens é a utilização de sistemas analógicos como as redes neurais -- inspiradas no modo como alguns sistemas biológicos processam informação. Para alguns pesquisadores, sistemas neurais/analógicos representam o futuro da computação.

    Independentemente da arquitetura adotada, um passo certo em direção ao futuro é certamente a flexibilidade dos microchips de amanhã. Chips configuráveis, customizáveis, capazes de rodar os principais sistemas operacionais serão características importantes num futuro próximo -- haja vista os recentes investimentos do multimilionário e co-fundador da Microsoft Paul Allen na empresa Transmeta (em que trabalha também Linus Torvalds), dedicada ao desenvolvimento de novos tipos de chips e processadores.

John von Neumann na Time
http://www.time.com/time/magazine/articles/
0,3266,21839,00.html

Visionários da computação
http://home.cnet.com/category/topic/0,10000,
0-3805-7-27392
7,00.html

Pioneiros da computação
http://ei.cs.vt.edu/~history/
people.html

Chronology of Events in the History of Microcomputers
http://www.islandnet.com/~kpolsson/comphist/

Uma linha do tempo da computação
http://www.tcm.org/html/history/timeline/

The Computer Museum History Center
http://www.computerhistory.org/

Novos paradigmas computacionais

    Mas existem limites para a computação? Até onde vai o sonho humano de computar? É certo que, teoricamente, não existem limites. Tudo depende da tecnologia em que se baseiam os sistemas computacionais. A computação baseada em chips de silício certamente encontrará seus limites. Empecilhos de natureza física e tecnológica tornarão inviável a evolução ad infinitum dos chips de silício.

    Nada, porém, parece ser capaz de frear a vontade do homem de construir máquinas cada vez mais "poderosas". Embora os custos e dificuldades tecnológicas tornem proibitivo construir “superchips” para “supercomputadores”, a supercomputação tornou-se realidade de forma engenhosa: utilizando dezenas ou até centenas de chips convencionais e realizando o que ficou conhecido como “processamento paralelo distribuído”. A computação de alto desempenho e o processamento paralelo é que permitem, por exemplo, criar efeitos especiais para o cinema cada vez mais realistas (como os do filme “Titanic”) e simular sistemas cada vez mais complexos (como reações químicas nucleares ou até o “Big Bang”).

    Além disso, formas revolucionárias de computação vem sendo pesquisadas, como a computação quântica e a computação biológica com DNA. Embora experimentais, estas pesquisas vêm mostrando-se bastante promissoras. Talvez possam substituir os chips de silício na próxima década. No caso da computação quântica, os cientistas esperam conseguir manipular átomos, moléculas e suas partículas subatômicas para processar informações. A eletrônica molecular (“moletronics”, como está ficando conhecida) promete construir superchips do tamanho de grãos de areia cem bilhões de vezes mais rápidos que um processador Pentium.

Artigos sobre computação quântica e biológica
http://www.nytimes.com/library/tech/99/07/biztech/
articles/
16compute.html
http://www.nytimes.com/library/tech/99/11/biztech/
articles/
01nano.html
http://www.idg.net/idgns/1999/07/16/Scientists
MakeAdvances
OnMolecularChips.shtml
http://www.sciam.com/1998/0698issue/0698gershenfeld.html
http://www.sciam.com/explorations/091696explorations.html

Centre for Quantum Computation
http://www.qubit.org/

Stanford-Berkeley-MIT-IBM NMR Quantum Computation Project
http://squint.stanford.edu/

    Com a miniaturização cada vez mais acelerada dos microchips, será possível embutir esses dispositivos em todo tipo de objeto -- e também no corpo humano! Em agosto de 1998, o professor Kevin Warwick, da Universidade de Reading, na Inglaterra, implantou cirurgicamente um microchip em seu braço esquerdo. Ondas eletromagnéticas geravam corrente elétrica em uma pequena bobina acoplada ao microchip. Warwick podia então andar pelo seu laboratório e interagir com as coisas ao seu redor (portas eram abertas. O próximo passo de Warwick é implantar um novo chip, mais sofisticado, que seja capaz de “monitorar” seus impulsos nervosos. O pesquisador quer identificar os impulsos nervosos correspondentes às diversas sensações e sentimentos humanos. Em seguida, quer gerar esses impulsos em um computador e introduzi-los em seu sistema nervoso por meio do microchip.


O professor Kevin Warwick em reportagem da revista Wired

página inicial | introdução | de onde vieram | como funcionam | era da informação | referências | créditos