Digite a palavra-chave

A busca é efetuada em todas as páginas do site e abrange todo o seu conteúdo.
Página principal




ARTIGOS



O COMPUTADOR

A história do homem na Terra é registrada a partir da invenção da palavra escrita pelos sumérios, há 5 mil anos, a primeira civilização a marcar a presença no planeta. Os sumérios, antecessores dos babilônios e os egípcios, viveram na Mesopotâmia, região onde hoje se situa o Iraque.

Além da escrita cuneiforme (marcas feitas em tabletes úmidos de barro, depois secadas ao sol), os sumérios inventaram a cerveja; introduziram entre outros o conceito de que o homem foi criado à imagem dos deuses; iniciaram a fabricação dos primeiros instrumentos agrícolas; promoveram as primeiras tentativas de organização de cidades, inclusive estabeleceram as regras iniciais do cooperativismo.

A escrita, em seu sentido de fixação de símbolos para representar os sons vocais, surgiu então há 5 mil anos com os sumérios, mas o homem só aprendeu a fazer contas há cerca de 4 mil anos, quando os mercadores da Mesopotâmia desenvolveram o primeiro sistema científico para contar e acumular grandes somas. Os mercadores utilizavam sementes secas (contas) para encher sulcos na areia. A palavra “contar” se origina dessas contas e a primeira máquina de contar foi o “ábaco”, aparentemente inventado pelos chineses.

Antes do processo de contas e sulcos dos mercadores da Mesopotâmia, os pastores controlavam o número de ovelhas fazendo corresponder igual número de pedras (pedra, em latim, é “calculus”, daí a origem de “calcular”).

O conceito do zero só apareceu 600 atrás, na Índia, uma contribuição dos hindus.

Têm pouco mais de mil anos os algarismos que hoje conhecemos como algarismos arábicos, divulgados pelos árabes, mas criados pelos hindus. O sucesso dos algarismos arábicos não se deve a sua simplicidade, mas ao então poderio militar dos árabes. Até o ano de 1432, enquanto dominou o Império Romano, prevaleceu o padrão dos algarismos romanos. Os egípcios e os gregos também adotaram forma própria de contar, que, assim como a forma romana, eram letras que assumiam as funções de números.

A palavra Aritmética se origina da palavra grega para número (“arithmos”), enquanto a palavra capital, hoje conceito de riqueza ou de patrimônio, se origina da palavra latina “capita” (cabeça), em razão do conceito de patrimônio expresso por cabeças de rês ou vaca.

Blaise Pascal, em 1642, construiu o primeiro instrumento moderno de calcular, a primeira máquina de computar: uma somadora, a qual, aperfeiçoada por diversos inventores, teve uma vida útil de quase 200 anos.

Joseph-Marie Jacquard inventou, em 1801, o processo de cartões perfurados (“punching cards”) para execução de operações em sequência programada, aplicado inicialmente na indústria têxtil. A leitura dos cartões viabilizou o tear automático. Por longo 150 anos, o mundo utilizou o processo de cartões perfurados, o qual teve decisiva influência no ramo da computação, como processo de alimentação de dados de um computador.

Mas, além da alimentação de dados (papel dos cartões perfurados), um computador, tal como conhecemos hoje, necessita de uma unidade de memória (onde os números são armazenados e podem ser reutilizados), assim como necessita de um sistema operacional (o conjunto de programas que são iniciados quando o computador/”hardware” é ligado: o “boot”).

Coube a Charles Babbage, em 1834, formatar o primeiro projeto de aparelho funcionando nas bases de um computador atual (unidade de memória, sistema operacional e alimentação de dados).

Herman Hollerith, em 1887, juntou duas coisas que já existiam: os cartões perfurados (de Jacquard); e os impulsos elétricos para a transmissão de dados (de Samuel Morse, o inventor do telégrafo, que transforma letras e números em sinais elétricos). O cartão perfurado de Hollerith ganhou fama mundial em 1890, quando os Estados Unidos o utilizaram, com êxito, para realizar um recenseamento. O cartão perfurado de Hollerth permitiu a transferência de dados para máquinas, as quais puderam recebê-los, processá-los e tabulá-los, substituindo estafante trabalho humano.

O grande salto da ciência da computação ocorreu durante a Segunda Guerra Mundial (1938/1945); o objetivo da vitória forçou e apressou importantes avanços tecnológicos.

Quem introduziu a aplicação do termo computador ? O jornal inglês London Times, em 1944, ocasião em que publicou matéria em que se referiu a uma hipotética máquina pensante, que chamou de “computer”.

No início da Segunda Guerra Mundial, os nazistas criaram o “ENIGMA” (máquina para cifrar mensagens), ao passo que, em 1941, os ingleses montaram o “COLOSSUS” (máquina para resolver questões de criptografia).

Os americanos lançaram, em 1946, o ENIAC, financiado pelas Forças Armadas dos EUA; eles americanos consideram o ENIAC o primeiro computador.

A IBM, que nasceu em 1911 e que também reivindica participação na invenção do primeiro computador moderno, construiu entre 1939 e 1944 o Harvard “Mark I”, talvez a maior máquina calculadora já construída (20 metros de comprimento por 3 metros de altura, além de 750 mil componentes). Após a Segunda Guerra Mundial, a IBM lançou, cada vez mais, versões avançadas de computadores desenvolvidos para a gestão de negócios.

O que é, enfim, um computador ? Para a Microsoft, é qualquer máquina capaz de fazer três coisas: aceitar uma entrada estruturada; processá-la de acordo com regras preestabelecidas e produzir uma saída com os resultados. Um computador faz, por outras palavras, um processamento eletrônico de dados, que envolve três etapas: entrada de dados (alimentação); tratamento dos dados; e saída.

Atualmente os computadores podem ser classificados como sendo: um supercomputador, um mainframe; um processador RISC; ou um microcomputador.

O valor de um microcomputador está em sua configuração, que é o conjunto de dispositivos que o compõem: processador, “clock”, memória e periféricos (periféricos de entrada: teclado, “mouse”, “scanner”, caneta ótica, mesa digitalizadora, microfone, “joys-tick”; periféricos de saída: impressora, plotter, alto-falante; periféricos de entrada e saída ou E/S: conjunto de teclado e monitor, placa fax/modem, disco rígido).

O processador ou microprocessador hoje é um “chip” ou circuito integrado que controla todo o processamento de dados, desde a sua entrada até a saída; a capacidade de processamento é definida em medida de informação (hoje MB): 1 byte corresponde a 1 caractere (ou seja, 1 byte é o espaço da memória onde podemos armazenar 1 caractere); 1 kilobytes corresponde a 1.024 bytes; 1 MB - megabyte corresponde a 1.024 kilobytes; 1 GB - gigabytes corresponde a 1.024 megabytes.

O “clock”, uma das características do processador, é um circuito eletrônico que dá a velocidade do processamento, medida em MHz – megahertz (l milhão de ciclos por segundo, ou seja, um microprocessador de 600 MHz pode fazer 600 milhões de operações aritméticas em 1 segundo). Um computador com “clock” mais rápido que outro não tem necessariamente mais rapidez nas operações, pois há muitos outros fatores, incluindo o “software” (sistema operacional, compiladores, etc.).

A memória pode ser a memória ROM (a memória que trabalha com informações fixas e permanentes, provenientes do sistema) e a memória RAM (a memória que trabalha com informações temporárias, provenientes de operações comandadas pelo usuário); a capacidade da memória também é definida em medida de informação (hoje MB).

A menor unidade de informação tratada pelo computador é o “bit” (acrônimo de binary digit, ou dígito binário), base de toda a linguagem usada pelos computadores. Essa linguagem é calcada no sistema binário (ou de base dois), que usa só dois dígitos (o 0 e o 1), seja para representar qualquer número, seja para representar qualquer coisa que precise ser informada a um computador (uma letra, um sinal, uma cor, etc.). Para ser interpretada pelo sistema do computador, cada informação é transformada em um código binário.

Cada “byte” é composto por oito “bits”, que podem ser arranjados de 256 formas diferentes; cada arranjo representa um caractere. Essa forma de 256 arranjos é a utilizada pela IBM, mas a forma mais popular atualmente chama-se ASCII, de 128 combinações.

O “chip” ou circuito integrado é uma placa minúscula com uma batelada de minúsculos transistores, cada um com a mesma função do transistor original: transferir ou reter a corrente elétrica.

A IBM lançou em 1981 o IBM-PC. A IBM liberou a tecnologia do IBM-PC, de sorte que outras empresas (Compaq, Toshiba, Dell, HP) passaram a fabricar micros compatíveis com o IBM-PC. A IBM também permitiu que qualquer empresa de “software” desenvolvesse programas para o IBM-PC.

O sistema operacional utilizado pelo IBM-PC e todos micros compatíveis com ele é o Windows, a partir de 95; antes, era o MS-DOS e o Windows de então era só um aplicativo. O Windows e o MS-DOS são softwares desenvolvidos pela Microsoft, fundada em 1975 por Bill Gates, que se tornou mais rico que a própria IBM e mais rico que a Apple.

A Apple começou a fabricar micros antes da IBM, com tecnologia própria e sem liberar essa tecnologia para nenhum outro fabricante. Os micros da IBM-PC e compatíveis ganharam um mercado muito mais amplo.

Existiram sistemas operacionais bem antigos e anteriores à Microsoft. Entre os sistemas operacionais ora com muito uso, destacam-se o NT (da Microsoft), o UNIX (usado nas universidades americanas) e o LINUX.

Em 1979, surgiu a primeira planilha eletrônica de cálculo, o VisiCalc, que veio a ressaltar a utilidade prática do microcomputador.

Os micros IBM-PC e compatíveis, assim como os micros da Apple têm modelos chamados de “desktop” (micros de mesa) e modelos portáteis chamados de “notebook” ou “laptop” (nas coxas, no colo).

A Osborne Computers lançou em 1981 o primeiro “laptop”, de 12 quilos; mais recentemente, apareceu o “palmtop” (que cabe na palma da mão).

O Brasil incorporou ao seu dicionário a palavra informática, criada pelos italianos e nascida da junção de informazione (palavra italiana) com matemática; informática designa hoje a ciência que trata a informação de modo racional e automatizado.

A INTERNET

A história da Internet começa com a criação, por volta de 1957, pelo presidente americano Eisenhower, da Advanced Research Projects Agency (ARPA), subordinada ao Ministério da Defesa. A ARPA teria como objetivo desenvolver mecanismos defensivos mais avançados tecnologicamente. A ARPA recrutou cientistas e cérebros pensantes das universidades; esse seleto grupo, desde cedo, sentiu a necessidade de introduzir uma forma de comunicação entre seus membros, para a troca de informações, daí surgindo a idéia de interligação através de grandes computadores; assim, alguns membros desse grupo concentraram seus esforços no ramo da transmissão eletrônica de dados.

Em 1962, John Licklider, cientista e chefe do departamento de Computação do MIT, mostrou a viabilidade da criação de uma Rede Galáctica (galáxia vem do grego galaktos, ou leite; os gregos achavam que a brancura dos astros à noite lembrava o leite). Licklider sugeriu que a Rede Galáctica poderia interagir milhões de sistemas de computação, sem perder a individualidade.

O cientista Leonard Kleinrock, da ARPA, apoiou a idéia de Licklider, esclarecendo Kleinrock que essa idéia se encaixava com seu próprio conceito de transmissão, conceito que veio a ser a base de proposta formulada por Paul Baran para a defesa do arsenal de bombas e mísseis dos EUA, em caso de ataque nuclear. Baran apresentou a solução de repartir em pedaços uma informação inteira, cada pedaço sendo armazenado em um computador.

Como resultado de nove anos de pesquisa, o cientista Leonard Roberts, sucessor de Licklider na ARPA, apresentou em 1967 o Plano para a Arpanet e, em setembro de 1969, um sistema permitiu que os modems de dois computadores remotos pudessem se comunicar e transmitir dados com a rapidez necessária.

Para facilidade da Arpanet, já existia desde 1960, desenvolvido pela AT&T, o sistema de transmissão conhecido por modem (o modem transforma dados digitais em sinais analógicos, transmite esses sinais analógicos por cabos telefônicos e, por fim, reconstitui os sinais no formato digital original).

Em outubro de 1972, a ARPA apresentou a Arpanet ao público em geral no 1º Congresso Internacional de Computadores e Comunicação, em Washington, através de uma demonstração prática que interligava 40 computadores em pontos diferentes do território americano. Ainda em 1972, a ARPA apresentou um aplicativo que, instalado dentro da Arpanet, permitia o envio de mensagens individuais, de pessoa para pessoa (e-mail). O engenheiro Ray Tomlinson foi quem desenvolveu esse aplicativo.

Em 1974, uma equipe de cientistas, liderada por Vinton Cerf, apresentou o documento “Transmission Control Protocol/Internet Protocol”, regras básicas para a unificação da linguagem de todos os sistemas conectados em rede. Em 1982, a Arpanet passou a usar o Protocolo Internet em suas comunicações, em caráter de exclusividade. Em 1983, a rede passou a chamar-se simplesmente Internet.

Em 1982, acadêmicos europeus lançaram a Eunet, uma versão da Arpanet.

Em 1981, o governo americano criou a rede NSFnet, para ser usada por escolas e universidades que, por qualquer motivo, não tivessem acesso à Arpanet. A NSFnet era um serviço gratuito, mas não poderia ser usado para fins comerciais.

Para atender as finalidades comerciais, apareceram as empresas provedoras e a World Wide Web, a rede mundial independente em relação ao circuito acadêmico e às organizações militares.

Em 1986, a Universidade de Case, em Cleveland, criou a FreeNet, a primeira rede de acesso público e livre à Internet.

Tim Berners-Lee criou, em 1989, na Suíça, o programa que deu vida à WWW – World Wide Web. Tim criou o hipertexto (http – hypertext transfer protocol), permitindo que textos e figuras sejam transferidos e captados por qualquer computador.

Em 1992, apareceu o primeiro “browser”, que viabiliza o acesso à rede através do “mouse”, dispensando os códigos de programação.

William Gibson, que em 1984 escreveu “Neuromancer”, inventou a palavra “cyberspace”, o espaço virtual onde os dados flutuam da origem ao destino, o espaço da Internet.

No Brasil, somente em 1994 surgiu o primeiro provedor, mas entramos na Internet em 1988 por intermédio da Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) e do Laboratório Nacional de Computação Científica (LNCC).

Em 1988, o estudante de computação Robert Morris Jr. colocou no ar o primeiro vírus (Verme da Internet, Internet Worm). Os bagunceiros do espaço virtual passaram a ser conhecidos como “hacker” (em inglês, o verbo “hack” significa fazer picadinho, o que quer dizer que um “hacker” é uma espécie de reencarnação virtual de Jack, o Estripador).

ABC & ENIAC

“Eckert e Mauchly não inventaram primeiro o computador eletrônico digital, mas em vez disso derivaram essa obra do dr. John Vincent Atanasoft”, sentenciou em 1973 o juiz Earl R. Larson.

J. Presper Eckert e John Mauchly construíram o “Electronic Numerical Integrator and Computer (ENIAC), apresentado em 1946.

Mas, antes, Atanasoft e Clifford Berry construíram, na “Iowa State University”, o “Atanasof-Berry Computer (ABC), concluído em 1942.

Atanasoft, falecido em 1995, concebeu o princípio binário, com os números 1 e 0, base da computação moderna.

A Sperry Rand Corp. adquiriu a UNIVAC, empresa de Eckert e Mauchly, e passou a cobrar “royalties” de todas as empresas de computação. Os direitos da Sperry Rand, se confirmados, expirariam somente em 1981. Mas com a decisão do juiz Larson, a indústria da computação pôde prosperar sem as cargas pesadas dos “royalties”.

A indústria do PC começou com o “Altair Kit”, em 1974, e alcançou vôo com o “Apple 2”, em 1977.

O livro “Who Invented the Computer ? The Legal Battle That Changed Computing History”, de Alice Rowe Burks, pesquisadora, é uma peça de divulgação da causa de Atanasoft, o qual, apesar de decisão favorável da Justiça, ainda não é totalmente reconhecido como o inventor solitário do computador, tal como Thomas Edison é o inventor da energia elétrica e Graham Bell, da linha telefônica. A história de Atanasoft evoca a de Philo T. Farnsworth, o inventor pouco conhecido da televisão.

***

MICRO – O computador pessoal (modelo IBM-PC), anunciado em 12.08.81, fez 20 anos. A IBM, assim como a Intel (“chip”) e a Microsoft (sistema operacional MS-DOS) comemoram o aniversário.

O primeiro computador era composto de um “chip” da Intel (o 8088) que processava informações à velocidade de 4,77 MHz; tinha 16 Kbytes de memória RAM. Hoje, o Pentium 4 processa informações com velocidade variando de 1,3 a 1,8 GHz; o equipamento básico tem memória de 64 Mbytes. A versão 1.0 do editor de textos “Word” para MS-DOS surgiu em 1983.

“Eckert e Mauchly não inventaram primeiro o computador eletrônico digital, mas em vez disso derivaram essa obra do dr. John Vincent Atanasoft”, sentenciou em 1973 o juiz Earl R. Larson.

J. Presper Eckert e John Mauchly construíram o “Electronic Numerical Integrator and Computer (ENIAC), apresentado em 1946.

Mas, antes, Atanasoft e Clifford Berry construíram, na “Iowa State University”, o “Atanasof-Berry Computer (ABC), concluído em 1942.

Atanasoft, falecido em 1995, concebeu o princípio binário, com os números 1 e 0, base da computação moderna.

A Sperry Rand Corp. adquiriu a UNIVAC, empresa de Eckert e Mauchly, e passou a cobrar “royalties” de todas as empresas de computação. Os direitos da Sperry Rand, se confirmados, expirariam somente em 1981. Mas com a decisão do juiz Larson, a indústria da computação pôde prosperar sem as cargas pesadas dos “royalties”.

A indústria do PC começou com o “Altair Kit”, em 1974, e alcançou vôo com o “Apple 2”, em 1977.

O livro “Who Invented the Computer ? The Legal Battle That Changed Computing History”, de Alice Rowe Burks, pesquisadora, é uma peça de divulgação da causa de Atanasoft, o qual, apesar de decisão favorável da Justiça, ainda não é totalmente reconhecido como o inventor solitário do computador, tal como Thomas Edison é o inventor da energia elétrica e Graham Bell, da linha telefônica. A história de Atanasoft evoca a de Philo T. Farnsworth, o inventor pouco conhecido da televisão.

Brasil

Apenas 12,46% dos brasileiros têm computador em casa, e 8,31% estão conectados à internet, diz o “Mapa da Exclusão Digital”, baseados em dados de 2001, divulgado em 10.04.2003 pela Fundação Getúlio Vargas (FGV). Os “informatizados” passaram de 17,3 milhões, em 2000, para 26,7 milhões (15,43% da população), em março de 2003, estima a FGV. O Brasil subiu do 38º lugar, em 2001, para o 29º lugar, em 2002, no rol dos países mais informatizados.

Quanto maior a escolaridade, maior o acesso ao computador: 58,9% dos “informatizados” e 46,8% das pessoas com internet têm mais de 12 anos de estudo. O perfil dos “informatizados” é o seguinte: morador de uma grande cidade, idade entre 40 e 50 anos, renda superior à média da população (R$ 1.677,00) e com mais de 12 anos de estudo formal.

O computador melhora o rendimento do estudante, um diferencial de competitividade, diz Marcelo Neri, coordenador do Centro de Políticas Sociais da FGV.

***

CHIPS MOLECULARES – Observe-se a história: em 1979, lançamento do primeiro “modem” para computadores pessoais; em 1981, a IBM lança seu primeiro computador pessoal baseado no “chip” Intel 8088 com 29 mil transistores; em 1983, a Microsoft anuncia a versão 1.0 do editor de textos Word for MS-DOS; em 1984, a Apple lança o MacIntosh; em 1985, a Intel lança o “chip” 386 com 275 mil transistores; em 1988, a Intel lança o “chip” 486 com 1,2 milhão de transistores; em 1989, Timothy Berners-Lee, cientista inglês, desenvolve a “worldwide web”; em 1993, a Intel lança o “chip” Pentium com 3,1 milhões de transistores (66 Mhz); em 1994, Dieter Seitzer, alemão, inventa o MP3 (sons e imagens em arquivos para serem baixados da internet, surgindo em 1997 o site MP3.com, um grande banco de músicas, e em 1999 o Napster); em 1997, a Intel lança o “chip” Pentium II com 7,5 milhões de transistores; em 1999, a Intel lança o Pentium III com 9,5 milhões de transistores (500 MHz); em 2000, a Intel lança o Pentium IV (1,5 GHz); em 2004, a Intel lança o Pentium IV (3,6 GHz).

Hertz é a unidade usada para medir a velocidade de um “chip”. Um “chip”de 1 quilohertz pode fazer até 1.000 operações por segundo. Outro de 1 gigahertz pode fazer até 1 bilhão de operações por segundo. O primeiro “chip” (Processador 4004), lançado em 1971, abrigava cerca de 2.000 transistores e funcionava numa frequência de 400 KHz. O Processador 286, lançado em 1982, passou a funcionar numa frequência de 12 MHz.

A Intel anunciou o cancelamento de uma nova versão do Pentium IV com frequência de 4 gigahertz. A nova versão exigiria um sistema de refriamento mais complexo e, em consequência, baterias maiores. Os “chips”, feitos com circuitos cada vez menores (minuaturizados), passam a esquentar mais (Veja, São Paulo, n. 1878, 03 nov. 2004, p. 64).

A INTEL e a “Advanced Micro Devices – AMD” detêm, juntas, mais de 90% do mercado global de “chips” de computadores. A INTEL tem a liderança com pouco mais de 80% de participação. O microprocessador é o item de custo com mais peso na montagem de um PC. Na média, o preço do “chip” equivale a cerca de 10% do custo final do computador, diz Elber Mazaro, diretor de “Marketing” da INTEL no Brasil (Forbes Brasil, São Paulo, n. 109, 22 abr. 2005, p. 14).

A Intel anunciou o lançamento de sua nova linha de ´chips´, a ´Core 2 Duo´, destinada a suceder o ´Pentium´ (3,1 milhões de transistores), lançado em 1993 substituindo, por sua vez, o processador ´486´, de 1988. Com dois processadores num único ´chip´ (´chips´ binucleares), o ´Core 2 Duo´ torna o desempenho do computador cerca de 40% mais veloz, bem como permite ao usuário executar com eficiência vários programas ao mesmo tempo, além de outras vantagens, como economia de 40% no consumo de energia, mesmo contando com 291 milhões de transistores. Pode ter velocidade de até 2,93 GHz. Os primeiros ´Pentiums´ tinham velocidades de 66 MHz e 60 MHz (Diário do Nordeste, Fortaleza, 07 ago. 2006, Negócios, p. 5).

***

O primeiro computador da história foi o Anticítera, datado de 87 a.C.(encontrado em 1900 na costa da ilha grega do mesmo nome), artefato movido por mais de 30 engrenagens de bronze, capaz de realizar tarefas sofisticadas como registrar informações sobre as fases da lua, os movimentos do sol e dos planetas (Isto È, São Paulo: Três, 1937, 06 dez. 2006, p. 59).