A história da computação começou recentemente para a humanidade, se considerarmos a evolução da espécie. O computador é uma máquina capaz de efetuar cálculos com um grupo de números, armazenar e exibir o que foi computado e, ainda, adaptar-se para efetuar outros cálculos com um novo grupo de números.
A história da computação começou recentemente para a humanidade, se considerarmos a evolução da espécie. O computador é uma máquina capaz de efetuar cálculos com um grupo de números, armazenar e exibir o que foi computado e, ainda, adaptar-se para efetuar outros cálculos com um novo grupo de números. O primeiro "modelo" foi o ábaco, um ancestral do computador, usado desde 2000 a.C.; ainda é encontrado no Japão e em outros países. O ábaco consta de um tabuleiro retangular de madeira, com fileiras de arames nos quais deslizam pequenas bolas, ou argolas, usadas em operações aritméticas, feitas manualmente, movimentando-se as bolas em grupos.
Blaise Pascal, matemático, físico e filósofo francês, inventou a primeira máquina calculadora em 1641, aos 18 anos de idade, talvez para ajudar o pai, que era fiscal de impostos. Pascal chamou a invenção de "pascalina".
Outro "pai" do computador é o matemático inglês Charles Babbage, que nasceu numa rica família inglesa, em 1792. Em 1834, criou uma máquina de calcular analítica que tinha muitas das características dos computadores modernos. Os "programas" eram controlados por cartões perfurados, e os resultados saíam impressos automaticamente. Havia também um "contador" aritmético e dispositivos de memória separados. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provêm dos projetos de Babbage, que é lembrado como um dos fundadores da computação moderna.
Em 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático inglês, Alan Turing, publicou um artigo chamado "On computable numbers" [Sobre números computadorizados]. Embora Turing seja quase desconhecido, sabe-se que ele liderou uma equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da Segunda Guerra Mundial: o Colossus, primeiro computador eletromecânico do mundo, que podia decifrar os códigos alemães durante a guerra.
Depois da guerra, Turing colaborou no projeto do primeiro computador eletrônico dos Estados Unidos, o Eletronic Numerical Integrator and Calculator (Eniac), desenvolvido na Universidade da Pensilvânia, em 1946. Turing era desconhecido porque trabalhava para o serviço secreto inglês.
O desenvolvimento do computador continuou, mas só com a invenção do transistor de silício, em 1947, tornou-se possível aumentar a velocidade das operações na computação. Os transistores substituíram as válvulas, por serem mais rápidos, mais exatos e não gerarem calor.
Em meados da década de 1960, os cientistas observaram que um circuito eletrônico funcionaria de modo igualmente satisfatório se tivesse o tamanho bem reduzido. Os laboratórios começaram experimentando a gravar o circuito num único chip de silício. Antes do fim da década de 1960 nasceu o "circuito integrado". O desenvolvimento de um circuito em um único chip levou, naturalmente, à construção de múltiplos circuitos em um só chip. O resultado da colocação de vários chips juntos é o conhecido microprocessador.
Apesar da pouca semelhança entre a tecnologia do microchip atual e os diversos projetos de Babbage e Turing, pode-se afirmar que a estrutura prática criada por Babbage ainda é utilizada nos microprocessadores atuais. A teoria matemática de Turing, que possibilitou tudo isso, ainda não foi superada.
O computador é, pois, uma máquina que armazena sinais elétricos que representam números. Alguns destes são instruções que dizem ao computador o que fazer com os outros números. A máquina segue essas instruções com exatidão, sem se cansar e sem cometer erros (embora reproduza fielmente os erros do programador); processa milhares de operações por segundo, cujo resultado são mais números, por sua vez "traduzidos" nas informações desejadas e numa forma compreensível. A atividade dos programadores (seres humanos) torna o computador um instrumento útil, explorando sua destreza para realizar tarefas e transformando problemas em soluções.
Os computadores digitais do início do século XXI podem ser comprados em supermercados e se tornaram máquinas populares capazes de realizar um grande número de tarefas, dependendo de como são programados pelos usuários.
Apesar de a informática facilitar a vida do ser humano, ele não pode deixar que as máquinas substituam completamente o seu trabalho, porque o progresso tem de estar a seu serviço e não contra ele.
Nenhum comentário:
Postar um comentário