Lógica do Computador

Endender a lógica do computador é fundamental para resolver muitas dificuldades que surgem quando estamos diante da máquina. na verdade, tudo se resume a dois algarismos: 0 e 1

A definição da máquina

Uma das definições de computador diz que ele é uma máquina burra, mas extremamente rápida. Este conceito, embora polêmico, é bastante eficiente para explicar como, de fato ele funciona.

Basicamente, o computador só consegue entender um tipo de informação: números. Mesmo que você digite letras, fale com ele pelo microfone ou inclua imagens que devem aparecer no monitor, ele só entenda essa informações na forma de números.

E, ainda assim, está limitado as algarismos 0 e 1 (zero e um) ou seja, ao sistema binário.

Uma verdade matemática muito importante, porém é que todo e qualquer número pode representado por uma sequência de de zero e uns.

Os avanços tecnológicos permitiram converter imagens, sons, vídeo, texto, além, é claro, dos próprios números, em SISTEMA BINÁRIO. Neste sistema faz com que o computador seja uma máquina extremamente veloz no processamento de dados.

O SISTEMA BINÁRIO

A primeira grande diferença entre o homem e o computador é o método que cada um numera toda e qualquer quantidade . como conhecemos e usamos 10 algarismos (0,1,2,3,4,5,6,7,8,9), o sistema de base 10 é tão familiar que parece a única forma natural, lógica e compreensiva de numeração. Uma tese muito aceita é que nosso sistema de numeração tem base 10, ou seja, é um sistema decimal, , porque temos 10 dedos nas mãos.
Mesmo assim, ele não é o único apesar de ser o mais difundido hoje em dia. De fato, muito antes do surgimento do primeiro computador, os matemáticos ja estudavam a aplicação de sistemas de numeração com base acima e abaixo de 10.

Adotou-se o sistema binário

0 comentários:

Postar um comentário