Claude Elwood Shannon, matemático nascido em Gaylord, Michigan (EUA) em 1916, é creditado com duas importantes contribuições à tecnologia da informação: a aplicação da teoria booleana à comutação electrónica, estabelecendo assim as bases para o computador digital, e o desenvolvimento do novo campo chamado teoria da informação . É difícil exagerar o impacto que Claude Shannon teve no século 20 e a forma como vivemos e trabalhamos nele, mas ele permanece praticamente desconhecido do público em geral. Shannon passou a maior parte da sua carreira, um período de mais de 30 anos de 1941 a 1972, nos Bell Labs, onde trabalhou como matemático dedicado à pesquisa.
Enquanto estudante de pós-graduação no MIT, no final dos anos 30, Shannon trabalhou para Vannevar Bush, que na época estava construindo um computador mecânico, o Analisador Diferencial. Shannon tinha a visão de aplicar a lógica booleana de dois valores aos circuitos elétricos (que poderiam estar em qualquer um dos dois estados - ligado ou desligado). Esse sincretismo de dois campos até então distintos rendeu a Shannon seu MS em 1937 e seu doutorado em 1940.
Não contente com o estabelecimento dos fundamentos lógicos tanto do moderno interruptor telefônico quanto do computador digital, Shannon passou a inventar a disciplina da teoria da informação e a revolucionar o campo das comunicações. Ele desenvolveu o conceito de entropia nos sistemas de comunicação, a idéia de que a informação é baseada na incerteza. Este conceito diz que quanto mais incerteza em um canal de comunicação, mais informação pode ser transmitida e vice-versa. Shannon utilizou a matemática para definir a capacidade de qualquer canal de comunicação para otimizar a relação sinal/ruído. Ele previu a possibilidade de comunicações sem erros para telecomunicações, Internet e sistemas de satélite.
A Mathematical Theory Of Communication , publicada na Bell Systems Technical Journal em 1948, delineia os princípios da sua teoria da informação. A Teoria da Informação também tem ramificações importantes para o campo da criptografia como explicado em seu artigo de 1949 Teoria da Comunicação de Sistemas de Sigilo - em resumo, quanto mais entropia um sistema criptográfico tem, mais difícil a criptografia resultante é quebrar.
Os variados interesses de Shannon na aposentadoria incluíam a invenção de monociclos, bastões de pogo motorizados, e robôs de xadrez e malabarismo - ele desenvolveu uma equação descrevendo a relação entre a posição das bolas e a ação das mãos. Claude Shannon morreu em 24 de fevereiro de 2001.