Los primeros años de su vida los pasó en Gaylord, donde se graduó de la secundaria en 1932. Después ingresó en la Universidad de Míchigan acabando sus estudios universitarios cuatro años después obteniendo los títulos de ingeniero electricista y matemático.
Una vez finalizados sus estudios, en 1936, aceptó la posición de asistente de investigación en el departamento de ingeniería eléctrica en el Instituto de Tecnología de Massachusetts (MIT) donde trabajó en el computdor analógico más avanzado de esa era, el "Differential Analyzer" de Vannevar Bush. En ese momento surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés se dio cuenta de que estos podían usarse para hacer cálculos. En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales.
La investigación de Shannon se basaba en el problema de la transmisión eficiente de la información. Shannon desarrolló un método para expresar la información de manera cuantitativa. La unidad de la información es en sí ninguna situación, algo es o no es. Con la ayuda del álgebra Booleana, de dos valores 0 y 1, se puede explicar de manera sencilla de modo que 1 signifique "ON" cuando el interruptor este cerrado y el circuito este encendido, y 0 significa "OFF" cuando el interruptor este abierto y el circuito este apagado.
En 1940 estudió una maestría en ingeniería eléctrica y se doctoró en filosofía matemática. Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, o Walter Houser Brattain. Durante este período Shannon publicó un desarrollo bajo el nombre de "Una Teoría Matemática de la Comunicación". Uno de los postulados básicos de esta teoría es que la información se puede tratar como una cantidad física mensurable, tal como densidad o masa. La teoría se ha aplicado extensamente por los ingenieros de la comunicación y algunos de sus conceptos han encontrado el uso en psicología y lingüística.
Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia. También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el MIT. Claude Elwood Shannon falleció el 24 de febrero del año 2001, a la edad de 84 años, después de una larga lucha en contra el Alzheimer.