Los códigos Bidi son una representación de información interpretable por una máquina, en formato visual. El sistema de códigos Bidi te permite acceder fácilmente desde el móvil a una gran cantidad de servicios y contenidos de la web, recibir información adicional sobre un producto. El tipo de información que tienen es binaria y su disposición consiste en la sucesión de cuadros blancos (0) y negros (1) sobre una superficie bidimensional.
Los Bidi se originaron para solucionar un problema muy concreto generado por la complejidad de los caracteres tipográficos japoneses. En sus primeros años fueron utilizados en labores de logística, transporte y clasificación de mercancía. Los códigos Bidi se están incorporando de forma global en el resto de países del mundo, impulsados por los operadores de red. Ejemplo de esto es el acuerdo que han hecho Bems una empresa española especializada en la comercialización de soluciones basadas en códigos Bidi y Telefónica Internacional para impulsar los códigos Bidi en 12 de los países en los que la Compañía opera en América Latina.
En España, el primer sector en desarrollar esta tecnología ha sido el de telefonía móvil. En el 2008 Movistar fue la primera en ofrecer este servicio. Pero las empresas editoriales también han comenzado a implantar los códigos 2D. Es el caso de la revista “Cuore”, que incluye en sus reportajes un Bidi que permite descargar un vídeo sobre el tema tratado. También las administraciones públicas están estudiando la forma de utilizar los Bidis para la identificación personal y otros trámites administrativos. Otra experiencia en el uso de Bidis es la llamada “ciberentrada” móvil que desarrollaron Movistar y La Caixa, mediante la cual se podía acceder al cine con una entrada recibida en el móvil en forma de código 2D.
La información, para ser transmitida, necesita ser adaptada al medio de transmisión. Para ello, generalmente, será preciso codificarla de tal forma que pueda asegurarse una recepción adecuada y segura. Si tenemos la información en un determinado alfabeto fuente y queremos transformarla en otro alfabeto destino, podemos definir codificación como a la realización de dicha transformación, siendo el código la correspondencia existente entre cada símbolo del alfabeto fuente y cada conjunto de símbolos del alfabeto destino.
El código de Baudot, denominado así por su inventor Émile Baudot, es un juego de caracteres predecesor del EBCDIC y del ASCII y fue originalmente utilizado sobre todo en teletipos.
El código original de Baudot, desarrollado alrededor del año 1897, se conoce como Alfabeto Internacional de Telegrafía Nº 1, y en la actualidad ya no está en uso. Se utilizaba un teclado de cinco teclas donde cada tecla representaba un bit de la señal de cinco estados. Un limpiador mecánico exploraba el estado del teclado y liberaba las teclas permitiendo que el operador introdujera el carácter siguiente.
Alrededor del 1901, fue modificado por Donald Murray que reordenó los caracteres, agregando otros nuevos así como códigos de control. Este reordenamiento fue propiciado por el desarrollo de un teclado parecido al de una máquina de escribir. Entonces la disposición de los bits fue disociada de las teclas del operador. Murray arregló su código de modo que los caracteres más usados produzcan la menor cantidad de cambios de estado, lo que reducía al mínimo el desgaste en el equipo.
Otra modificación del código de Murray que fue fomentada sobre todo por Western Unión consistió en el descarte de algunos caracteres. Esta modificación final es la que se conoce generalmente como el código de Baudot, también conocido como Alfabeto Internacional de Telegrafía Nº 2 (ITA2). El ITA2 todavía se utiliza en teléfonos para sordos, en radioaficionados, y en RTTY (radioteletipo).
El código ASCII consiste en una tabla numérica que asocia un código numérico de 7 bits consecutivos, el código binario formado por unos y ceros, a cada una de las letras, números y otro tipo de caracteres (signos de puntuación, símbolos, caracteres especiales, etc.). Esta codificación es la que permite trabajar con ordenadores y que éstos se comuniquen entre ellos, mediante dicho código binario.
Los primeros usos del código binario se atribuyeron a las comunicaciones de larga distancia de Samuel Morse, a la telegrafía en general y a los avances de Bell. Éste último había puesto en marcha un código de 6 bits. En la década de 1960, el código ASCII (American Standard Code for Information Interchange) pasó a ser el nuevo estándar. Fue creado en 1963 por el Comité Estadounidense de Estándares y estuvo basado en el alfabeto latino. Más tarde, en 1967, se incluyeron las minúsculas, y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII. Fue actualizado por última vez en 1986.
El código ASCII utiliza 7 bits para representar los caracteres aunque a menudo se llama incorrectamente ASCII a códigos de caracteres de 8 bits. Como por ejemplo, el estándar ISO-8859-1, una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados en idiomas distintos al inglés, como el español.
Muchos de los caracteres de control ASCII servían para marcar paquetes de datos o para controlar protocolos de transmisión de datos. También idearon los caracteres de separación para su uso en sistemas de cintas magnéticas. En la actualidad define códigos para 33 caracteres no imprimibles que tienen efecto sobre cómo se procesa el texto, más otros 95 caracteres imprimibles que les siguen en la numeración. En total, 127 mas el carácter espacio.
Otros órganos de estandarización han publicado códigos de caracteres que son idénticos a ASCII. Estos códigos de caracteres reciben a menudo el nombre de ASCII, a pesar de que ASCII se define estrictamente solamente por los estándares ASA/ANSI.
El código ASCII es utilizado por multitud de sistemas informáticos actuales para representar textos para el control y gestión de dispositivos que hacen uso del texto. Por ejemplo, el teclado. Es un método que gracias a cadenas de bits y una serie de símbolos, permite la comunicación, procesado y almacenamiento entre dispositivos digitales. El nombre más apropiado para este código de caracteres es US-ASCII.
El codificador rotatorio, también llamado codificador de eje, suele ser un dispositivo electromecánico usado para convertir la posición angular de un eje a un código digital, lo que lo convierte en una clase de transductor.Hay dos tipos principales: absoluto y relativo.
El tipo absoluto produce un código digital único para cada ángulo distinto del eje. Se corta un patrón complejo en una hoja de metal y se pone en un disco aislador, que está fijado al eje. También se coloca una fila de contactos deslizantes a lo largo del radio del disco. Mientras que el disco rota con el eje, algunos de los contactos tocan el metal, mientras que otros caen en los huecos donde se ha cortado el metal. La hoja de metal está conectada con una fuente de corriente eléctrica, y cada contacto está conectado con un sensor eléctrico separado. Se diseña el patrón de metal de tal forma que cada posición posible del eje cree un codigo binario único en el cual algunos de los contactos esté conectado con la fuente de corriente (es decir encendido) y otros no (apagados). Este código se puede leer por un dispositivo controlador, tal como un microprocesador, para determinar el ángulo del eje.
El codificador rotatorio relativo (también llamado codificador incremental) se utiliza cuando los métodos de codificación absolutos sean demasiado incómodos (debido al tamaño del disco modelado). Este método también utiliza un disco unido al eje,pero este disco es mucho más pequeño marcado con una gran cantidad de líneas de la parte radial como los radios de una rueda. El interruptor óptico, parecido a un fotodiodo, genera un pulso eléctrico cada vez que una de las líneas pase a través de su campo visual. Un circuito de control electrónico cuenta los pulsos para determinar el ángulo con el cual el eje da vuelta.
Estos dispositivos se utilizan en robótica, en lentes fotográficas de última generación, en dispositivos de entrada de ordenador (tales como el ratón y el Trackball), y en plataformas de radar rotatorias.
MPEG-2 es el nombre que denota un grupo de estándares normalizados de codificación de audio y vídeo y que mejora la anterior codificación utilizada MPEG-1 La innovación que presenta esta codificación es la introducción del concepto de "flujos de transporte",utilizados en las transmisiones televisivas, que se usan para transmitir vídeo y audio digital por medios inestables. Estos flujos están formados por una serie de cuadros con imágenes codificadas. La codificación se divide en dos partes: audio y vídeo.
En la codificación de vídeo la imagen se divide en dos partes, luminancia y croma, que a su vez se subdividen en unidades básicas llamadas macrobloques. Cada macrobloque está formado en 8x8 bloques de luminancia, de los cuales el número de bloques croma depende del formato de color de la fuente. Asimismo cada imagen es correlacionada con la imagen anterior y tratada mediante un proceso de codificación.
En la codificación de audio se introducen nuevos métodos de codificación como la Baja tasa de bits de codificación con tasas de muestreo divididas y la codificación multicanal de hasta 6 canales.
El chipset es el conjunto de chips que se encarga de controlar algunas funciones concretas del ordenador, como la forma en que interacciona el microprocesador con los diversos tipos de memoria, o el control de los puertos y slots ISA, PCI, AGP, USB...
El chipset de una placa base es un conjunto de chips cuyo número varía según el modelo y que tiene como misión gestionar todos los componentes de la placa base tales como el micro o la memoria; integrando en su interior las controladoras encargadas de gestionar los periféricos externos a través de interfaces como USB, IDE, serie o paralelo. El chipset controla el sistema y sus capacidades, es el encargado de realizar todas las transferencias de datos entre los buses, la memoria y el microprocesador, por ello es casi el "alma" del ordenador. Dentro de los modernos chipset se integran además distintos dispositivos como la controladora de vídeo y sonido, que ofrecen una increíble integración que permite construir equipo de reducido tamaño y bajo coste.
Una de las ventajas de disponer de todos los elementos que integra el chipset, agrupados dentro de dos o tres chips, es que se evitan largos períodos de comprobación de compatibilidades y funcionamiento. Como inconveniente nos encontramos con que el chipset no se puede actualizar, pues se encuentra soldado a la placa.
Antes estas funciones eran relativamente fáciles de realizar y el chipset tenía poca influencia en el rendimiento del ordenador, por lo que éste era un elemento poco importante o influyente a la hora de comprar una placa base. Pero los nuevos microprocesadores, junto al amplio espectro de tecnologías existentes en materia de memorias, caché y periféricos que aparecen y desaparecen continuamente, han logrado aumentar la importancia del chipset.
El Chipset es el que hace posible que la placa base funcione como eje del sistema, dando soporte a varios componentes e interconectándolos de forma que se comuniquen entre ellos haciendo uso de diversos buses. Es uno de los pocos elementos que tiene conexión directa con el procesador, gestiona la mayor parte de la información que entra y sale por el bus principal del procesador, del sistema de vídeo y muchas veces de la memoria RAM.
En el caso de los computadores PC, es un esquema de arquitectura abierta que establece modularidad: el Chipset debe tener interfaces estándar para los demás dispositivos. Esto permite escoger entre varios dispositivos estándar, por ejemplo en el caso de los buses de expansión, algunas tarjetas madre pueden tener bus PCI-Express y soportar diversos tipos de tarjetas con de distintos anchos de bus (1x, 8x, 16x).
En el caso de equipos portátiles o de marca, el chipset puede ser diseñado a la medida y aunque no soporte gran variedad de tecnologías, presentará alguna interfaz de dispositivo. Tanto los chips de los Atari de 8 bits como los del Amiga tenían como diseñador a Jay Miner, por lo que algunos lo consideran el precursor de la moderna arquitectura utilizada en la actualidad.
La idea de circuito integrado nace de la necesidad de reducir los circuitos eléctricos a uno mucho más sencillo y pequeño. Gracias a ellos, se evitaron la multitud de problemas que se daban a la hora de fabricar un circuito, como por ejemplo, que alguna de las miles de soldaduras que había que realizar estuviera defectuosa, o la reducción del espacio que ocupaban las válvulas de vacío, las cuales se vieron rápidamente obsoletas gracias a las mejoras que supuso la introducción de los circuitos integrados.
Actualmente se utilizan en prácticamente todas las tecnologías. Básicamente, los circuitos integrados, también llamados "chips", son una pequeña pastilla de material semiconductor sobre la que se integran circuitos en miniatura y se protegen con encapsulados de plástico, cerámica o metal.
El creador del primer circuito integrado, fue el ingeniero electrónico estadounidense Jack Kilby, en el año 1959, pocos meses después de ser contratado por Texas Instruments. Se trataba de un dispositivo que integraba seis transistores sobre una misma base semiconductora para formar un oscilador de rotación de fase. A los 77 años, en el año 2000, Kilby fue galardonado con el Premio Nobel de Física por su contribución al desarrollo de la tecnología de la información.
Sin embargo, si se habla de creadores del circuito integrado, no hay que olvidar mencionar a Werner Jacobi, ingeniero alemán que completó la primera solicitud de patente para circuitos integrados con dispositivos amplificadores de semiconductores. Otro de los nombre importante es el del científico estadounidense Robert Noyce, cofundador de Intel y la empresa Fairchild Semiconductor, quienes lanzaron al mercado otro circuito integrado poco después del de Texas Instruments.
El kinetoscopio es un sistema de visionado individual de imágenes compuesto de una caja de madera de poco más de un metro de altura con un orificio en la parte superior con una lente. Para ver la película se debía girar una manilla y así giraban la serie de rodillos por los que corría el rollo de película con la imágenes que, junto con una lámpara eléctrica, permitían la proyección de las fotografías en la lente. Su mecanismo difería del de un proyector ya que es necesario mirar a través de una mirilla para ver las imágenes generadas por el movimiento del celuloide.
Fue inventado por Thomas Edison, quien se inspiró en una de las visitas a Eadweard Muybrigde, el cual soñaba con la elaboración de una máquina que pudiera emitir sonidos e imágenes a la vez. En este diseño ya incluía el fonógrafo, inventado años atrás también por Edison. Así nació el kinetoscopio, del griego “kineto” (movimiento) y “scopos” (ver).
Los experimentos iniciales para su desarrollo estaban basados en el fonógrafo, así una secuencia de fotografías sobre las que al girar en un cilindro se proyectaba una luz dando sensación de movimiento. Edison no contento con la practicidad del mismo viajó a Francia donde tras conocer el cronofotógrafo, de Etienne-Jules Marey, el cual usaba rollos de fotos más largos y anchos y así con la llegada de la película de celuloide, inventada por la Eastan Company, se consiguió que en 1890 el kinetoscopio estuviese listo y en 1891 patentado.
A mediados de los 1890 ya, en fiestas de carnavales y atracciones, nacieron las salas de kinetoscopio, en las que por una moneda de cinco centavos mostraba películas de unos veinte segundos: bailes, payasos, copias teatrales... .
Edison pudo dar así comienzo a la industria del cine. Pero dado que no realizó la patente del mismo de manera internacional, la creación del cinematógrafo y de la industria del cine tendía lugar en Europa de mano de los hermanos Lumiére.
El Cinemascope fue inventado por Henry Chretien bajo el nombre Anamorphoscope. Pero fue rebautizado como Cinemascope por la productora 20th Century Fox al comprar las lentes anamórficas especiales con que rodar las primeras producciones.
El Cinemascope es un sistema de filmación caracterizado por el uso de imágenes amplias en las tomas de filmación, logradas al comprimir una imagen normal dentro del cuadro estándar de 35mm, para luego descomprimirlas durante la proyección logrando una proporción que puede variar entre 2,66 y 2,39 veces más ancha que alta. Esto se lograba con el uso de lentes anamórficos especiales que son instalados en las cámaras y las máquinas de proyección.
Las pantallas sobre las que inicialmente se proyectaban las películas en este sistema eran más amplias que las usadas tradicionalmente hasta 1953 y poseían una concavidad que permitía además eliminar ciertas distorsiones propias del sistema en sus comienzos. Con los años y los perfeccionamientos técnicos, dichas distorsiones fueron finalmente eliminadas y el uso de pantallas cóncavas se hizo innecesario. Se usó desde 1953 hasta 1967 para el rodaje de películas en pantalla ancha, marcando el comienzo del moderno formato anamórfico, tanto en la fotografía principal como en la proyección de la película. Las lentes anamórficas teóricamente permitían crear una imagen de hasta 2.66:1 casi dos veces tan ancho como el formato Academia’s ratio de 1.37:1. Pero el sistema cinemascope se volvió rápidamente obsoleto por otros avances tecnológicos, principalmente presentados por Panavisión, sin embargo el formato anamórfico ha continuado hasta nuestros días.
En 1953, Spyrous Skouras, director de los Estudios Fox voló a casa de Chrétien en Niza para obtener un prototipo de un tipo de lente que daría lugar el sistema Cinemascope, por el cual Chrétien obtuvo un Premio Oscar en 1954. La principal y única aplicación del Cinemascope fue en el cine siendo "The Robe" la primera película rodada en este sistema, producida por la 20th Century Fox, dirigida por Henry Koster e interpretada por Richard Burton y Víctor Mature. La noticia del estreno apareció en los periódicos españoles el 4 de diciembre de 1953. Se tituló "La túnica sagrada" en España y "El manto sagrado" en América Latina.
Uno de los problemas a resolver en comunicaciones de datos es cómo repartir entre varios usuarios el uso de un único canal de comunicación o medio de transmisión, para que puedan gestionarse varias comunicaciones al mismo tiempo. Sin un método de organización, aparecerían interferencias que podrían bien resultar molestas, o bien directamente impedir la comunicación. Este concepto se denomina multiplexado o control de acceso al medio, según el contexto.
Se aplica el nombre "multiplexado" para los casos en que un sólo dispositivo determina el reparto del canal entre distintas comunicaciones, como por ejemplo un concentrador situado al extremo de un cable de fibra óptica; para los terminales de los usuarios finales, el multiplexado es transparente. Se emplea en cambio el término "control de acceso al medio" cuando son los terminales de los usuarios, en comunicación con un dispositivo que hace de nodo de red, los que deben usar un cierto esquema de comunicación para evitar interferencias entre ellos, como por ejemplo un grupo de teléfonos móviles en comunicación con una antena del operador.
Para resolverlo, CDMA emplea una tecnología de espectro expandido y un esquema especial de codificación, por el que a cada transmisor se le asigna un código único, escogido de forma que sea ortogonal respecto al del resto; el receptor capta las señales emitidas por todos los transmisores al mismo tiempo, pero gracias al esquema de codificación (que emplea códigos ortogonales entre sí) puede seleccionar la señal de interés si conoce el código empleado.
Otros esquemas de multiplexación emplean la división en frecuencia (FDMA), en tiempo (TDMA) o en el espacio (SDMA) para alcanzar el mismo objetivo: la separación de las distintas comunicaciones que se estén produciendo en cada momento, y evitar o suprimir las interferencias entre ellas. Los sistemas en uso real (como UMTS) suelen emplear varias de estas estrategias al mismo tiempo para asegurar una mejor comunicación.
Una analogía posible para el problema del acceso múltiple sería una habitación (que representaría el canal) en la que varias personas desean hablar al mismo tiempo. Si varias personas hablan a la vez, se producirán interferencias y se hará difícil la comprensión. Para evitar o reducir el problema, podrían hablar por turnos (estrategia de división por tiempo), hablar unos en tonos más agudos y otros más graves de forma que sus voces se distinguieran (división por frecuencia), dirigir sus voces en distintas direcciones de la habitación (división espacial) o hablar en idiomas distintos (división por código): como en CDMA, sólo las personas que conocen el código (es decir, el "idioma") pueden entenderlo.
La división por código se emplea en múltiples sistemas de comunicación por radiofrecuencia, tanto de telefonía móvil (como IS-95, CDMA2000, FOMA o UMTS), transmisión de datos (WiFi) o navegación por satélite (GPS).