El cine en tres dimensiones se ha popularizado recientemente debido a la búsqueda de las compañías cinematográficas de salvar el sector contra las descargas gratuitas e ilegales en internet de sus películas.
Ya en los comienzos del cine se buscaba la proyección en tres dimensiones. Se conocía la forma de crear sensación de profundidad al cerebro, pero las técnicas no eran lo suficientemente buenas. La primera patente de cine en tres dimensiones consta de 1890 y fue creada por William Friese-Greene. Más tarde se desarrollaron tecnologías importantes para el desarrollo de este sistema de cine: una cámara con dos lentes, separación de la imagen basada en dos colores, uso de dos proyectores, grabación con cámaras estereoscópicas…
En los años 50 el cine en tres dimensiones avanzó mucho, llegando a las pantallas el primer film en color usando esta tecnología (el sistema de división de colores que se usaba previamente provocaba que las imágenes finales se vieran en blanco y negro). Esta película (Bwana Devil) tuvo mucho éxito, pero aún era incómodo ver las películas en tres dimensiones.
Fue en los años 70 cuando se creó el sistema Space-Vision 3D, que consistía en imprimir dos imágenes superpuestas en una tira de película, permitiendo utilizar un único proyector con una lente especial.
Más tarde se desarrolló también el sistema IMAX 3D, que consistía en grabar con una cámara con dos lentes una representando a cada ojo y luego proyectar simultáneamente las dos tiras correspondientes a cada lente. Este es el sistema que aún perdura en la filmación de películas en tres dimensiones y el usado en la película en 3D por excelencia “Avatar”.
En la actualidad la tecnología 3D que se usa en los cines son los sistemas IMAX 3D y RealID. Su funcionamiento es el siguiente: en un proyector se juntan las imágenes grabadas por dos cámaras, una se proyecta con la luz polarizada 45º a la derecha y la otra con la luz polarizada 45º a la izquierda con respecto al eje horizontal. Cada ojo sólo debe de ver la imagen de cada una de las tiras de película y para ello debe usar unas gafas polarizadas adecuadamente; del mismo modo la lente del proyector debe estar polarizada también. El problema de este sistema es que como se polarizan tanto las gafas como el proyector el ojo capta una luz muy oscura. Esto se arregla con una pantalla que absorba poca luz y no altere la polarización de esta.
La televisión en tres dimensiones utiliza este mismo sistema para la visualización de imágenes 3D (con gafas). Sólo unas pocas compañías de electrónica de consumo están ya comercializando estos aparatos como Samsung, Sony o Panasonic tanto en tecnología LCD como plasma o LED. Sony prevé lanzar varias películas en Blu-ray 3D en breves, y eventos como el Mundial de Fútbol de Sudáfrica han sido retransmitidos en este modo.
El problema que se está intentando solucionar en la actualidad es la necesidad de unas gafas polarizadas para ver estas imágenes tridimensionales, de hecho ya existe un televisor, de la marca Toshiba, que se basa en la utilización de una especie de lente especial en la parte superior de la pantalla para conseguir sincronizar las imágenes y así evitar las gafas. La compañía Nintendo tiene previsto también fabricar una versión de su consola portátil DS que proyecte imágenes en tres dimensiones sin necesidad de gafas.
Uno de las creencias más populares sobre el MIDI es que es algo material, un formato de sonido en sí mismo. Sin embargo, el MIDI (Musical Instruments Digital Interface) es el lenguaje que utilizan actualmente muchos instrumentos para comunicarse entre ellos, enviar y recibir datos y sincronizarse. Para aprovechar toda la potencia del MIDI de forma rápida y eficaz se crearon los controladores MIDI, cuyo primer modelo se expuso en el North American Music Manufacturers Show, en 1983. Los controladores MIDI se utilizan para generar los mensajes MIDI, es decir, no tienen sonidos propios. Estos mensajes son muy versátiles ( activación o desactivación de una nota, variaciones de tono, velocidad o fuerza de pulsación, etc.). El controlador más familiar a los músicos tiene forma de teclado de piano, al ser este instrumento el más utilizado a la hora de componer e interpretar las obras orquestales. Sin embargo, hoy día se han construido todo tipo de instrumentos con capacidad de transmisión vía interfaz MIDI: órganos de tubos, guitarras, parches de percusión, clarinetes electrónicos, incluso gaitas MIDI. Actualmente algunos teclados controladores MIDI incorporan otros tipos de controladores como el trigger pad (habitualmente utilizado para composición de piezas de percusión), los faders (principalmente se utilizan para controlar el volumen de las pistas a tiempo real, simulando una mesa de mezclas), los knobs (con ellos se puede controlar el pan del sonido o canal izquierdo o derecho por el que se desea que se oiga) o las ruedas de modulación y pitchbend (cambiando con ellas la afinación y timbre de los instrumentos, habitualmente de cuerda y viento), entre otros. Además, los teclados controladores MIDI permiten no sólo cargar instrumentos de tecla, como el piano o el órgano, sino que es posible cargar cualquier tipo de instrumento (cuerdas, vientos, percusión, voz, coros...)y recrear sus articulaciones propias mediante los controles ya mencionados. El mayor inconveniente de la composición empleando estas tecnologías es que requieren ordenadores muy potentes y con gran capacidad. Todas estas características hacen de los teclados controladores MIDI unos aliados importantes a la hora de la composición y edición de piezas musicales. Hoy en día se realizan numerosas composiciones para motivos publicidad y cine empleando dicha tecnología.
El teclado es un dispositivo de entrada que utiliza una disposición de teclas, para que actúen como interruptores electrónicos que envían información a la computadora. El teclado tiene entre 99 y 108 teclas; y, está dividido en cuatro bloques: de funciones, alfanumérico, especial y numérico. En cuanto a la disposición de las teclas surgieron fundamentalmente dos variantes: la francesa AZERTY y la inglesa QWERTY, que basaron la distribución de las teclas según las letras más usadas en cada idioma, aunque el más utilizado fue el teclado Qwerty (llamado así por las primeras seis letras del teclado); fue diseñado en 1868 por Christopher Latham. En 1873 la compañía Remington fue la primera en venderlo. Cuando aparecieron las máquinas de escribir eléctricas se consideró modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado DVORAK. El proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge. Un teclado realiza sus funciones mediante un microcontrolador que tiene un programa instalado para su funcionamiento, que es ejecutado y realiza la exploración matricial de las teclas cuando se presiona alguna, y así determinar cuales están pulsadas. El teclado latinoamericano sólo da soporte con teclas directas a los caracteres específicos del castellano, que incluyen dos tipos de acento, la letra ñ y los signos de exclamación e interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de extensión de grafismos. Por lo demás el teclado latinoamericano está orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII. Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera. Si el microcontrolador nota que ha cesado la pulsación de la tecla, el nuevo código generado (Break Code) tendrá un valor de pulsación incrementado en 128. Estos códigos son enviados al circuito microcontrolador donde serán tratados gracias al administrador de teclado, que no es más que un programa de la BIOS y que determina qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que hay en el kernel, generando una interrupción por hardware y enviando los datos al procesador. El microcontrolador también posee cierto espacio de memoria RAM que hace que sea capaz de almacenar las últimas pulsaciones en caso de que no se puedan leer a causa de la velocidad de tecleo del usuario. Hay que tener en cuenta, que cuando realizamos una pulsación se pueden producir rebotes que duplican la señal. Con el fin de eliminarlos, el teclado también dispone de un circuito que limpia la señal. La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades; aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar el encargado de leerlo. El Multifunción II (o teclado extendido AT de 101/102 teclas) aparecido en 1987 con algunas variantes, será el esquema usado por los Atari ST , los Commodore Amiga, las estaciones de trabajo SUN y Silicon Graphics y los Acorn Archimedes/Acorn RISC PC. Microsoft, además de presentar avances ergonómicos como el Microsoft Natural Keyboard, añade 3 nuevas teclas tras del lanzamiento de Windows 95. A la vez se generalizan los teclados multimedia que añaden teclas para controlar en el PC el volumen, el lector de CD-ROM o el navegador, incorporan en el teclado altavoces, calculadora, almohadilla sensible al tacto o bola trazadora.
Se puede dividir según calidad de imagen y sonido dos categorías en TDT:
La TDT tiene diversas ventajas, y unas de ellas son los servicios adicionales que se pueden ofrecer a parte de vídeo y audio. Varios operadores pueden compartir el uso de un canal multiplexado y cada uno puede gestionar el ancho de banda que corresponde a cada uno para ofrecer los servicios que desee, un ejemplo de ello es la emisión de vídeo y dos de audio(idiomas), varios de datos(subtítulos, estadísticas de un partido o carrera). Esto lo puede aprovechar el usuario mediante las diversas posibilidades de os distintos receptores conformes al estándar MHP(Multimedia Home Platform). También hay servicios como la EPG(Electronic Program Guide), ofrecidos para mantener al usuario al tanto de la programación diaria de cada canal, sinopsis de los programas, series o películas.
El sistema TCAS (del inglés Traffic alert and Collision Avoidance System o Traffic Collision Avoidance System) es un sistema incorporado en la mayoría de los aviones comerciales actuales y cada día en más aeronaves deportivas y avionetas que alerta sobre tráficos cercanos a los pilotos con el fin de evitar, como su propio nombre indica, colisiones y accidentes. Se podría decir que el desarrollo de este sistema comienza en el año 1955 cuando el DR J. S Morell de Bendix Avionics publicó en su ensayo "La Física de las colisiones" un algoritmo computable que relacionaba y definía diferentes proporciones entre el avión que se acerca y el avión amenazado. Este trabajo fue la base para todas las investigaciones posteriores que pretendieron diseñar un sistema para evitar colisiones aéreas. Durante los años 70 la empresa del doctor Morell presentó varios prototipos y a finales de los 80 obtuvieron la certificación de la máxima autoridad aeronáutica estadounidense (FAA, Federal Aviation Administration) para los primeros sistemas TCAS I. Podríamos dividir el TCAS en tres partes: Un computador, que analiza la situación y calcula si existe o no riesgo de colisión (en caso afirmativo calcularía la maniobra evasiva pertinente), las antenas propias (normalmente 2) y las compartidas con otros sistemas y por último el panel de control que incluye la representación gráfica (imagen de cabecera) de la situación y la interface entre piloto y equipo. Además el sistema va conectado a altímetros, radioaltímetros y al transpondedor. Para entender el funcionamiento del TCAS es necesario comprender el principio de operación de los transpondedores activos y radares secundarios de vigilancia. Estos sistemas establecen comunicaciones electrónicas entre dos aeronaves o entre una aeronave y un centro de control en tierra. Sin entrar en detalles podríamos decir que para ello el transpondedor que hace la primera emisión codifica una interrogación predefinida en forma de pulsos modulados en amplitud y la emite en 1030 MHz y que el transpondedor receptor es capaz de interpretar y contestar automáticamente con el mismo método pero a una frecuencia de 1090 MHz. Las interrogaciones que hace el transpondedor emisor tienen como respuesta alguna información que otro equipo del avión requiere. Centrándonos de nuevo en el TCAS cabe destacar que los transpondedores actúan en este caso en el llamado modo S. Es decir, responden a la interrogación con 24 pulsos de dirección, un pulso de identificación de modo y de 56 a 112 pulsos de datos. De esa manera con datos de distancia, rumbo y altitud entre aeronaves, conseguimos una representación en 3 dimensiones del espacio aéreo cercano a la aeronave. Si existiera riesgo de colisión el sistema TCAS podría actuar de diferentes maneras según el tipo: Si el sistema instalado es TCAS I (primera generación) advertirá del riesgo; si el sistema es TCAS II advertirá de riesgo y además propondrá una maniobra evasiva en el plano vertical (ascienda o descienda) opuesta en cada avión. Actualmente se ha paralizado el desarrollo del TCAS III que propondría también evasión en el plano horizontal porque existen alternativas mejores de cara al futuro.
Una tarjeta SIM es una tarjeta inteligente desmontable usada en teléfonos móviles y módems USB. Las tarjetas SIM almacenan de forma segura la clave de servicio del suscriptor usada para identificarse ante la red, de forma que sea posible cambiar la línea de un terminal a otro simplemante cambiando la tarjeta.
En la década de los 90, fue presentada al público la tecnología GSM, cuya principal característica era la posibilidad de proveer servicios de voz sobre un canal digital.
El uso de las tarjetas SIM es obligatorio en las redes GSM y, fue a partir de este momento, cuando empezó a forjarse el éxito de estas tarjetas, ya que de la mano de la tecnología GSM, evolucionó y se volvió más económica, más eficaz y cómoda por su tamaño.
Las tarjetas SIM están disponibles en dos tamaños: el primero es similar al de una tarjeta de crédito: 85,60 x 53,98 x 0,76 mm, y el segundo y más popular es la versión pequeña: 25 x 15 x 0,76 mm En cuánto a la capacidad de almacenamiento, la típica tarjeta SIM de bajo coste tiene poca memoria, 2-3 kB, según describe la especificación (directorio telefónico y poco más). Este espacio de almacenamiento es usado directamente por el teléfono. El segmento de las tarjetas de bajo coste está en declive.
Las tarjetas SIM con aplicacionesadicionales están disponible con muchas capacidades de almacenamiento diferentes, siendo la mayor 512 kB. Las tarjetas de 32 y 16 kB son las dominantes en zonas con redes GSM menos desarrolladas. También existen las tarjetas Large Memory SIM, con capacidades del orden de 128 a 512 kB.
Los sistemas operativos para las tarjetas SIM son principalmente dos: nativos, con software propietario y específico del vendedor, correspondiendo típicamente con el segmento de mercado de bajo coste, y basados en Java, que tienen la ventaja de ser independientes del hardware e interoperables. Las tarjetas SIM poseen diversos recursos que le permiten actuar dentro del dispositivo móvil como: recursos de seguridad e identificación (posibilidad de brindarle una identificación única al usuario en la red móvil), la posibilidad de tener en el teléfono, y con interfaces muy sencillas de usar, servicios de valor agregado como servicio de mensajería instantánea (chat), televisión móvil, juegos, tonos, ... o la posibilidad de acceder a redes sociales y generar respaldos de agenda que pueden ser alojados remotamente permitiendo así agilidad, economía y seguridad. También nos permite acceder a servicios financieros seguros desde el teléfono móvil.
La tarjeta SIM representa el desarrollo de la tecnología pensada en beneficio del público y del mercado, por lo que el desarrollo de esta misma no parará y sus funcionalidades irán creciendo según vayan apareciendo necesidades en la sociedad que se puedan llevar a cabo con ella.
Una tarjeta gráfica,también conocida como tarjeta de vídeo, placa de vídeo, tarjeta aceleradora de gráficos o adaptador de pantalla, es un hardware que compone las CPU, formado por componentes electrónicos y su función es la de procesar los datos que envia el ordenador y hacerlos compresibles a las personas y que podamos hacer tareas con estos.
Antes de la aparición de la las tarjetas gráficas el procesamiento de datos se hacia mediante impresoras, por lo que supuso un gran avanze el poder ver la informacion en un monitor. Al principio las tarjetas dolo permitian visualizar texto, pero al desarrollarse los chips gráficos como el Motorola 6845 se empieza a dotar los equipos con funciones gráficas.
La tarjeta gráfica está formada por varias partes:
-GPU(graphics processing unit): es la parte que se dedica al procesamiento de gráficos, es como el procesador de la CPU. Las caracteristicas mas importantes de este componente son la frecuencia del reloj( actualmente oscila entre 500MHz y 850MHz),el numero de procesadores shaders y el número de pipelines.
-Memoria RAM gráfica: esta puede estar integrada en la tarjeta o puede usar la del propio ordenador, Su funcion es la misma que la CPU, recibir instrucciones y guardar resultados.
-RAMDAC: este componente se encarga de convertir la señal digital del ordenador en analógica para que pueda ser representadas en el monitor.
-SALIDAS: son los puertos de los que la tarjeta dispone para conectar la CPU conn los perifericos en los que se mostraran los datos, algunas salidas son: DA-15, DIGITAL TTL DE-9, SVGA/Dsub-15, DVI S.Video.
-REFRIGERACION: hoy en dia practicamente todas las tarjetas incluyen sistemas de refrigeracion como disipadores o ventiladores.
En la actualidad existen dos tipos de conexiones de la tarjeta gráfica en la placa base, estas son la conexion pos bus AGP y PCI o PCI Express.
Comparando ambas, el AGP tiene un reloj de 66MHz y la PCI de 33MHz, el ancho de banda del bus de la AGP es de 32 bits mientra que la de la PCI puede ser de 32 o 64 bits. Las AGP pueden tener una memoria de unos 2GB mientras que la PCI de 4GB. A partir de 2006, el uso de la AGP disminuyó debido a la preferencia en el uso de la PCI por la capacidad del uso del bus de 64 bits.
Hoy en dia el mercado y la competencia por fabricar la mejor tarjeta gráfica está muy reñido debido a la demanda sobre todo en el mundo de los diseñadores y los exigentes jugadores de videojuegos-
Una tarjeta de sonido es una tarjeta de expansión para el ordenador que permite la entrada y salida de audio de forma regulada y controlada por un programa informático denominado driver. El uso de las tarjetas de sonido está fundamentado en el ámbito multimedia, es decir, todas aquellas aplicaciones informáticas que requieren la emisión de sonido, como por ejemplo videojuegos, programas de producción y composición, editores de video,... La parte más importante de una tarjeta de sonido y lo que sin duda condicionará su calidad es el conversor analógico-digital y el digital-analógico. Dicho elemento, tiene como misión transformar la señal analógica que entra en la tarjeta en digital, para poder ser procesada y tratada en el ordenador, y a su vez, devolverla transformándola de nuevo en analógica para poder ser reproducida. Así, por ejemplo, podríamos grabar un piano, editar dicha grabación en el ordenador y volver a escucharlo totalmente cambiada por los altavoces. Sin embargo, en este proceso de transformación de la señal, se pierde información y por tanto se pierde calidad de sonido en la escucha final, es por eso por lo que algunas tarjetas de sonido incorporan entradas S/PDIF que trabajan directamente con señal digital y que por tanto evitan esa pérdida de información en la conversión analógica-digital. Como breve contextualización histórica, cabe decir que la primera tarjeta de sonido compatible con computadoras se inventó en 1987. Esta tarjeta de sonido recibe su nombre de la empresa Adlib, fundada por Martin Prevel en Quebec (Canadá). Tras la creación de este nuevo producto, Martin Prevel paso más de un año tratando de promocionarlo entre los desarrolladores de IBM, sin embargo, su inexperiencia en el campo de la industria fue la causa de su frustrado intento de fomentar su producto. Finalmente estableció contacto con el presidente de Top Star (una empresa de Nueva Jersey), que tras quedar satisfecho después de una demostración del producto participó en su divulgación y promoción. La AdLib usaba el chip de sonido Yamaha YM3812, de la empresa Yamaha, que producía sonido mediante la Síntesis FM. Con la tarjeta AdLib, el software de la PC podía generar música multitímbrica y efectos de sonido, aunque la calidad acústica era distintivamente sintética. Tras la aparición de la tarjeta AdLib, vino la tarjeta S de la casa Creative Labs, totalmente compatible con la anterior, pero que además de la síntesis FM, incorporaba la posibilidad de grabar y reproducir audio digital. Esto permitía usar en los juegos sonidos reales (voces, ruidos, etc). Creative se hizo con el mercado, consiguiendo desde entonces ser el estándar de hecho.
También conocida como adaptador de red o NIC (Network Interface Card). Las tarjetas de red se pueden clasificar en varios grupos atendiendo al tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc), pero actualmente el más utilizado es el de tipo Ethernet que utiliza un conector RJ-45.
Al hablar de la tarjeta de red solemos pensar que se trata de una tarjeta de expansión del ordenador, cuando también las hay que están directamente integradas en la placa madre.
La dirección MAC de una tarjeta de red es un número de 48 bits en hexadecimal que sirve para identificarla. Este número es administrado por el Institute of Electronic and Electrical Engineers (IEEE).
También se denomina con la palabra NIC al chip de la tarjeta que actúa de interfaz de Ethernet entre el medio físico y el equipo.
Es posible usar equipos con la tarjeta de red sin necesidad de que tengan disco duro ya que se pueden arrancar desde otro servidor gracias a que la mayoría de tarjetas permiten la posibilidad de incluirlas una ROM.
Algunos tipos de tarjetas de red:
Una tarjeta de memoria es un dispositivo de almacenamiento que conserva la información que le ha sido almacenada. Mantiene su contenido sin energía. Una tarjeta de memoria es una tarjeta flash porque borra datos en un instante. Los datos se borran en bloques fijos en lugar de byte por byte. Los tamaños de los bloques varían de 512 bytes hasta 256KB. Los chips flash son menos costosos y proporcionan mayores densidades de bits. El término de memoria flash se acuña a Toshiba.
La tarjeta de PC estaba entre los primeros formatos de tarjeta de memoria hacia 1990, pero ahora se utiliza solamente en usos industriales y para trabajos de Entrada-Salida, como un módem. También en 1990, surgieron una serie de formatos mas pequeños que las tarjetas de PC: Compactflash, SmartMedia, SD, MiniSD, MicroSD y similares. En otras áreas, como en teléfonos móviles, consolas, cámaras, las tarjetas de memoria (miniSD,microSD, etc) fueron integradas comenzando a usar formatos de tarjeta de memoria de los propios fabricantes.
A finales de 1990 aparecieron nuevos formatos como son:SD/MMC, Memory Stick ..., y también tarjetas de baja calidad y más pequeñas. El deseo de usar tarjetas ultra-pequeñas para los teléfonos moviles, PDAs, y las cámaras fotográficas digitales compactas condujo a crear una serie de tarjetas aún más pequeñas.
En cámaras digitales, las tarjetas SmartMedia y CompactFlash han tenido bastante éxito. En 2001, SM acaparó el 50% del mercado de cámaras digitales. Antes de 2005, SD/MMC había asumido el control casi como SmartMedia, aunque no al mismo nivel y con la dura competición que venía de variantes de Memory Stick, así como CompactFlash. El mercado en teléfonos moviles y PDAs ha aumentado.
En la actualidad, la mayoría de los ordenadores tienen ranuras incorporadas para una gran variedad de tarjetas de memoria; Memory Stick, CompactFlash, SD, etc. Algunos dispositivos digitales soportan más de una tarjeta de memoria para asegurar compatibilidad.
Ahora voy hablar de los tipos de tarjetas más fundamentales del mercado. Destacamos:
- Compact flash: estas tarjetas son de las más usadas hoy en día y tienen hasta 4gb de capacidad y una velocidad de 10Mb/Segundo. Existen una gran variedad de marcas, epro las más conocidas son Sandisk y Kingston.
Existen dos tipos de tarjetas: la Type I y Type II. Tienen mas capacidad y son mucho más rapidas.
Micro Drive: La desarrolló IBM y Toshiba y son, unas de las que mayor capacidad tienen pero son de las más caras y más dificiles de conseguir.
- Memory Stick: Sony lanzó tres tipos de tarjetas y son las más caras:
- Estándar: Fue la primera para manejar el almacenamiento de todos sus dispositivos móviles (desde PC’s hasta cámaras, reproductores de MP3, etc)
- Duo: este tipo posee una mayor velocidad de transferencia pero menor velocidad de escritura y es conocida porque maneja contenido digital con copyright)
- Pro: Es la más rápida de todas (tambien existe Pro Duo) y fue originalmente pensada para cámaras que tomaran fotos de alta velocidad.
- Multi Media:Se utilizan en bastantes dispositivos. Actualmente hay con capacidad de hasta 1Gb.
-Secure digital: Es la que mayor cantidad de fabricantes tiene. En general tienen mayor velocidad de acceso que el resto.
-Smart media: Una de las primeras tarjetas que se vieron en el mercado y sólo tienen como máxima capacidad 128Mb.
-xD photo card: Las fabrica Olympus y Fuji.