Error
  • JUser::_load: Unable to load user with id: 69

Sábado, 29 de Enero de 2011 18:12

Podcast

El podcasting consiste en la distribución de archivos multimedia (normalmente audio o vídeo, que puede incluir texto como subtítulos y notas) mediante un sistema de redifusión (RSS) que a través de suscripción y utilizando un programa para su descarga, puede ser escuchado en cualquier momento. El sistema es el siguiente: el usuario se suscribe a los canales de “podcasting” que desee y todos ellos se centralizan en un programa que maneja estas suscripciones. Cuando uno de los canales a los que está suscrito se actualiza, el usuario recibe una notificación en el programa y si lo desea, descarga el archivo multimedia y lo reproduce en su ordenador, con cualquier programa reproductor.

La posibilidad de acceder a los “podcasts” por medio de dispositivos portátiles reproductores multimedia es una de las grandes ventajas del sistema, ya que permiten acceder a los contenidos ofrecidos por Internet desde cualquier lugar y en cualquier momento. La palabra “podcast” no proviene como se supone en distintas fuentes en Internet de la palabra iPod, dispositivo desarrollado por la compañía Apple Inc., sino que es un acrónimo de las palabras inglesas “Public on demand”(ya que son un tipo de transmisión pública que se envía según la demanda del usuario) y “broadcast”(que hace referencia a la transmisión de información desde un nodo emisor a múltiples nodos receptores).

En cuanto a la historia del "podcast" cabe destacar que comenzó a popularizarse entre el público a finales de 2004, aunque entre los años 1998 y 2001 hubo varios "podcasts" realizados por grandes empresas, tales como Real Networks y ESPN.com.
Sin embargo, no fue hasta febrero de 2004 que el término "podcasting" fue utilizado por primera vez. Fue en un artículo de Ben Hammersley en el periódico “The Guardian”, titulado 'Audible Revolution', junto con otros nombres propuestos para el nuevo medio de difusión de contenidos. Muchas personas de forma individual y grupos han contribuido a la aparición y la popularidad de los “podcasts”.

A Adam Curry se le atribuye la idea de automatizar la entrega y la sincronización del contenido textual de los reproductores portátiles de audio, y la primera aplicación para hacer esto posible fue iPodderX, desarrollado por August Trometer y Slakinski Ray.
Desde la década de 1930 se han producido programas de radio y programas de noticias, pero hasta hoy en día, a través de la evolución de las capacidades de Internet, junto con el abaratamiento del hardware y el software, han producido un aumento de su difusión. Cabe decir que este nuevo servicio no es más que un RSS en el que se añaden archivos multimedia, ya sea audio o vídeo, siendo una vía de comunicación en la que el canal es Internet y donde se transmite la información en archivos multimedia, generalmente de sonido en formato MP3 u OGG.

En Internet se pueden encontrar todo tipo de temáticas. Además, al igual que los blog, muchos acostumbran a utilizar un tratamiento informal y lenguaje coloquial, aunque las características de los “podcast” varían mucho de unos autores a otros, tanto en el tiempo de duración de los contenidos como en lo improvisado o elaborado del material multimedia publicado.

Sábado, 29 de Enero de 2011 18:12

Plug-and-Play (PnP)

Plug-and-Play (PnP): Describe una tecnología de gran uso en la actualidad cuya capacidad es configurar automáticamente los dispositivos y perífericos (tanto de entrada como de salida) conectados a un sistema informático u ordenador.

La traducción literal sería: enchufar y listo; lo cual indica claramente que el PLUG-and- Play hace más fácil y reduce el tiempo empleado en configurar un dispositivo (hardware) para que pueda ser utilizando a través de software.

Antes de aparecer el PnP, estas configuraciones se realizaban a través de jumpers, switches o instalaciones de software (estos softwares eran específicos para cada dispositivo que normalmente son proporcionados por el fabricante y no deben confundirse con los controladores, que ayudan al sistema operativo a interactuar con el periférico).

IBM (junto a Compaq, que realizó sus primeras placas) desarrolló el bus ISA (Industry Standard Architecture) para resolver este problema, aunque este también obligaba al usuario a tener conocimientos del diseño y estructura operacional de los sistemas de computadores, este primer bus fue un fracaso pero fue clave para que los distintos fabricantes acordarán un estándar que simplificara el uso de dispositivos periféricos.

Las características generales de los periféricos Plug and Play son:

    • Estar libre de jumpers e interruptores externos (o funcionar correctamente con la configuración de fábrica).
    • Ser capaz de anunciar automáticamente al sistema operativo qué clase de dispositivos es, su nombre y versión, entre otros datos. De esta manerapuede buscar los drivers (controladores) adecuados para este. el sistema
    • Ser completamente configurable desde el sistema operativo,como la selección del rango de direcciones de entrada/salida e interruptores que utiliza. Antes asignaciones las hacía la BIOS y laconfiguración debía hacerse manualmente en el sistema operativo.

Microsoft fue el primer sistema operativo fue que introdujo en su sistema el PnP, Windows 95, aquí un video de las primeras demostracions que presentaron en la cual windows 95 detecta y configura automáticamente un disco duro sin que en este se pierdan los datos del usuario. (acceso a YOUTUBE para ver el vídeo)

Actualmente todos los sistemas operativos modernos incorporan la tecnología plug and play, dentro de los tipos de dispositivos que son detectados los más conocidos son lo Hot Plug(conexión en caliente) entre ellos estan:

USB (Universal Serial Bus):

USB MACHO

Fireware :

scsi

PS/2:


Cada vez más y más componentes y periféricos pueden ser autómaticamente detectados y configurados, permitiendo a cualquier tipo de usuario (indiferentemente de su nivel de conocimientos en informática) usar y ayudar a desarrollar la sociedad de la información.



Sábado, 29 de Enero de 2011 18:08

PLC ( Power Line Communications )


PLC son las siglas de Power Line Comunication, la tecnología que permite la transmisión de voz y datos a través de la red eléctrica existente. Este sistema posibilita actualmente la transmisión de información a velocidades de hasta 200 Mbps.

En 1997, las compañías United Utilities, de Canadá, y Northern Telecom, de Inglaterra, presentaron al mercado una tecnología que podía conseguir que Internet fuera accesible desde la red eléctrica: el PLC (Power Line Communications). Desde entonces, las compañías eléctricas empezaron a pensar que podían sacar un mayor rendimiento a sus redes y han sido numerosas las iniciativas en el sector para llevar a cabo un despliegue masivo de este servicio de comunicaciones.

Estos dispositivos funcionan mediante la modulación de una onda portadora cuya frecuencia oscila entre los 20 y 200 kHz inyectada en el cableado doméstico de energía eléctrica desde el transmisor. Esta onda portadora es modulada por señales digitales. Cada receptor del sistema de control tiene una dirección única y es gobernado individualmente por las señales enviadas por el transmisor.
En la actualidad, esta tecnología nos ofrece una alternativa a la banda ancha ya que las PLC utilizan una infraestructura ya desplegada, basta un simple enchufe para estar conectado. Además, ofrece una alta velocidad, suministra servicios múltiples con la misma plataforma y permite disponer de conexión permanente.

Las tecnologías HomePlug y HomePlug AV, son los dos estándares más populares empleados en el hogar, sin necesidad de instalar cableado adicional.

La tecnología PLC aún ha de enfrentarse a una serie de problemas que es necesario resolver. El primer escollo que debe superar es el propio estado de las líneas eléctricas. Si las redes están deterioradas, los cables se encuentran en mal estado o tienen empalmes mal hechos no es posible utilizar esta tecnología. La distancia también puede ser una limitación, la medida óptima de transmisión es de 100 metros por lo que, a mayores distancias, se hace necesario instalar repetidores.

Además, el cable eléctrico es una línea metálica recubierta de un aislante. Esto genera a su alrededor unas ondas electromagnéticas que pueden interferir en las frecuencias de otra ondas de radio. No obstante, la radiación que produce es mínima, la potencia de emisión es de 1mW, muy por debajo de los 2W de telefonía móvil.

Sábado, 29 de Enero de 2011 18:06

Placa base

La placa base, placa madre, tarjeta madre (en inglés motherboard o mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos. Ademas, todas las placas bases incluyen un sofware llamado BIOS, que le permite realizar funcionalidades básicas.

Exiten varios tipos de placas bases. Las podemos clasificar según su procesador: Para AMD desde sus clasicas Slot A Duron, Athl, hasta las mas modernas actualmente como la Aocket AM4 Phenom III X3/X4/X5. Lo mismo pasa con INTEL, que con el paso de los años han ido mejorando notablemente las caracteristicas de sus productos. Esto lo podemos obsesrvar claramente entre la Slot I, Pentium II y la LGA1156 Intel core i7.

Si nos fijamos en el tamaño han existido varios tipos pero hoy en dia solo se fabrican dos. Las ATX, con unas dimensiones de 305 × 244 mm, creado por un grupo liderado por Intel, en 1995 introdujo las conexiones exteriores en la forma de un panel I/O y definió un conector de 20 pines para la energía. Se usa en la actualidad en la forma de algunas variantes, que incluyen conectores de energía extra o reducciones en el tamaño. Y las Micro ATX, que son como las ATX pero mas pequeñas, con unas simensiones de 244 × 244.

Los componentes que no pueden faltar en una placa base son: uno o varios conectores de alimentación, el zócalo de la CPU o socket, las ranueras de la memoria RAM, el chipset que se divide en dos secciones, el puente norte (Northbridge) y el puente sur (Southbridge). El primero gestiona la interconexión entre el procesador, la memoria Ram y la GPU; y el segundo entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de estado sólido. La CMOS: una pequeña memoria que preserva cierta información importante, la pila de la CMOS, la BIOS, el bus, el bus de expansion, el bus de memoria, los conectores de entrada/salida y las ranueras de expansion.

Las empresas que han intervenido en el desarroyo de las placas bases han sido muchas, algunas de las mas importantes y famosas son: ASUS, ASRock, Gigabyte, Intel... Algunos diseñan y fabrican uno o más componentes de la placa base, mientras que otros ensamblan los componentes que terceros han diseñado y fabricado.

Por ultimo, cabe destacar,que la evolucion en las ultimas tres decadas ha sido enorme. Hemos pasado de una vida sin ordenadores, a otra en la que este instrumento es casi indispensable para todo, ya se trabajo, ocio, cultura etc. Y con el paso de los años seguro que todo será mas comodo y facil gracias al desarroyo de las tecnologias de la informacion.


 

Sábado, 29 de Enero de 2011 18:02

Pila o bateria

La pila eléctrica la descubrió Volta, 1800. Observó que existen materiales que pueden transformar su energía química interna en energía eléctrica. Eran una serie de discos de zinc y cobre, separados por cartón. La unidad de medida fijada para el voltaje fue el voltio (Volta). La pila fue una novedad y tuvo mucho éxito, porque superó las limitaciones para conocer la electricidad.

La pila Daniell, 1836, un electrodo de Zinc en una disolución de sulfato de Zinc y otro de cobre en una disolución de sulfato de cobre. Su potencial era de 1,07 a 1,14 V. Su ventaja fue la constancia del voltaje.

La pila Grove, 1839, como despolarizador el ácido nítrico. Su potencial es de 1,9 a 2,0 V. Utilizaba platino para el ánodo, pero lo sustituyeron por carbón; el cátodo de zinc tratado con mercurio. Destaca por su estabilidad, pero emitía humos corrosivos.

La pila Leclanché, 1868, electrodos de Zinc y de carbón en disolución de cloruro amónico, rodeados por una pasta de dióxido de manganeso y polvo de carbón como despolarizante. Su tensión era de 1,5 V.

Estas pilas sirvieron para elaborar la pila seca, utilizadas actualmente. Estas pilas consistían en un recipiente cilíndrico de zinc, electrodo negativo, relleno de una pasta, y en una barra de carbón, electrodo positivo. La sequedad es relativa, porque un elemento seco no suministraría electricidad, asique en el interior hay una pasta.

Los dos elementos principales son los electrodos: uno sufrirá la reacción química de producir electrones (oxidación) y el otro sufrirá la contraria, absorber electrones (reducción). Estas reacciones se denominan redox.

El ánodo es neutro, y tras la oxidación sus átomos perderán un electrón. Estos átomos, cationes, tienen carga positiva, asique se repelerán del resto de cationes. El material interno se irá disolviendo. En el cátodo se produce la reacción inversa. El ánodo y el cátodo deben estar sumergidos en un electrolito (líquido que tiene disuelta una sal que facilita el movimiento de los cationes).

El interior consiste en un recipiente cilíndrico y metálico cuyo extremo es el positivo, se coloca un cilindro hueco de dióxido de manganeso, el papel separador y se añade el zinc en polvo mezclado con el electrolito formando una pasta. Se cierra el cilindro herméticamente con una tapa que dispone del negativo que queda sumergido en la pasta.

Cuando unimos el polo positivo con el negativo, la pila comenzará a funcionar, el zinc se disolverá y se producirán electrones que son recogidos en el negativo. Circularán electrones hasta volver al lado contrario de la pila. Se dispersarán por la carcasa y llegarán al dióxido de manganeso donde se producirá la reducción. La pila funcionará hasta que el zinc se disuelva o el dióxido de manganeso se reduzca del todo.

Las pilas y acumuladores están normalizados. Las más frecuentes son la serie A, A B , C , D , F , G , J y N , 3R12 , 4R25 , PP3 , PP9 y las baterías de linterna.

Existen unas normas internacionales para estandarizar tamaños y voltajes utilizando aparatos eléctricos a nivel mundial.

Sábado, 29 de Enero de 2011 18:01

Pila de hidrógeno

La pila de hidrógeno es un dispositivo electroquímico de conversión de energía similar a una bateria, pero se diferencia en ésta en que está diseñada para permitir el reabastecimiento continuo de los reactivos consumidos (hidrógeno y oxígeno) y producir electricidad.

Christian Friedrich Schönbein, químico germano-suizo, descubrió en 1838 el principio químico que utilizan las pilas o células de hidrógeno. Más tarde, en 1843 Sir William Grove desarrolló la primera pila de hidrógeno con materiales similares a los utilizados actualmente en las pilas de ácido fosfórico. Sin embargo, tuvieron que pasar alrededor de cien años para Francis Thomas Bacon fabricara la primera pila de hidrógeno con un rendimiento de 5 kilovatios, en 1959.

La NASA utilizó las patentes de Francis Bacon en su programa aeroespacial, para poder disponer de agua y electricidad en el espacio, a partir del hidrógeno y del oxígeno disponibles en los depósitos de la nave. Las primeras misiones que utilizaron éste tipo de pilas de hidrógeno fueron las del programa Apollo. Fue entonces cuando General Electric desarrolló las primeras pilas con membrana de intercambio de protones o pila PEM ( Proton Exchange Menbrane), mucho mas ligeras y duraderas que el modelo de Francis Bacon. Éste tipo se utilizó por primera vez en la misión Gemini V (1965). Para estas primeras pilas se utilizaban materiales muy caros, y las primeras células necesitaban temperaturas de funcionamiento muy elevadas; sin embargo, debido a las grandes cantidades de combustible disponible (hidrógeno y oxígeno en el agua) no cesó la investigación en las células de hidrógeno.

Aun asi, debido a su elevado coste, el uso de pilas de hidrógeno se vio limitado a aplicaciones espaciales. Pero a finales de los 80, fue entonces cuando las células de hidrógeno tuvieron un gran desarrollo. Se produjeron varias innovaciones (electrodos de película fina y catalizador con menos platino), y se inventaron nuevas tecnologías que abarataron los procesos de fabricación de los componentes de las pilas de hidrógeno.
Para explicar su funcionamiento, se podrá como ejemplo la célula de membrana intercambiadora de protones hidrógeno/oxígeno. Separando el ánodo del cátodo está colocada una membrana conductora de protones, llamada electrolito. En el lado del ánodo, el hidrógeno que llega al ánodo catalizador se divide en protones y electrones. Los protones son conducidos a través de la membrana al cátodo, pero los electrones están forzados a viajar por un circuito externo produciendo energía, ya que la membrana está aislada eléctricamente. En el catalizador del cátodo, las moléculas del oxígeno reaccionan con los electrones y protones para formar el agua. En este ejemplo se podría considerar como residuo el vapor de agua. Pero para que los protones puedan atravesar la membrana, ésta debe estar convenientemente humidificada dado que la conductividad protónica de las membranas poliméricas utilizadas en este tipo de pilas depende de la humedad de la membrana. Por lo tanto, es habitual humidificar los gases previamente al ingreso a la pila.

En la actualidad ya se han fabricado prototipos de coches y otros vehículos propulsados mediante pilas de hidrógeno con membrana de intercambio de protones. Muchas compañías trabajan en el desarrollo de éstos sistemas, por lo que hay un gran secretismo industrial. Pese a que la mayoria de las compañías automovilísticas estan trabajando para la llamada contaminacion cero, actualmente solo la marca japonesa Honda es la única que ha obtenido la homologación para comercializar su vehículo impulsado por este sistema, el FCX Clarity, que mezcla la eficiencia enérgetica con las mejores prestaciones de los automóviles actuales.

Sábado, 29 de Enero de 2011 18:00

Péntodo

El pentodo es una válvula termoiónica constituida por cinco electrodos, y compuesto por tres rejillas.

Se produjo porque al triodo se le añadió una  tercera rejilla (supresora) que tenía una polaridad inferior a la de la placa, lo que produciría el repelimiento de los electrones, los cuales anteriormente ocasionaban la distorsión de la señal ya amplificada, hacia el ánodo.

Es también importante destacar que en la mayoría de pentodos esta quinta rejilla va pegada, unida, al cátodo.

Además de esta última rejilla se compone de dos más, como son la segunda rejilla, o pantalla, que hacía que funcionara mejor a altas frecuencias y la primera rejilla, o supresora, que elimina la distorsión; aunque de estos dos elementos ya disfrutaba el tetrodo mientras se creaba dicho componente, el pentodo.

Los pentodos tienen distintas aplicaciones, pero destacan por amplificar la potencia de las transmisiones de radio, tanto profesionales como amateur; se tiene una predilección por ellas por por presentar una mejor linealidad que los amplificadores, porque son más sencillao de construir y porque dan una buena relación calidad/precio, o lo que es lo mismo potencia/coste.

El funcionamiento del pentodo se produce de manera que al chocar los electrones emitidos por el cátodo con la placa, ocurre una emisión secundaria en la placa debido al bombardeo de estos electrones. Para minimizar este efecto se coloca otra rejilla próxima a la placa, la cual generalmente va conectada al cátodo del tubo.

Por todo esto es importante decir que el pentodo es muy parecido funcionalmente al triodo, a diferencia del uso de tres rejillas en vez de una.

Sábado, 29 de Enero de 2011 17:59

PDA (personal digital assistant)

PDA, del inglés personal digital assistant (asistente digital personal), es una computadora de mano originalmente diseñado como agenda electrónica.

En 1990 fueron apareciendo distintos electrónicos que sentaron las bases de las funcionalidades de las PDAs algunos de ellos eran el palmtop y el Sharp Wizard.

Dos años después John Sculley presentó el Appel Newton en el Consumer Electronic Show de Las Vegas. Pero en 1998 se dejaron de vender por resultar un fracaso financiero para la compañía Apple. Este aparato contaba con la mayoría de las características que contiene el actual: pantalla sensible al tacto, conexión a una computadora para sincronización, interfaz de usuario especialmente diseñada para el tipo de máquina, conectividad a redes vía módem y reconocimiento de escritura. Con la aparición de la empresa Palm, Inc comenzó una etapa de crecimiento y desarrollo tecnológico para estos dispositivos.

Durante los últimos 20 años, el negocio de la PDA ha sido un escenario de grandes fracasos. Algunos de ellos fueron el Apple Newton, que fue menospreciado por lo impreciso de su reconocimiento de escritura, GRiD PAD, que fue importante porque llegó a comercializar portátiles y tables pero estos dispositivos se obsticularizaron debido a su precio y fragilidad y Palm PC, era un dispositivo mucho más potente, ofrecía una vista de agenda y de precio asequible lanzado por Microsoft , aun así Palm seguían siendo más baratos y Microsoft no comenzó a estar presente en el mercado de los PDA hasta el lanzamiento del Pocket PC.

Actualmente las PDAs reproducen música y videos y permiten tomar fotografías de alta resolución. Además contienen diferentes alternativas de conectividad para sincronizar los datos con otros equipos y conectarse a Internet, como por ejemplo WiFi, GPRS, Bluetooth, Infrarrojo, WAP.

En la actualidad (2010) los PDA han perdido el auge que tenían en sus inicios, ya que comienzan a ser sustituidos por los teléfonos inteligentes, como el Smartphone, los cuales integran todas las funciones de los PDA a las funciones de un teléfono móvil, además de muchas otras funciones.

Sábado, 29 de Enero de 2011 17:55

PCI (Peripheral Component Interconnect)

Una definición algo gruesa sería que PCI es el canal de datos en donde se conectan los dispositivos como tarjetas de red, discos duros, etc.
El trabajo sobre los PCI empezó en el laboratorio Intel en 1990 situado en Atlacomulco, Mexico. PCI1.O el cual fue solamente una especificación a nivel de componentes fue lanzado el 22 de junio de 1992.
Con la introducción del PCI 2.0 en el año 1993 y la aparición del Pentium el año 1994 el PCI terminó por convertirse, definitivamente, en estándar hasta el dia de hoy.
Cada dispositivo (una tarjeta de sonido, tarjeta de red, tarjeta de video PCI, tarjeta usb, etc) transmite datos hacia el SouthBridge el cual lo reenvía al NorthBridge y finalmente éste lo envía al procesador. Es un bus compartido lo que significa que sólo un dispositivo puede transmitir a la vez. Trabaja a una frecuencia de 33Mhz en un bus de 32 bits permitiendo transferir hasta 133MB/seg.
Esto se iría mejorando con las sucesivas mejoras, que darían lugar al PCI-X, o al actual PCI-Exprees, de valores de velocidad mucho mayores.

Una de las razones de su implantación general es que en las últimas revisiones de ISA y el bus MCA de IBM ya incorporaron tecnologías que automatizaban todo el proceso de configuración de las tarjetas, pero el bus PCI demostró una mayor eficacia en tecnología "plug and play".

Miércoles, 26 de Enero de 2011 11:12

Pastilla MIDI

Una pastilla MIDI es un dispositivo que capta las ondas acústicas de una cuerda vibrando, las analiza y transforma en información digital, que luego es procesada por sintetizadores, ordenadores o controladores de algún tipo.
Cuando una cuerda vibra, lo hace en millones de frecuencias distintas. A la nota que oímos, que es la frecuencia fundamental, se le suman multitud de frecuencias más altas llamadas armónicos. La mezcla y cantidad de estos armónicos define el timbre de un sonido . Nuestro oído percibe mejor los sonidos graves que los agudos, y reconoce fácilmente la nota fundamental. No es así para un dispositivo como una pastilla MIDI. En primer lugar, tiene que analizar cientos de frecuencias buscando la fundamental. También tiene que tomar valores de amplitud, de cuándo empieza el sonido y cuándo acaba, entre otros. No es de extrañar que aún quede mucho por hacer.

Hay dos tipos de pastillas actualmente:
-Hexafónicas: Son pastillas magnéticas, captan el sonido de la cuerda por electromagnetismo. Se diferencian de las pastillas estándar al tener una salida por cuerda. De esta forma se puede procesar cada cuerda por separado. Son las más comunes, y los últimos modelos son “de quita y pon”; pueden ser instalados en cualquier tipo de guitarra. En su contra se puede decir que dada la amplia variedad de guitarras del mercado, casi nunca van a funcionar al 100% de su capacidad.
-”Piezo” o de contacto: Está en contacto con la cuerda. Permite captar con mucha precisión la onda acústica, pero obliga a reformar el puente de la guitarra, y reduce sus posibilidades. Por ello se suelen utilizar en instrumentos acústicos.

Desde su creación, la guitarra eléctrica ha sido un instrumento de timbre moldeable. Al principio, se alteraba mediante ecualizadores y distorsiones de la señal original. El primer ejemplo de señal generada a partir de la original son los octavadores, circuitos que devuelven la señal de entrada una octava o dos por debajo. El siguiente paso es el ”fuzz-generator”, dispositivo que creaba una señal totalmente cuadrada a partir de la original.

Las primeras pastillas no utilizaban el código MIDI, dependían de un módulo externo único, y estaban integradas en una guitarra. No se podía usar una pastilla con un sintetizador ajeno, y esto las hacía poco prácticas. No es de extrañar que Roland dominase el mercado frente a sus competidores más cercanos, Yamaha, Casio y Axon, pues fue de las primeras empresas en incorporar el código MIDI en sus dispositivos, la primera en crear una pastilla que se pudiera instalar en cualquier guitarra, la GK2, y, desde luego, la pionera en conversión de ondas acústicas en información digital. Actualmente, la mayor parte de pastillas MIDI incorporan tecnología Roland, y el modelo GK2 ha sido sustituido por el GK3, de mayor precisión.
Sistemas alternativos al de Roland son las pastillas de contacto RMC, que requieren de un complicado montaje pero son muy fiables; y el SynthAxe, que utiliza las cuerdas como sensores mediante corrientes y campos electromagnéticos.

Página 16 de 53

Twitter Ingeniatic


Patrocinadores

 

Fotografía ganadora sphera 2012

 

Galería

Flickr + Highslide encountered an error

Error: SSL is required