'WLAN' ( en inglés; Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes LAN cableadas o como extensión de éstas. Utiliza tecnología de radiofrecuencia que permite mayor movilidad a los usuarios al minimizar las conexiones cableadas. Las WLAN van adquiriendo importancia en muchos campos, como almacenes o para manufactura, en los que se transmite la información en tiempo real a una terminal central. También son muy populares en los hogares para compartir el acceso a Internet entre varias computadoras. Para indicar la compatibilidad entre dispositivos inalámbricos,tarjetas de red o puntos de acceso de cualquier fabricantes, se les incorpora el logo "Wi-Fi" (estándar de Fidelidad Inalámbrica), y así los equipos con esta marca, soportada por más de 150 empresas, se pueden incorporar en las redes sin ningún problema, siendo incluso posible la incorporación de terminales telefónicos Wi-Fi a estas redes para establecer llamadas de voz. Las redes inalámbricas son inseguras aunque sólo sea porque el medio de transporte que emplean es el aire; por tanto, un elemento esencial a tener en cuenta en este tipo de redes al utilizarse la radio, es la encriptación. En general se utiliza WEP (Wired Equivalent Privacy), que es un mecanismo de encriptación y autenticación especificado en el estándar IEEE 802.11 para garantizar la seguridad de las comunicaciones entre los usuarios y los puntos de acceso. El estándar IEEE 802.11 contiene varias características de seguridad, tales como los modos de autentificación del sistema abierto y de llave compartida, el Identificador del Juego de Servicios (Service Set Identifier-SSID), y el Equivalente a Privacidad Cableada (Wired Equivalent Privacy-WEP). Cada una de estas características provee diferentes grados de seguridad que serán revisados a continuación. También se revisa información de cómo las antenas RF pueden ser usadas para limitar, y en algunas instancias darle forma a la propagación WM.
Wimax son las siglas de Worldwide Interoperability for Microwave Access, que significa algo así como Interoperabilidad mundial para acceso por microondas, cuyo rango de frecuencias varia entre los 2,5 a 3,5 Ghz (Queda claro que es una tecnología inalambrica).
Por hacer una breve introducción, podríamos decir que el Wimax es el hermano mayor del Wi-Fi, pero propiamente dicho, esta tecnología no pretende ser el sucesor de la misma, sino que no se enfoca tanto al ámbito particular, sino al profesional; aunque si es cierto que para particulares que viven en sitios de dificil acceso para que le llegue internet, antes que recurrir a soluciones por satélite, pueden abogar por esta tecnología.
La invención de esta tecnología es mas bien repartida que de un solo fabricante, así que no podemos atribuirle este honor a nadie en particular, lo que si podemos decir es que las compañías mas importante en el desarrollo de Wimax, son Intel y Millicom, por desarrollar el chip que usa; también Airspan Networks, Alcatel, Cisco Systems, Fujitsu, Nokia, Samsung y demás, son de los principales impulsores, y como hemos puntuado anteriormente, podemos considerar a todas estas compañías los creadores el Wimax.
Hablemos ahora de sus características:
Esta tecnología se agrupa con las conocidas tecnologías de ultima milla, lo que significa que permite recibir los datos por microondas y su retransmisión por ondas de radio.
Este, es un producto que esta conforme con los estándares de acceso inalambrico "IEEE 802.16", cuya conexión nos permite conseguir velocidades similares al ADSL, sin cables, y con distancias que rondan los 50 Km. Ademas de Internet, podemos llevar servicios de telefonía bajo IP (VOIP)
Las características tecnicas del Wimax son las siguientes:
- Capa MAC con soporte de múltiples especificaciones físicas (PHY).
- Velocidades de hasta 70 Mbps.
- Facilidades para añadir más canales.
- Anchos de banda configurables y no cerrados
- Soporte nativo para calidad de servicio (QoS)
Wimax fija trabaja bajo el protocolo 802.16b, que funciona mediante antenas fijas ( Que son parecidas a las de TV ), trabaja entorno a los 3.5 GHz
Wimax movil, bajo el protocolo 802.16e trabaja en bandas de 2 - 3 GHz
Aplicaciones del wimax
Para hacer una introducción a este apartado, el wimax es capaz de enviar y recibir señales de voz, datos y vídeo.
Introduciéndonos un poco mas, Wimax puede ofrecer servicios de:
-Fax, ISDN
-Voz: POTS, VOIP
-Video, TV, AUDIO
-Servicio de internet
-Servicio de Tele-Metría
-Esta tecnología, puede proveer Internet a particulares, como anteriormente se había dicho, que estén en zonas de difícil acceso (zonas rurales).
-También ofrece conexión a empresas, con servicios VoIp.
-Tiene ventajas para los operadores, estos pueden ofrecer un servicio nuevo y novedoso.
-Sirve también como conexión troncal para redes, lo que viene siendo interconectar las mismas.
WiFi, que significa Wireless-Fidelity, es un conjunto de estándares para redes inalámbricas locales, basados en las especificaciones IEEE 802.11. WiFi es una marca de la Wi-Fi Alliance (nuevo nombre de la WECA desde 2003), la organización comercial que prueba y certifica que los equipos están bajo dicho estándar, para que sea cual sea el fabricante, dichos equipos interoperen y sean compatibles entre sí. La WECA fue fundada por 3Com, Cisco, Intersil, Agere, Nokia y Symbol Technologies en Agosto de 1999, con el compromiso de impulsar el desarrollo a nivel mundial de la tecnología de LAN inalámbrica bajo el estándar IEEE 802.11, desarrollado básicamente en Estados Unidos. A día de hoy, la lista de miembros se ha incrementado hasta los 170. En abril de 2000 se establece la primera norma: Wifi 802.11b, que utilizaba la banda de los 2.4Ghz y que alcanzaba una velocidad de 11Mbps. Tras esta especificación llegó la 802.11a, utilizando la banda de los 5Ghz, lo que generó algunos problemas entre Estados Unidos y Europa, pues en viejo continente dicha banda estaba reservada para fines militares. Esto supuso cierta paralización de esta tecnología inalámbrica, pues los fabricantes (norteamericanos en su mayoría) tardaron en reaccionar ante la imposibilidad de comercializar sus productos en Europa. Tras muchos debates se aprobó una nueva especificación, 802.11g, que al igual que la “b” utilizaba la banda de los 2,4GHz pero multiplicaba la velocidad hasta los 54Mbps. Resultó que estas tres especificaciones eran incompatibles entre sí, por lo que el siguiente paso fue crear equipos capaces de trabajar con las tres, saltando “en caliente” de unas a otras, y lanzado soluciones que se etiquetaban como “multipunto” Hoy estamos inmersos en la especificación 802.11n, que trabaja a 2,4GHz a una velocidad de 108 Mbps, una velocidad conseguida gracias a diferentes técnicas de aceleración. Existen varios dispositivos que permiten interconectar elementos WiFi. Entre ellos destacan los routers y puntos de acceso, para la emisión de la señal, y las tarjetas receptoras para conectar el dispositivo personal, ya sean internas (tarjetas PCI) o bien externas (tarjetas USB). Entre las ventajas de las redes WiFi podemos destacar: la comodidad frente a las redes cableadas y la posibilidad de acceso de múltiples ordenadores, con tecnología WiFi, sin ningún problema y en cualquier parte del mundo. Las desventajas son las típicas de cualquier red inalámbrica: menor velocidad en comparación con una conexión con cables y ciertos problemas de seguridad debidos al fácil descifrado de las claves de acceso a las redes WiFi, aunque ya se ha ido subsanando con la entrada en vigor de los estándares WPA y WAP2, consiguiendo redes bastante más robustas.
Este nuevo sistema fue principalmente creado para corregir la ya conocida ineficacia del burlado algoritmo WEP (Wired Equivalent Privacy), el cual comenzaba a hacerse famoso por las debilidades de su algoritmo (tales como la reutilización del vector de inicialización (IV); en el lenguaje "común", la captura e inyección de paquetes, del cual se derivan ataques estadísticos que permiten recuperar la clave de forma sencilla en un corto espacio de tiempo).
WPA implementa la mayoría del estándar IEEE 802.11i y fue creado como una medida intermedia para ocupar el lugar de WEP mientras el propio estándar era finalizado. WPA fue creado por "The Wi-Fi Alliance" (La Alianza Wi-Fi), antigua Wireless Ethernet Compatibility Alliance (WECA)
WPA adopta la autenticación de usuarios mediante el uso de un servidor, donde se almacenan las credenciales y contraseñas de los usuarios de la red. Para no obligar al uso de tal servidor para el despliegue de redes, WPA permite la autenticación mediante clave "pre-compartida" (PSK: Pre-Shared Key), que de un modo similar al WEP, requiere introducir la misma clave en todos los equipos de la red.
Fue diseñado para utilizar un servidor de autenticación (normalmente un servidor RADIUS), que está encargado de distribuir claves diferentes a cada usuario, sin embargo, también se puede utilizar en un modo menos seguro de clave pre-compartida para usuarios de casa o pequeña oficina, reduciendo costes.
Respecto a WEP, se implementa el llamado "Protocolo de Integridad de Clave Temporal" (TKIP: Temporal Key Integrity Protocol), que cambia claves dinámicamente a medida que el sistema es utilizado. Cuando esto se combina con un vector de inicialización mucho más grande (de 48 bits), evita los ataques de recuperación de clave (los conocidos como ataques estadísticos) a los que es susceptible WEP. También mejora la integridad de la información cifrada.
WPA implementa un código de integridad del mensaje (MIC: Message Integrity Code), también conocido como "Michael". Además, incluye protección contra ataques de "repetición" (replay attacks), ya que incluye un contador de tramas.
Al incrementar el tamaño de las claves, el número de llaves en uso, y al agregar un sistema de verificación de mensajes, WPA hace que la entrada no autorizada a redes inalámbricas sea mucho más difícil. El algoritmo "Michael" fue el más fuerte que los diseñadores de WPA pudieron crear, bajo la premisa de que debía funcionar en las tarjetas de red inalámbricas más viejas; sin embargo es susceptible a ataques. Para limitar este riesgo, los drivers de las estaciones se desconectarán un tiempo definido por el fabricante, si reciben dos colisiones "Michael" en menos de 60 segundos, podrán tomar medidas, como por ejemplo reenviar las claves o dejar de responder durante un tiempo específico. Ésto puede evitar los llamados "ataques de fuerza bruta", consistentes en "probar hasta que salga".
Desgraciadamente, la primera revisión de WPA es vulnerable a un ataque de recuperación de keystream, es decir, sería posible reinyectar tráfico en una red que utilizara WPA-TKIP.
WPA se podría considerar una "migración”, mientras que WPA2 es la versión certificada del estándar de la IEEE.5.
Los fabricantes comenzaron a producir la nueva generación de puntos de accesos apoyados en el protocolo WPA2 que utiliza el algoritmo de cifrado AES (Advanced Encryption Standard), una configuración bastante típica en los routers pre-configurados que ofrece Jazztel, por citar un ejemplo.
Durante el intercambio de información en el proceso de conexión RSN, si el cliente no soporta las autenticaciones que especifica el AP (Punto de Acceso), será desconectado pudiendo sufrir de esta manera un ataque DoS especifíco a WPA.
Las claves PSK (pre-compartidas) son vulnerables a ataques de diccionario, aunque se puede evitar utilizando un servidor RADIUS, que se encarga de generar diferentes claves, algo muchísimo más común en las empresas. Existen proyectos libres que utilizan GPUs con lenguajes específicos como CUDA (NVIDIA) y Stream (AMD) para realizar ataques de fuerza bruta hasta 100 veces más rápido que con computadoras ordinarias, basándose en la potencia de cálcuo de los procesadores y relojes que estas tarjetas gráficas poseen.
WPA-WPA2 sigue siendo la mejor alternativa para la seguridad de una red wireless, siempre y cuando se tomen medidas de sentido común, y tratando de dificultar a posibles intrusores con todos los medios que un enrutador y la disposición de la red permitan. Y eso teniendo en cuenta que últimamente aparecen muchos artículos en blogs de opinión o foros especializados en auditoría Wireless de gente que es capaz de vencer el algoritmo en quince minutos, sin diccionarios de "keywords", o incluso que con una tarjeta gráfica se puede aumentar radicalmente la potencia de cálculo y el número de permutaciones por segundo que hacen posible el encontrar una clave por la fuerza. Afortunadamente, el equipo y conocimientos disponibles para el usuario medio, medio-bajo siguen siendo algo insuficiente, puesto que de otra manera toda persona avispada se aprovecharía de la conexión de su vecino. Algo que sucede cada vez con más frecuencia en el caso del algoritmo WEP.
Es una cámara digital que conectada a una computadora permite la transmision de imagenes en directo a través de una web. La historia viene del año 1991, cuando dos estudiantes de la Universidad Británica de Cambridge decidieron poner fin al "problema de la maquina de café".El problema era que la máquina del café del departamento donde estudiaban los inventores, estaba en un sótano alejado de las oficinas, lo que conllevaba un enorme trasiego el dirigirse a la maquina y encontrarse con ella vacía.Para que esto no ocurriera programaron un servidor llamado Xcoffe que conectando una camara digital a un ordenador, permitia ver en tiempo real lo que sucedía en la maquina de café. Un año más tarde utilizando el mismo servidor salía al mercado la primera web cam.La primera web cam fué finalmente desconectada el 22 de Agosto de 2001. Las camaras web están formadas por una lente, un sensor de imagen y un circuito electrico. La resolución mas normal de una camara web es VGA(640X480 pixels)pero están saliendo al mercado resoluciones de 1 a 1,3 MP.Pese a la mala calidad de imagen se utilizan como cámaras de vigilancia. Sin embargo este tipo de camaras presenta un inconveniente que viene siendo muy habitual en la actualidad; y es que cualquier persona con los conocimientos suficientes puede grabar y acceder a ella cuando quiera, por eso deben permanecer desconectadas del computador siempre que no se esté utilizando.
La primera idea nació de Vannevar Bush en los años 40, propuso exponer información distribuida con una interfaz operativa que permitía el acceso a usuarios mediante claves, Ted Nelson en los años 50 introduce el hipertexto, donde la información es enlazada y posteriormente en 1989, en el CERN (Suiza), Tim Berners-Lee (con la ayuda de Robert Cailliau), con un soporte operativo tecnológico para la distribución de información en redes informáticas se crea los que ahora conocemos como Web. Un sistema de hipertexto, se refiere al conjunto de texto y contenidos multimedia que no está creado para ser leído linealmente (es decir, empezando por el principio y acabando por el final), sino que utiliza enlaces (links) para hacer remisiones, poner en contacto distintas partes, o para conectarse con otros textos. Es importante saber que web o www no son sinónimo de Internet, la web es un subconjunto de Internet que consiste en páginas a las que se puede acceder usando un navegador. Internet es la red de redes donde reside toda la información. Los documentos necesitaban un formato que fuera adecuado para su misión. En aquella época casi todo el mundo utilizaba los lenguajes TeX y PostScript, pero éstos eran demasiado complicados teniendo en cuenta que debían ser leídos por todo tipo de computadoras, desde los ordenadores de usuario hasta las estaciones de trabajo. Así, tanto el lenguaje de intercambio (HTML) "HyperText Mark-up Language", como el protocolo de red (HTTP) se diseñaron para ser realmente muy simples y prácticos. Se podría resumir que las páginas web eran documentos estáticos que jamás se actualizaban, simplemente sólo se ofrecía información al usuario que la visitaba mediante lo explicado anteriormente. Sobre 2004, nació web 2.0, una nueva visión de como navegar por la red, en la que premiaba la participación activa de los usuarios, a través de opciones que le dan al usuario voz propia en la web, pudiendo administrar sus propios contenidos, opinar sobre otros y enviar y recibir información con otras personas de su mismo estatus. La estructura respecto a WWW es más dinámica y utiliza formatos más modernos, que posibilitan más funciones. Actualmente, se podría considerar que los avances han desembocado en la web 3.0, que son aplicaciones web conectándose entre sí, a fin de enriquecer la experiencia de las personas, haciendo uso de formatos especializados que amplían la información y esto proporciona autonomía respecto del navegador y construcción de la web semántica. Sin tener asentadas las bases de este nuevo desarrollo, ya se piensa en web 4.0, tal y como se describe en esta gráfica, en un futuro no muy lejano.
El walkman es un reproductor de audio estéreo portátil lanzado al mercado por la compañía japonesa Sony en 1979 y que tuvo un gran éxito en los años 80, considerándose un símbolo de aquella década. En 2004 existían más de 340 millones de "walkmans", además de todo tipo de reproductores inspirados en la formula que representó. De su evolución podemos destacar la primera comercialización del modelo D-1/2, una cinta de audio digital para uso profesional (el principio de aparatos digitales). En 1983 apareció el walkman amarillo, deportivo y resistente al agua, que marcó el ingreso del aparato a otros deportes. En 1984, el Walkman tradicional se transformó en una pequeña caja que cabía perfectamente en el bolsillo, de una anchura mínima que permitía cargar decenas de canciones en un disco compacto. Fue el primer Discman de la historia, el codiciado modelo D-50.
El nacimiento del walkman es una especie de mito urbano con varias versiones; se atribuye a Andreas Pavel (inventor alemán-brasileño) la invención del primer reproductor de audio estéreo portátil en 1972. Tras intentar vender sin éxito su idea a varias empresas europeas, Pavel decidió patentar su invento. Tras esto, Sony comenzó negociaciones con Pavel sobre la propiedad intelectual de la invención, a pesar de que la compañía siempre mantuvo que el inventor del Walkman había sido Masura Ibuka (uno de sus fundadores). Pavel llevó a juicio a Sony en Gran Bretaña en 2005, exigiendo que se reconociese que él era el inventor original del aparato, y siendo obligado Sony al pago de varios millones de dólares.
El primer modelo lanzado al mercado fue el TPS-L2 (en la imagen) en 1979, el cual era un aparato que permitía llevar música a todos lados en una caja con casetera que sólo guardaba una hora de música. Posteriormente, en los primeros años de los 80, Sony, Panasonic, Toshiba, Aixa y Sanyo fueron los principales productores de este tipo de dispositivos, intentando encontrar todas ellas un nombre tan exitoso como el producto, aunque ninguna superó el ingenio de Sony, cuyo Walkman se posicionó como el apelativo de referencia mundial, siendo la palabra incluída en El Larousse dos años después de su aparición.
El siguiente paso fue comercializar el producto. Como al principio muy pocos podían permitirse uno debido a su elevado precio (rondaba los 150 dólares), Sony decició enviar Walkmans a celebridades japonesas y estadounidenses para que hiciesen llegar el producto al usuario común.
Las innovaciones de este aparato estuvieron asociadas al diseño y la calidad; una de las premisas ha sido reducir el tamaño sin perder la estética y calidad del sonido.
Sobre su funcionamiento podemos decir que es un dispositivo que, por medio de una bobina electromagnética, permite sólamente la lectura del contenido del casette de audio, transmite la señal hacia un conector de salida de audio Jack 3.5 mm. hembra y éste a su vez hacia los audífonos. La información en el casette está grabada en una larga cinta con partículas magnéticas recubiertas por una capa de pintura especial.
El Walkie-talkie también es conocido como transmisor-receptor portátil y es una transceptor de radio portátil, es decir, es un dispositivo que realiza tanto las funciones de emisión como de recepción. Ésto permite el envío de señales entre dos o más terminales en ambos sentidos pero no simultáneamente.
El walkie-talkie fue inventado por el canadiense Donald L. Hings en el año 1937, el cual fue destinado al servicio militar hacia 1942. Pero entre 1934 y 1941 Alfred J. Gross trabajó en la tecnología del walkie-talkie que posteriormente fue incorporada en dichos dispositivos, de ahí que mucha gente considere a Gross como el inventor del walkie-talkie.
Durante la Segunda Guerra Mundial una empresa llamada Galvin Manufacturing Corporation, que más tarde será la actual Motorola, diseñó el "Handie-talkie" (HT). El "Handie-talkie" era una dispositivo más pequeño y con menos prestaciones que el Walkie-talkie.
Los walkie-talkie fueron usados en ámbitos militares pero actualmente se utilizan en muchos más campos además del militar. Son usados para la seguridad pública, servicios de emergencia, para empleos comerciales e industriales, y tienen una determinada frecuencia para estos servicios. Además de estar destinado a lo profesional, el walkie-talkie personal se ha hecho muy popular con el nuevo Family Radio Service (FRS) originado en los Estados Unidos. Éstos son usados como juguetes debido a que la producción en serie hace que tengan un precio bajo. Para evitar que interfieran con los walkie-talkie utilizados en el sector servicios, los FRS tienen la frecuencia limitada.
Las seis partes fundamentales de un walkie-talkie son: el transmisor, el receptor, la pantalla, el altavoz, el micrófono y la fuente de alimentación. El transmisor envía el mensaje al otro walkie-talkie después de que la voz se halla convertido en una señal de radio. El receptor recibe el mensaje. En la pantalla se ajusta la frecuencia o el canal, ya que para que halla comunicación entre dos o más walkie-talkie todos tienen que tener la misma frecuencia. El altavoz sirve para escuchar el mensaje y el micrófono es por donde se dice el mensaje. Otro elemento que incorpora algún walkie-talkie es un interruptor que cambia la frecuencia.
Podemos encontrar este dispositivo en múltiples equipos de audio e incluso video. Gracias a el podemos obtener información sobre el volumen de la señal que llega a nuestros oídos de forma visual. Su funcionamiento se basa en una bobina móvil alimentada por medio de un rectificador de onda completa que a su vez se alimenta de la línea mediante una un componente resistivo en serie. No necesita más fuente de energía para su funcionamiento que la señal de entrada. El indicador de volumen marca 0 VU cuando se conecta a la salida una resistencia de 600 Ohms, para una señal sinusoidal de 1000 Hz. Para entender de forma mas clara y sencilla el funcionamiento de este dispositivo nos remontamos a su historia. La idea para desarrollar el vúmetro surgió a partir de la necesidad de proporcionar el nivel de audio suficiente sin llegar a percibir una distorsión en la señal ofrecida en la audiencia “Unknown Soldier on Armistice Day ” celebrada en Arlington, New York y San Francisco en el año 1921. En las pruebas de sonido previas a la audiencia se dieron cuenta de que el mismo volumen de salida provocaba una distorsión a través de un receptor telefónico y no en unos altavoces. Este problema dió lugar al desarrollo del Vúmetro, en ingles SVI (Stándar Volumen Indicator ) ya que se tuvo la idea de crear un dispositivo que ofreciera información de forma visual sobre niveles de audio que podían entregarse sin llegar a ciertos límites los cuales provocaban esta distorsión y así poder controlar dicho nivel a través de potenciómetros o faders. Es por esto que hoy en día , a parte de ofrecernos un información a nivel de usuario del volumen de forma visual, tenga su principal aplicación profesional en la óptima captación y emisión de señales de audio. Ateniéndose a unos criterios normalizados podemos definir la calidad de la señal que queremos grabar o reproducir. Su medición es lenta a propósito para reflejar de una manera clara al usuario los máximos y mínimos en la señal entregada. Como norma general esa señal no debe superar la franja marcada con 0VU, ya que esto podía ocasionar pérdidas en la calidad de sonido ofreciéndo una respuesta en frecuencia más pobre y una saturación en la grabación, ocasionando problemas en una futura tratación de la señal en equipos de audio digital. Por otro lado si la señal es demasiado baja la relación entre el ruido y la señal es mas notable en la grabación lo cual también dificulta su posterior tratación si la hubiese. Actualmente con la evolución de la tecnología hemos dejado de lado los primeros prototipos analógicos para dar paso a una visualización a través de leds, los cuales nos pueden ofrecer otras funciones como mostrar máximos y mínimos de forma estática.
Virtual Studio Technology (Tecnología de Estudio Virtual) ó VST es una interfaz estándar que permite conectar sintetizadores de audio y plugins de efectos con secuenciadores y sistemas grabación. Esta tecnología fue desarrollada por Steinberg y gracias a su uso podemos remplazar el hardware tradicional de los estudios de grabación por un estudio virtual basado en el software, que siempre resulta mucho más económico y practico.
Hay diferentes tipos de Software que utilizan esta tecnología, dependiendo de si generan o procesan señales de audio, los VSTi (Instrumentos VST), los VST de efectos y los VST que interactúan con interfaces MIDI, estos software siempre deben de ser ejecutados por un una aplicación que soporte esta tecnología (A esta aplicación se le llama VST Host, ejemplos de esto son Pro tools, Cubase, Audacity, Logic...)
La tecnología VST esta disponible para los sistemas operativos de Windows y Mac OS (Aunque en esté es más común el uso de una tecnología similar llamada Audio Units, diseñada por Apple Computer y por tanto exclusiva de está plataforma), el VST siempre debe estar compilado para la plataforma donde se vaya a ejecutar,ya que un VST compilado para Mac OS no funcionará en Windows y recíprocamente. Para linux no hay ningún tipo de compilación concreta sino que se utiliza el VST compilado para windows y lo emulamos con Wine.
La principal ventaja de la tecnología VST es que te permite conectar diferentes software, de diferentes compañías y con diferentes finalidades a un sistema de grabación concreto formando así un estudio virtual “completo” en un ordenador, ahorrando así espacio y dinero ya que no dependemos tanto del hardware externo.