Cuando lo que se trata es de medir frecuencias que caen dentro de la gama de audio, puede utilizarse un diapasón, con este procedimiento sólo podrá hacerse la medida de aquellos valores de frecuencia que coincidan con los de los diapasones disponibles.
Para medir la frecuencia de la red de distribución eléctrica, que es aproximadamente de 50 o 60 Hz. Se disponen varias láminas metálicas de longitudes muy similares, pero cuya frecuencia de resonancia sea ligeramente distinta. La aplicación sobre todas ellas simultáneamente de la frecuencia de la red pondrá en vibración una sola, conociéndose así exactamente el valor de la misma.
También existe un medio óptico de medida de frecuencias que es el estroboscopio. Para ello se emplea una lámpara de destellos, a la que se hace llegar una secuencia de impulsos cuya frecuencia puede hacerse variable y conocida. Haciendo que los destellos iluminen el objeto rotatorio, y variando la frecuencia de los mismos hasta que un punto de referencia del objeto “ parezca” estar fijo, conseguiremos conocer la frecuencia de tal objeto.
Otro método se basa en el empleo de un circuito resonante, variando los valores de la capacidad de sintonía o de la bobina en paralelo con el condensador, puede conseguirse que entre en resonancia con la frecuencia de la señal a medir. Basta disponer de una escala graduada para hacer la medición de forma cómoda.
Últimamente ha aparecido un instrumento en el mercado que efectúa las operaciones de búsqueda de valor de la frecuencia aplicada empleando otro sistema, presentando además el resultado en una forma numérica directa. Se trata del frecuencímetro digital. Este equipo trabaja según el método de cuenta del número de ciclos o períodos de la señal desconocida durante un tiempo prefijado, denominado tiempo de puerta.La señal de entrada al instrumento es aplicada a un circuito interno donde se limita su amplitud, se amplifica y alcanza a otro circuito conformador del que se obtiene una onda cuadrada de la misma frecuencia, el cual la envía a un circuito puerta, encargado de dejar pasar únicamente el número de ciclos que se produzcan durante el período de tiempo fijado por otra señal que llega a una segunda entrada de la misma puerta.
El tiempo mencionado se obtiene de un oscilador de elevada frecuencia y un divisor que la divide por un factor variable dependiendo del rango de medida seleccionado exteriormente.La señal obtenida a la salida de la puerta anterior llega a unos contadores enlazados en serie que calculan el número de ciclos recibidos durante el tiempo prefijado acumulando el resultado en una memoria, dando comienzo seguidamente a otro ciclo completo de recuento, presentándose el resultado en el correspondiente display.
La conmutación se encarga de conectar los puntos origen y destino de una forma progresiva y transparente al usuario, de forma que el mensaje llegue única y exclusivamente al receptor deseado;así pues un conmutador es un dispositivo de interconexión entre dos o más elementos en una misma red.Cabe destacar la diferencia entre primeros y los nuevos conmutadores.
En sus inicios se usaban generalmente en redes telefónicas y que gracias a la evolución de nuevas tecnologías de comunicación(impulsadas fundamentalmente por los telegrafistas en su carrera por conseguir mejores comunicaciones) ahora se utilizan también en complejas redes de ordenadores,conectando puertos unos con otros y redes unas con otras. En este último caso los conmutadores funcionan como un dispositivo digital de lógica de interconexión de redes de computadores que opera en el nivel de enlace de datos del modelo OSI. Se emplea principalmente para interconectar dos o más segmentos de red, de manera similar a los puentes (bridges), pasando datos de un segmento a otro de acuerdo con la dirección MAC de destino de las tramas en la red.
Los conmutadores poseen la capacidad de aprender y almacenar las direcciones MAC de los dispositivos alcanzables en la red mediante sus puertos de conexión . También se pueden conectar entre sí dos conmutadores siempre y cuando entre ellos exista un único camino, de lo contrario se produce un bucle o ciclo provocando una inundación en la red con la consiguiente caída de las comunicaciones.
Digital Visual Interface es una interfaz de video diseñada para obtener la máxima calidad de visualización posible en pantallas digitales, tales como los monitores de cristal liquido de pantalla plana y los proyectores digitales. El formato de datos de DVI está basado en el formato de serie PanelLink, desarrollado por el fabricante de semiconductores Silicon Image Inc. Emplea TMDS (Señal Diferencial con Transición Minimizada). Un enlace DVI consiste en un cable de cuatro pares trenzados: uno para cada color primario (rojo, verde, y azul) y otro para el reloj (que sincroniza la transmisión).
La sincronización de la señal es casi igual que la de una señal analógica de vídeo. La imagen se transmite línea por línea con intervalos de borrado entre cada línea y entre cada fotograma. No se usa compresión ni transmisión por paquetes y no admite que sólo se transmitan las zonas cambiadas de la imagen. Esto significa que la pantalla entera se transmite constantemente.
Con un solo enlace DVI (Single Link), la máxima resolución posible a 60 Hz es de 2,6 megapíxeles. Por esto, el conector DVI admite un segundo enlace (Dual Link), con otro conjunto de pares trenzados para el rojo, el verde y el azul. Cuando se requiere un ancho de banda mayor que el que permite un solo enlace, el segundo se activa, y los dos pueden emitir píxeles alternos.
El estándar DVI especifica un límite máximo de 165 MHz para los enlaces únicos, de forma que los modos de pantalla que requieran una frecuencia inferior deben usar el modo de enlace único, y los que requieran más deben establecer el modo de enlace doble. Cuando se usan los dos enlaces, cada uno puede sobrepasar los 165 MHz. El segundo enlace también se puede usar cuando se necesiten más de 24 bits por píxel, en cuyo caso transmite los bits menos significativos.
La botella de Leyden es la construcción más antigua de un condensador. Se compone de una vasija de cristal, que está revestida tanto dentro como fuera con una hoja metálica (armaduras), el cristal hace de aislante, lo que se llama dieléctrico. En el tapón de corcho de la botella se le incrusta una varilla, que comunica la armadura interior del frasco con el exterior, para aislar las armaduras de posible conducción eléctrica se impregnaba de goma laca el cuello de la botella. El principio de la botella de Leyden fue descubierto en 1745 por, independientemente el uno del otro, Ewald Georg von Kleist de la ciudad de Cammin (Prusia), y un año después, por el Físico Pieter van Musschenbroek en Leyden. Finalmente el nombre que recibió este aparato, botella de Leyden, se debe a que fue en la Universidad de Leyden (Holanda), donde se realizaron los primeros experimentos por parte de Cuneus y Musschenbroek .
Actualmente un condensador está formado por dos placas metálicas separadas por un aislante denominado dieléctrico como puede ser cerámica, plásticos, etc. El dieléctrico es una lámina de espesor muy fino para que las placas, denominadas armaduras, disten entre sí a muy poca distancia. La capacidad de un condensador viene determinado por la superficie que tiene las armaduras y la distancia entre ellas, así se obtendrá mayor capacidad con una armadura más grande y un dieléctrico muy delgado. Al aplicar una tensión continua entre los bornes de un condensador la corriente es nula, debido al dieléctrico, pero se acumula carga eléctrica en las armaduras. Al quitar la tensión, la acumulación de carga se mantiene. Si se vuelve a unir las armaduras, habrá una corriente muy breve hasta llegar a su estado inicial, descargado. Cuando aplicamos una tensión alterna sinusoidal v(t), circula una corriente, que cargará el condensador con una tensión de -vc(t), que es igual a v(t) (ver tensión y corriente en un condensador). El condensador se carga y descarga al ritmo de la frecuencia de v(t), por tanto en un condensador que trabaja en tensión alterna circula entre sus armaduras corriente sin atravesar el dieléctrico.
La capacidad de los condensadores se mide en Faradios, pero como es una unidad muy grande, en la práctica se utilizan unidades más pequeñas como micro, nano o pico Faradios. Existen muchos tipos de condensadores, los cerámicos por sus características se utilizan desde la alta frecuencia hasta la baja como condensadores de desacoplo y de paso. Los condensadores de plástico se emplean en frecuencias bajas o medias, como condensadores de paso y aveces para alta frecuencia. Los electrolíticos son los de mayor capacidad, son de polaridad fija y se emplean normalmente en filtros de rectificadores, desacoplos en baja frecuencia y condensadores de paso.
La computación grid; la modalidad más avanzada de computación distribuida ayuda a reducir los tiempos de las investigaciones. La computación distribuida une miles de computadores individuales, creando un gran sistema con poder de computación masivo superando ampliamente el poder de un conjunto de súper computadores. Como el trabajo se divide en pequeñas partes que se pueden procesar simultáneamente, el tiempo de investigación se reduce de años a meses. La tecnología también es más eficaz en lo que se refiere al costo, permitiendo un mejor uso de fondos fundamentales.
Los principales proyectos de computación grid son los siguientes:
Folding@home: Su objetivo es realizar simulaciones del plegamiento de proteínas, que sirven para comprender mejor el desarrollo de enfermedades como el mal de Alzheimer y el cáncer. Nació en octubre del 2000 y lo dirige la Universidad de Stanford (E.U). El proyecto superó el petaflop en septiembre de 2.007 gracias a la liberación del cliente para SONY PS3, esto supuso un incremento considerable en la capacidad de cálculo, al incorporar los poderosos procesadores Cell de las PS3 de los nuevos voluntarios que se unieron al proyecto. Hasta ese momento el proyecto contaba con alrededor de 250.000 CPUs activas, la incorporación de usuarios con PS3 supuso un importante incremento de usuarios y un salto inmediato a rendimientos superiores a petaflops. Actualmente, otro nuevo salto de rendimiento se ha producido con la liberación del cliente para GPUs de tarjetas gráficas. Esto ha supuesto la incorporación de 4.000 GPUs aportando alrededor de 450 teraflops de proceso, lo que supone para el proyecto, un rendimiento global de 2.52 Petaflops, según los últimos datos.
SETI@home : Es el pionero de la computación distribuida y el más popular. Nació en 1999 en la Universidad de Berkeley (E.U), con la meta de estudiar señales provenientes del espacio exterior, para encontrar inteligencia por fuera del planeta Tierra
World Community Grid- Dengue: Se trata de uno de los proyectos de Worl Community Grid, el cual busca hallar soluciones para esta enfermedad, que afecta a millones de personas cada año.
Rosetta@home: Ayuda a los investigadores a encontrar la cura de enfermedades graves, como la malaria, el virus de inmunodeficiencia humana (VIH), el cáncer y el mal de Alzheimer.
ClimatePrediction: Intenta con la ayuda de miles de "donantes", producir una simulación realista de cómo será el clima del planeta en el futuro, con el fin de tomar las medidas preventivas y correctivas necesarias para impedir la escasez de agua y alimentos, combatir el calentamiento global y frenar la destrucción del medio ambiente.
Actualmente los fabricantes están tendiendo a “modelar” modelos antiguos (debido al gran prestigio, calidad y sonido). Esta técnica consiste en analizar la circuitería de estos procesadores clásicos y la interacción entre cada uno de los elementos que los componen para después replicar el comportamiento mediante complejos procesos de programación, de tal forma que podemos tener en formato “plug-in” (formato software) todos los modelos que queramos sin preocuparnos de las limitaciones que se tiene con sus análogos hardware (peso, alto coste, deterioramiento de los componentes, espacio ocupado, etc).
El funcionamiento de un compresor consiste en la reducción de la dinámica sonora (distancia entre sonidos altos y suaves) de una señal eléctrica o digital. Para un correcto funcionamiento estos equipos disponen de algunos parámetros estándar o prácticamente comunes a todos los modelos, que son los siguientes:
Threshold : Con este control seleccionamos a partir de qué nivel de señal empieza a actuar.
Ratio: Indica la cantidad de compresión que se va a aplicar una vez superado el threshold o umbral. Por ejemplo, una ratio de 4:1 significa que por cada 4 db de señal que superen el umbral sólo pasa 1 db.
Ataque: Controla el tiempo que tarda el compresor en reaccionar.
Release: Controla el tiempo que tarda el compresor en dejar de actuar.
Knee: Indica la curva de compresión, es decir, si se selecciona un knee suave estaremos reduciendo (aunque en menor medida) señales con algo menor de nivel que la del umbral.
Habitualmente también se incluye un medidor de reducción de ganancia que nos permite visualizar mediante un vúmetro la cantidad aplicada en cada momento.
El comercio electrónico consiste en la compra y venta de productos o de servicios a través de medios electrónicos, tales como Internet y otras redes informáticas. Originalmente el término se aplicaba a la realización de transacciones mediante medios electrónicos tales como el Intercambio electrónico de datos, sin embargo con el advenimiento de la Internet y la World Wide Web a mediados de los años 90 comenzó a referirse principalmente a la venta de bienes y servicios a través de Internet, usando como forma de pago medios electrónicos, tales como las tarjetas de crédito.
La cantidad de comercio llevada a cabo electrónicamente ha crecido extraordinariamente debido a la propagación de Internet. La mayor parte del comercio electrónico consiste en la compra y venta de productos o servicios entre personas y empresas, sin embargo un porcentaje considerable del comercio electrónico consiste en la adquisición de artículos virtuales (software y derivados en su mayoría), tales como el acceso a contenido "premium" de un sitio web.
El comercio electrónico realizado entre empresas es llamado en inglés Business-to-business o B2B. El B2B puede estar abierto a cualquiera que esté interesado (como el intercambio de mercancías o materias primas), o estar limitado a participantes específicos pre-calificados (mercado electrónico privado).
En los últimos decenios del siglo XIX empresas comerciales como Montgomery Ward y luego Sears inciaron la venta por catálogo en los Estados Unidos. Este sistema de venta, revolucionario para la época, consiste en un catálogo con fotos ilustrativas de los productos a vender. Este permite tener mejor llegada a las personas, ya que no hay necesidad de tener que atraer a los clientes hasta los locales de venta. Esto posibilitó a las tiendas poder llegar a tener clientes en zonas rurales, que para la época que se desarrolló dicha modalidad existía una gran masa de personas afectadas al campo. Además, otro punto importante a tener en cuenta es que los potenciales compradores pueden escoger los productos en la tranquilidad de sus hogares, sin la asistencia o presión, según sea el caso, de un vendedor. La venta por catálogo tomó mayor impulso con la aparición de las tarjetas de crédito; además de determinar un tipo de relación de mayor anonimato entre el cliente y el vendedor.
A principio de los años 1970, aparecieron las primeras relaciones comerciales que utilizaban una computadora para transmitir datos, tales como órdenes de compra y facturas. Este tipo de intercambio de información, si bien no estandarizado, trajo aparejadas mejoras de los procesos de fabricación en el ámbito privado, entre empresas de un mismo sector.
A mediados de 1980, con la ayuda de la televisión, surgió una nueva forma de venta por catálogo, también llamada venta directa. De esta manera, los productos son mostrados con mayor realismo, y con la dinámica de que pueden ser exhibidos resaltando sus características. La venta directa se concreta mediante un teléfono y usualmente con pagos de tarjetas de crédito.
En 1995 los países integrantes del G7/G8 crearon la iniciativa un mercado global para Pymes, con el propósito de acelerar el uso del comercio electrónico entre las empresas de todo el mundo, durante el cual se creó el portal pionero en idioma español Comercio Electrónico Global.
El médico y físico francés Edouard Désiré Branly (1846-1940), estudiando las variaciones de conductividad eléctrica de los metales bajo diversas condiciones, observó un fenómeno insólito: las limaduras de varios metales, bajo la influencia de ondas Hertzianas reducían considerablemente su resistencia eléctrica. Dicho fenómeno dio lugar al invento del "cohesor".
El cohesor era un detector de señales electromagnéticas que constaba de un tubo aislante de pocos centímetros de longitud, relleno de limaduras metálicas y con un terminal conductor en cada extremo. En su estado normal, las limaduras presentan una alta resistencia al paso de la corriente, normalmente cercana al megaohmio. Pero tal resistencia caía bruscamente, a sólo unos pocos ohmios, si el cohesor recibía entre sus bornes la excitación de una señal alterna suficiente potente. A partir de este momento, el cohesor permanece en estado de conducción hasta que las limaduras son sacudidas mediante un golpe sobre el tubo contenedor. Otros cohesores posteriores al de Branly fueron el cohesor de Oliver Lodge y el de Alexander Popov.
El profesor de física de la Universidad de Liverpool, Oliver Lodge desarrollo en 1894 un cohesor al que le adosó un sistema de relojería con el fin de que mediante golpecitos, las limaduras adquirieran las mismas condiciones que tenían antes de la llegada de la onda electromagnética. Por otra parte Alexander Popov, catedrático de física de la Escuela Imperial rusa, construyó en 1895 un cohesor con un alambre exterior (antena) para detectar perturbaciones eléctricas atmosféricas. En mayo de 1896 hizo una demostración ante la Sociedad de Física y Química rusa, transmitiendo y recibiendo, en código morse, las palabras .
El Código Morse fue desarrollado por Alfred Vail mientras colaboraba en 1835 con Samuel Morse en la invención del telégrafo eléctrico. Por un lado, Vail creó un método según el cual cada letra o número era transmitido de forma individual con un código consistente en rayas y puntos, es decir, señales telegráficas que se diferencian en el tiempo de duración de la señal activa. Por otro lado, Morse reconoció la idoneidad de este sistema y lo patentó junto con el telégrafo eléctrico. Fue conocido como “American Morse Code” y fue utilizado en la primera transmisión por telégrafo.
En sus comienzos, el alfabeto Morse se empleó en las líneas telegráficas mediante los tendidos de cable que se fueron instalando. Más tarde, se utilizó también en las transmisiones por radio, sobre todo en el mar y en el aire. El sistema Morse fue presentado en Washington en 1838, sin embargo, tuvo que esperar hasta 1843, para obtener los 30.000 $ necesarios para la construcción de la primera línea telegráfica que unió Washington con Baltimore.
A partir de entonces, el uso del código Morse se extendió rápidamente al resto del mundo, y a mediados del siglo XIX, se instaló la primera línea telegráfica submarina en el Atlántico. En España, la introducción del código Morse, y del telégrafo, se debe a José María Mathe, quien, en 1854, instaló la primera línea de telégrafos entre Madrid e Irún. Tres años más tarde, se creó el Cuerpo de Telégrafos y se finalizó la instalación de la red telegráfica nacional.
Finalmente, para materializar la idea de Vail y Morse, este último construyó un aparato que utilizaba un pulsador accionado a mano que permitiera el paso de una corriente eléctrica por un electroimán, que a su vez producía el movimiento de una pluma, que dejaría su marca en una cinta de papel. El registro permanente del mensaje, su simplicidad, velocidad y bajo coste fueron las virtudes fundamentales de este telégrafo.
El sistema binario de numeración es el más simple de todos los sistemas de numeración posicional. La base - o de la base - del sistema binario es 2, lo que significa que sólo dos dígitos - 0 y 1 - pueden aparecer en una representación binaria de cualquier número. El sistema binario es la base de la moderna tecnología de las computadoras electrónicas digitales. La memoria de computadora cuenta con pequeños elementos que sólo pueden estar en dos estados - off / on - que están asociados con los dígitos 0 y 1. Este elemento se dice que representa un poco - dígito binario.
El indio Pingala (del siglo quinto al segundo aC) desarrolló y presento la primera descripción conocida de un sistema de numeración binario. Se utiliza números binarios de forma similar al código Morse. Un conjunto de ocho trigramas y un conjunto de 64 hexagramas, análogos a los tres-bit y números binarios de seis bits, eran conocidos en la antigua China a través del texto clásico I Ching. En el siglo 11, el filósofo Shao Yong desarrollado un método para organizar los hexagramas que corresponde a la secuencia de 0 a 63, como se representa en binario, con el yin como 0, 1 y el yang como el bit menos significativo en la parte superior.
Conjuntos similares de combinaciones binarias también han sido utilizados en sistemas de adivinación tradicionales africanos, así como en la geomancia medieval occidental. En 1605 Francis Bacon discutió un sistema según el cual las letras del alfabeto podrían reducirse a secuencias de dígitos binarios, que luego podrían ser codificados como variaciones apenas visibles en la fuente de cualquier texto al azar. Es importante destacar que para la teoría general de la codificación binaria, añadió que este método podría ser utilizado con cualquier objeto.
En 1854, el matemático británico George Boole detallo un sistema de lógica, este sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos. Este sistema se denomino Álgebra de Boole. En 1937, Claude Shannon fue el primero que implementó el álgebra de Boole y la aritmética binaria y quien fundó el diseño práctico de circuitos digitales. En noviembre de ese mismo año, George Stibitz, completó un ordenador basado en relés que denominó el "modelo K", que calcula con la suma binaria.En una demostración a la conferencia de la American Mathematical Society en el Dartmouth College el 11 de septiembre de 1940, Stibitz pudo enviar los números complejos comandos Calculadora remoto a través de líneas telefónicas por un teletipo. Fue la primera máquina de computación utilizados remotamente a través de una línea telefónica.