Cómo los ingenieros del mundo construyeron Wi-Fi

En la década de 1980, incluso antes de la conexión a Internet se convirtió en lugar común, la gente se dio cuenta de que la conexión de un grupo de computadoras en una red de área local (LAN) hizo esas computadoras mucho más útil. Cualquier usuario podría imprimir en impresoras compartidas, almacenar archivos en servidores de archivos, enviar correo electrónico y mucho más. Una década más tarde, la revolución de Internet recorrió el mundo y redes de área local se convirtió en la vía de acceso a la autopista de la información. La tecnología inalámbrica de su elección fue casi universalmente Ethernet, que es fantástico, aparte de una gran desventaja: los cables molestos.
A finales de 1990, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) resolvió ese problema con su estándar 802.11, que especifica un protocolo para la creación de redes LAN inalámbricas. Si alguna vez la expresión «más fácil decirlo que hacerlo», aplicado, que estaba aquí. Enormes desafíos que se han superado en los últimos 15 años para llevarnos al punto en equipos inalámbricos razonablemente fiable, rápida y segura LAN hoy se puede implementar por cualquier persona, y en todos los portátiles viene con Wi-Fi. Pero superar eran-y he aquí cómo.Principios de Aloha
El viaje comenzó en la década de 1970. La Universidad de Hawai había instalaciones repartidos por las diferentes islas, pero los ordenadores se encontraban en el campus principal en Honolulu. En aquel entonces, las computadoras no eran todo lo que portátil, pero todavía era posible conectarse a los ordenadores desde ubicaciones remotas a través de un terminal y una conexión telefónica a la gran velocidad de 300 a 1200 bits por segundo. Sin embargo, la conexión telefónica era lento y poco fiable.
Un pequeño grupo de pioneros de redes dirigido por Norman Abramson sentían que podían diseñar un mejor sistema para conectar sus terminales a distancia a las instalaciones centrales de computación de la universidad. La idea básica, luego se convirtió en «ALOHAnet,» era utilizar las comunicaciones de radio para transmitir los datos de las terminales en las islas remotas de los ordenadores centrales y viceversa. En aquellos días, el enfoque bien establecido para el intercambio de recursos entre varias estaciones de radio era dividir a los canales ya sea en intervalos de tiempo o en bandas de frecuencia, a continuación, asignar una ranura o banda para cada una de las estaciones. (Estos dos enfoques son llamados de acceso múltiple por división de tiempo [TDMA] y división de la frecuencia de acceso múltiple [FDMA], respectivamente).
Obviamente, dividiendo el canal inicial en partes más pequeñas de tamaño fijo, ranuras o canales en los resultados de varios canales de baja velocidad, por lo que los creadores ALOHAnet vino para arriba con un sistema diferente para compartir el ancho de banda de radio. ALOHAnet fue diseñado con sólo dos canales de alta velocidad UHF: un enlace descendente (de Honolulu) y una subida (de Honolulu). El canal de enlace ascendente iba a ser compartido por todos los lugares remotos de transmitir a Honolulu. Para evitar cortar y rebanar en pequeñas ranuras o canales, la capacidad del canal estuviera disponible para todo el mundo. Pero esto crea la posibilidad de que dos estaciones remotas de transmisión al mismo tiempo, por lo tanto imposible de decodificar las transmisiones en Honolulu. Las transmisiones pueden fallar, al igual que cualquier internauta pueda caer su tabla mientras que una ola. Pero bueno, nada le impide volver a intentarlo. Esta fue la fundamental, innovador avance de ALOHAnet, reutilizar en todos los miembros de la familia de protocolos conocidos como «protocolos de acceso aleatorio».
El enfoque de acceso aleatorio implementado en el ALOHAnet representó un cambio de paradigma de un enfoque de red de voz a una red de datos. Las técnicas tradicionales de intercambio de canal (FDMA y TDMA) implica la reserva de un canal de baja velocidad para todos los usuarios. Que la velocidad baja fue suficiente para que la voz, y el hecho de que el canal estaba reservada fue sin duda conveniente, sino que impide la llamada de voz se interrumpe bruscamente.
Pero el tráfico de la terminal a los ordenadores centrales presentan necesidades muy diferentes. Por un lado, el tráfico de la terminal es a ráfagas. El usuario envía un comando, espera a que el equipo para procesar la orden, y se ve en los datos recibidos mientras meditaba un comando más. Este modelo incluye largos períodos de tiempo en silencio y estallidos de pico de los datos.
La explosividad de tráfico de computadora llamado para un uso más eficiente de los recursos de comunicación de lo que podría ser proporcionado por cualquiera de TDMA o FDMA. Si cada estación se le asignó un reservado de baja velocidad del canal, la transmisión de una explosión tomaría mucho tiempo. Además, canalizar los recursos se desperdicia durante los períodos de silencio largo. La solución fue un concepto que fue implementado por el protocolo de acceso aleatorio ALOHAnet que es fundamental para las redes de datos: la multiplexación estadística. Un solo canal de alta velocidad se comparte entre todos los usuarios, sino que cada usuario sólo se utiliza sólo una parte del tiempo. Mientras que Alice es examinar cuidadosamente la salida de su programa con una taza de té, Bob podría subir sus datos a la computadora central para su posterior procesamiento. Más tarde, los papeles pueden invertirse, ya que Alice sube su nuevo programa, mientras que Bob no está navegando.
Para realizar este trabajo de multiplexación, el equipo necesitaba un mecanismo que permita a las estaciones remotas para aprender sobre el fracaso de su intento de transmisión inicial (para que puedan intentarlo de nuevo). Esto se logró de una manera indirecta. Honolulu inmediatamente transmitir a través del canal de enlace descendente lo que sea recibido correctamente desde el canal de enlace ascendente. Así que si la estación remota vio su propia transmisión de vuelta se hizo eco de Honolulu, que sabía que todo iba bien y Honolulu había recibido la transmisión con éxito. De lo contrario, debe haber sido un problema, por lo que es una buena idea volver a transmitir los datos.Normas de las guerras
«Lo maravilloso acerca de los estándares es que hay tantos de ellos a elegir.» Grace Hopper, de acuerdo con el Manual de UNIX que odian (PDF) Página 9 o 49.
A finales del siglo pasado, dos normas estaban compitiendo cabeza a cabeza en la arena inalámbrica red de área local. La alternativa de América, desarrollada por el IEEE, se basó en simples, los enfoques más sencillos. La alternativa, propuesta por el European Telecommunications Standards Institute (ETSI), era más sofisticado, con mayores velocidades de datos y priorización de tráfico para la diferenciación de servicios. Proveedores a favor de la más fácil de implementar IEEE alternativa, haciendo caso omiso de todas las características opcionales.
Obviamente, un enfoque más simple tiene la ventaja de un menor tiempo de lanzamiento al mercado, que fue fundamental para obtener cuota de mercado y que allanó el camino para el éxito final de la especificación IEEE en el estándar ETSI por una. El estándar IEEE 802.11 en cuestión pertenece a la familia estándar de 802, que también incluye IEEE 802.3 (Ethernet). Con el tiempo, el estándar IEEE 802.11 se perfeccionó para incorporar algunas de las características que estaban presentes en la propuesta inicial ETSI, tales como mayores velocidades de datos y la diferenciación de servicios.

Si desea de una red WI-FI visite nuestra web y le ayudaremos con gusto.

Deja una respuesta