Historia de Internet - History of the Internet

La historia de Internet tiene su origen en los esfuerzos por construir e interconectar redes de computadoras que surgieron de la investigación y el desarrollo en los Estados Unidos y que involucraron la colaboración internacional, particularmente con investigadores del Reino Unido y Francia .

La informática fue una disciplina emergente a fines de la década de 1950 que comenzó a considerar el tiempo compartido entre usuarios de computadoras y, más tarde, la posibilidad de lograrlo en redes de área amplia . Independientemente, Paul Baran propuso una red distribuida basada en datos en bloques de mensajes a principios de la década de 1960 y Donald Davies concibió la conmutación de paquetes en 1965 en el Laboratorio Nacional de Física (NPL) y propuso la construcción de una red nacional de datos comerciales en el Reino Unido. La Agencia de Proyectos de Investigación Avanzada (ARPA) del Departamento de Defensa de Estados Unidos adjudicó contratos en 1969 para el desarrollo del proyecto ARPANET , dirigido por Robert Taylor y gestionado por Lawrence Roberts . ARPANET adoptó la tecnología de conmutación de paquetes propuesta por Davies y Baran, respaldada por el trabajo matemático a principios de la década de 1970 de Leonard Kleinrock en UCLA . La red fue construida por Bolt, Beranek y Newman .

Las primeras redes de conmutación de paquetes como la red NPL , ARPANET, Merit Network y CYCLADES investigaron y proporcionaron redes de datos a principios de la década de 1970. Los proyectos de ARPA y los grupos de trabajo internacionales llevaron al desarrollo de protocolos para interconexión de redes, en los que se podían unir múltiples redes separadas en una red de redes, lo que produjo varios estándares. Bob Kahn , de ARPA, y Vint Cerf , de la Universidad de Stanford , publicaron una investigación en 1974 que evolucionó hacia el Protocolo de control de transmisión (TCP) y el Protocolo de Internet (IP), los dos protocolos de la suite de protocolos de Internet . El diseño incluyó conceptos del proyecto francés CYCLADES dirigido por Louis Pouzin .

A principios de la década de 1980, la National Science Foundation (NSF) financió centros nacionales de supercomputación en varias universidades de los Estados Unidos y proporcionó interconectividad en 1986 con el proyecto NSFNET , creando así acceso de red a estos sitios de supercomputadoras para investigación y organizaciones académicas en los Estados Unidos. Estados. Las conexiones internacionales a NSFNET, la aparición de una arquitectura como el sistema de nombres de dominio y la adopción de TCP / IP a nivel internacional en las redes existentes marcaron los inicios de Internet . Los proveedores de servicios de Internet comerciales (ISP) surgieron en 1989 en los Estados Unidos y Australia. ARPANET fue clausurada en 1990. A finales de 1989 y 1990 surgieron conexiones privadas limitadas a partes de Internet por parte de entidades comerciales oficiales en varias ciudades estadounidenses. La NSFNET fue clausurada en 1995, eliminando las últimas restricciones sobre el uso de Internet para llevar tráfico.

La investigación realizada en el CERN en Suiza por el científico informático británico Tim Berners-Lee en 1989-1990 dio como resultado la World Wide Web , que vincula documentos de hipertexto en un sistema de información, accesible desde cualquier nodo de la red. Desde mediados de la década de 1990, Internet ha tenido un impacto revolucionario en la cultura, el comercio y la tecnología, incluido el aumento de la comunicación casi instantánea por correo electrónico , mensajería instantánea , llamadas telefónicas de voz sobre Protocolo de Internet (VoIP), chat de video y la World Wide Web con sus foros de discusión , blogs , servicios de redes sociales y sitios de compras en línea . Se transmiten cantidades cada vez mayores de datos a velocidades cada vez más altas a través de redes de fibra óptica que operan a 1 Gbit / s , 10 Gbit / so más. La toma de control de Internet del panorama mundial de las comunicaciones fue rápida en términos históricos: solo comunicaba el 1% de la información que fluía a través de las redes de telecomunicaciones bidireccionales en el año 1993, el 51% en 2000 y más del 97% de la información de telecomunicaciones en 2007 Internet sigue creciendo, impulsada por cantidades cada vez mayores de información en línea, comercio, entretenimiento y servicios de redes sociales . Sin embargo, el futuro de la red mundial puede estar determinado por diferencias regionales.

Cimientos

Precursores

El concepto de comunicación de datos , transmitir datos entre dos lugares diferentes a través de un medio electromagnético como la radio o un cable eléctrico, es anterior a la introducción de las primeras computadoras. Dichos sistemas de comunicación se limitaban típicamente a la comunicación punto a punto entre dos dispositivos finales. Las líneas de semáforo , los sistemas de telégrafo y las máquinas de télex pueden considerarse los primeros precursores de este tipo de comunicación. El telégrafo a finales del siglo XIX fue el primer sistema de comunicación totalmente digital.

El trabajo teórico fundamental sobre la teoría de la información fue desarrollado por Harry Nyquist y Ralph Hartley en la década de 1920. La teoría de la información, enunciada por Claude Shannon , en la década de 1940, proporcionó una base teórica firme para comprender las compensaciones entre la relación señal / ruido , el ancho de banda y la transmisión sin errores en presencia de ruido , en la tecnología de telecomunicaciones . Este fue uno de los tres desarrollos clave, junto con los avances en la tecnología de transistores (específicamente transistores MOS ) y la tecnología láser , que hicieron posible el rápido crecimiento del ancho de banda de telecomunicaciones durante el próximo medio siglo.

Las primeras computadoras en la década de 1940 tenían una unidad central de procesamiento y terminales de usuario . A medida que la tecnología evolucionó en la década de 1950, se diseñaron nuevos sistemas para permitir la comunicación a distancias más largas (para terminales) o con mayor velocidad (para la interconexión de dispositivos locales) que eran necesarias para el modelo de computadora central . Estas tecnologías hicieron posible el intercambio de datos (como archivos) entre computadoras remotas. Sin embargo, el modelo de comunicación punto a punto era limitado, ya que no permitía la comunicación directa entre dos sistemas arbitrarios; era necesario un enlace físico. La tecnología también se consideró vulnerable para uso estratégico y militar porque no había caminos alternativos para la comunicación en caso de un enlace roto.

Inspiración para la creación de redes y la interacción con las computadoras.

Las primeras computadoras estaban conectadas directamente a los terminales utilizados por un usuario individual. Christopher Strachey , que se convirtió en el primer profesor de Computación de la Universidad de Oxford , presentó una solicitud de patente para el tiempo compartido en febrero de 1959. En junio de ese año, presentó un documento "Tiempo compartido en grandes computadoras rápidas" en la Conferencia de procesamiento de información de la UNESCO en París, donde pasó el concepto a JCR Licklider del MIT . Licklider, vicepresidente de Bolt Beranek y Newman, Inc. , propuso una red informática en su artículo de enero de 1960 Simbiosis Hombre-Ordenador :

Una red de tales centros, conectados entre sí por líneas de comunicación de banda ancha, las funciones de las [...] bibliotecas actuales junto con los avances anticipados en el almacenamiento y recuperación de información y las funciones simbióticas sugeridas anteriormente en este documento.

En agosto de 1962, Licklider y Welden Clark publicaron el artículo "Comunicación en línea hombre-computadora", que fue una de las primeras descripciones de un futuro en red.

En octubre de 1962, Jack Ruina contrató a Licklider como director de la recién establecida Oficina de Técnicas de Procesamiento de Información (IPTO) dentro de DARPA , con el mandato de interconectar las principales computadoras del Departamento de Defensa de los Estados Unidos en Cheyenne Mountain, el Pentágono y SAC. HQ. Allí formó un grupo informal dentro de DARPA para promover la investigación informática. Comenzó escribiendo memorandos en 1963 describiendo una red distribuida para el personal de IPTO, a quienes llamó "Miembros y afiliados de la red informática intergaláctica ".

Aunque dejó la IPTO en 1964, cinco años antes de que ARPANET entrara en funcionamiento, fue su visión de la red universal la que impulsó a uno de sus sucesores, Robert Taylor , a iniciar el desarrollo de ARPANET. Más tarde, Licklider volvió a dirigir la IPTO en 1973 durante dos años.

Conmutación de paquetes

El problema de conectar redes físicas separadas para formar una red lógica fue el primero de muchos problemas. Las primeras redes usaban sistemas de conmutación de mensajes que requerían estructuras de enrutamiento rígidas propensas a un solo punto de falla . En la década de 1960, Paul Baran de la Corporación RAND realizó un estudio de las redes de supervivencia del ejército estadounidense en caso de una guerra nuclear. La información transmitida a través de la red de Baran se dividiría en lo que él llamó "bloques de mensajes". Independientemente, Donald Davies ( Laboratorio Nacional de Física, Reino Unido ), propuso y puso en práctica una red de área local basada en lo que llamó conmutación de paquetes , término que finalmente se adoptaría.

La conmutación de paquetes es un diseño de red de almacenamiento y reenvío rápido que divide los mensajes en paquetes arbitrarios, y las decisiones de enrutamiento se toman por paquete. Proporciona una mejor utilización del ancho de banda y tiempos de respuesta que la tecnología tradicional de conmutación de circuitos utilizada para telefonía, particularmente en enlaces de interconexión con recursos limitados.

Redes que llevaron a Internet

Red de préstamos dudosos

Después de las discusiones con JCR Licklider en 1965, Donald Davies se interesó en las comunicaciones de datos para redes de computadoras. Más tarde ese año, en el Laboratorio Nacional de Física (Reino Unido) , Davies diseñó y propuso una red de datos comercial nacional basada en la conmutación de paquetes. Al año siguiente, describió el uso de una "computadora de interfaz" para actuar como un enrutador . La propuesta no se adoptó a nivel nacional, pero produjo un diseño para una red local para satisfacer las necesidades de NPL y probar la viabilidad de la conmutación de paquetes utilizando transmisión de datos de alta velocidad. Él y su equipo fueron uno de los primeros en utilizar el término 'protocolo' en un contexto de conmutación de datos en 1967.

En 1969, había comenzado a construir la red de conmutación de paquetes Mark I para satisfacer las necesidades del laboratorio multidisciplinario y probar la tecnología en condiciones operativas. En 1976, se conectaron 12 computadoras y 75 dispositivos terminales, y se agregaron más hasta que la red fue reemplazada en 1986. La red local NPL y ARPANET fueron las dos primeras redes en el mundo en usar conmutación de paquetes, y se interconectaron a principios de 1970. El equipo de morosidad lleva a cabo trabajos de simulación de redes de paquetes, incluyendo datagramas redes, y la investigación de conexión en red .

ARPANET

Robert Taylor fue ascendido a jefe de la Oficina de Técnicas de Procesamiento de Información (IPTO) en la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) en 1966. Tenía la intención de hacer realidad las ideas de Licklider de un sistema de redes interconectadas. Como parte de la función de IPTO, se instalaron tres terminales de red: una para System Development Corporation en Santa Mónica , una para Project Genie en la Universidad de California, Berkeley , y una para el proyecto Compatible Time-Sharing System en el Instituto de Tecnología de Massachusetts ( MIT). La necesidad identificada de Taylor de establecer contactos se hizo evidente por el desperdicio de recursos que le parecía evidente.

Para cada uno de estos tres terminales, tenía tres conjuntos diferentes de comandos de usuario. Entonces, si estaba hablando en línea con alguien en SDC y quería hablar con alguien que conocía en Berkeley o MIT sobre esto, tenía que levantarme de la terminal de SDC, ir a la otra terminal y ponerme en contacto con ellos. .... Dije, oh hombre, es obvio lo que debe hacer: si tiene estos tres terminales, debería haber un terminal que vaya a cualquier lugar al que desee ir donde tenga computación interactiva. Esa idea es ARPAnet.

Al traer a Larry Roberts del MIT en enero de 1967, inició un proyecto para construir una red de este tipo. Roberts y Thomas Merrill habían estado investigando el tiempo compartido de las computadoras a través de redes de área amplia (WAN). Las redes de área amplia surgieron durante la década de 1950 y se establecieron durante la década de 1960. En el primer Simposio de ACM sobre principios de sistemas operativos en octubre de 1967, Roberts presentó una propuesta para la "red ARPA", basada en la propuesta de Wesley Clark de utilizar procesadores de mensajes de interfaz para crear una red de conmutación de mensajes . En la conferencia, Roger Scantlebury presentó el trabajo de Donald Davies sobre conmutación de paquetes para comunicaciones de datos y mencionó el trabajo de Paul Baran en RAND . Roberts incorporó los conceptos de conmutación de paquetes en el diseño de ARPANET y actualizó la velocidad de comunicaciones propuesta de 2.4 kbps a 50 kbps. Leonard Kleinrock desarrolló posteriormente la teoría matemática detrás del rendimiento de esta tecnología basándose en su trabajo anterior sobre la teoría de las colas .

ARPA adjudicó el contrato para construir la red a Bolt Beranek & Newman , y se estableció el primer enlace ARPANET entre la Universidad de California, Los Ángeles ( UCLA ) y el Instituto de Investigación de Stanford a las 22:30 horas del 29 de octubre de 1969.

"Establecimos una conexión telefónica entre nosotros y los chicos del SRI ...", dijo Kleinrock ... en una entrevista: "Escribimos la L y preguntamos por teléfono,

"¿Ves la L?"
"Sí, vemos la L", fue la respuesta.
Escribimos la O y preguntamos: "¿Ves la O"?
"Sí, vemos la O".
Luego escribimos la G y el sistema se bloqueó ...

Sin embargo, había comenzado una revolución "...

35 años de Internet, 1969-2004. Sello de Azerbaiyán, 2004.

En diciembre de 1969, se conectó una red de cuatro nodos agregando la Universidad de Utah y la Universidad de California, Santa Bárbara . Ese mismo año, Taylor ayudó a financiar ALOHAnet , un sistema diseñado por el profesor Norman Abramson y otros en la Universidad de Hawái en Manoa que transmitía datos por radio entre siete computadoras en cuatro islas de Hawái . El software para establecer enlaces entre sitios de red en ARPANET fue el Programa de Control de Red (NCP), completado en c. 1970.

El desarrollo de ARPANET se centró en el proceso de Solicitud de comentarios (RFC), que todavía se utiliza hoy en día para proponer y distribuir protocolos y sistemas de Internet. RFC 1, titulado "Host Software", fue escrito por Steve Crocker de la Universidad de California, Los Ángeles , y publicado el 7 de abril de 1969. Estos primeros años fueron documentados en la película de 1972 Computer Networks: The Heralds of Resource Sharing .

Las primeras colaboraciones internacionales en ARPANET fueron escasas. Las conexiones se hicieron en 1973 con el Norwegian Seismic Array ( NORSAR ), a través de un enlace satelital en la estación terrestre Tanum en Suecia, y con el grupo de investigación de Peter Kirstein en el University College London, que proporcionó una puerta de entrada a las redes académicas británicas. Para 1981, el número de hosts había aumentado a 213. ARPANET se convirtió en el núcleo técnico de lo que se convertiría en Internet y en una herramienta principal en el desarrollo de las tecnologías utilizadas.

Red de méritos

El mérito de la red se formó en 1966 como la de Michigan para la Educación, Tecnología de la tríada para explorar las redes de computadoras entre tres de las universidades públicas de Michigan como un medio para ayudar al desarrollo educativo y económico del estado. Con el apoyo inicial del Estado de Michigan y la National Science Foundation (NSF), la red de conmutación de paquetes se demostró por primera vez en diciembre de 1971 cuando se realizó una conexión interactiva de host a host entre los sistemas informáticos mainframe de IBM en la Universidad de Michigan en Ann. Arbour y Wayne State University en Detroit . En octubre de 1972, las conexiones a la computadora central de los CDC en la Universidad Estatal de Michigan en East Lansing completaron la tríada. Durante los siguientes años, además de las conexiones interactivas de host a host, la red se mejoró para admitir conexiones de terminal a host, conexiones de host a host por lotes (envío de trabajos remotos, impresión remota, transferencia de archivos por lotes), transferencia de archivos interactiva, puertas de enlace a Tymnet y redes de datos públicas de Telenet , conexiones de host X.25 , puertas de enlace a redes de datos X.25, hosts conectados a Ethernet y, finalmente, TCP / IP y universidades públicas adicionales en Michigan se unen a la red. Todo esto preparó el escenario para el papel de Merit en el proyecto NSFNET que comenzó a mediados de la década de 1980.

CICLADAS

La red de conmutación de paquetes CYCLADES fue una red de investigación francesa diseñada y dirigida por Louis Pouzin . Sobre la base de las ideas de Donald Davies, Pouzin desarrolló la red para explorar alternativas al diseño inicial de ARPANET y para apoyar la investigación de interconexión de redes. Demostrada por primera vez en 1973, fue la primera red en hacer que los hosts fueran responsables de la entrega confiable de datos, en lugar de la red en sí, utilizando datagramas no confiables y mecanismos de protocolo de extremo a extremo asociados . Los conceptos de esta red influyeron en la arquitectura ARPANET posterior.

X.25 y redes públicas de datos

1974 Entrevista de ABC con Arthur C. Clarke , en la que describe un futuro de ubicuas computadoras personales en red.

Sobre la base de iniciativas de investigación internacionales, en particular las contribuciones de Rémi Després , el Comité Consultivo Internacional Telegráfico y Telefónico (UIT-T) desarrolló estándares de redes de conmutación de paquetes en forma de X.25 y estándares relacionados. X.25 se basa en el concepto de circuitos virtuales que emulan las conexiones telefónicas tradicionales. En 1974, X.25 formó la base de la red SERCnet entre los sitios académicos y de investigación británicos, que más tarde se convirtió en JANET . El estándar inicial de la UIT sobre X.25 se aprobó en marzo de 1976.

La Oficina de Correos Británica , Western Union International y Tymnet colaboraron para crear la primera red internacional de conmutación de paquetes, conocida como Servicio Internacional de Conmutación de Paquetes (IPSS), en 1978. Esta red creció desde Europa y los EE. UU. Para cubrir Canadá, Hong Kong, y Australia en 1981. En la década de 1990, proporcionó una infraestructura de red mundial.

A diferencia de ARPANET, X.25 estaba comúnmente disponible para uso comercial. Telenet ofreció su servicio de correo electrónico Telemail, que también estaba dirigido al uso empresarial en lugar del sistema general de correo electrónico de ARPANET.

Las primeras redes de acceso telefónico público utilizaban protocolos de terminal TTY asíncronos para llegar a un concentrador operado en la red pública. Algunas redes, como Telenet y CompuServe , utilizaron X.25 para multiplexar las sesiones de terminal en sus redes troncales de conmutación de paquetes, mientras que otras, como Tymnet , utilizaron protocolos propietarios. En 1979, CompuServe se convirtió en el primer servicio en ofrecer capacidades de correo electrónico y soporte técnico a los usuarios de computadoras personales. La compañía abrió nuevos caminos nuevamente en 1980 como la primera en ofrecer chat en tiempo real con su CB Simulator . Otras redes importantes de acceso telefónico fueron America Online (AOL) y Prodigy, que también proporcionaron funciones de comunicaciones, contenido y entretenimiento. Muchas redes de sistemas de tablones de anuncios (BBS) también proporcionaban acceso en línea, como FidoNet, que era popular entre los usuarios de computadoras aficionados, muchos de ellos piratas informáticos y radioaficionados .

En la URSS , las primeras redes informáticas aparecieron en la década de 1950 en el sistema de defensa antimisiles de Sary Shagan (primero se probaron en Moscú en el Instituto Lebedev de Mecánica de Precisión e Ingeniería Informática ). En la década de 1960, se propuso el proyecto de red informática masiva llamado OGAS, pero no se implementó. El programa espacial conjunto Apollo-Soyuz USA-URSS (1972-1975) utilizó datos digitales para naves espaciales transmitidas entre dos países. Desde finales de la década de 1970, las redes soviéticas X.25 comenzaron a aparecer y Akademset surgió en Leningrado en 1978. En 1982 , se creó el instituto VNIIPAS en Moscú para servir como el nodo central de Akademset, que estableció una conexión regular X.25 con IIASA en Austria (lo que permitió acceso a otras redes mundiales). En 1983, VNIIPAS junto con el gobierno de EE. UU. Y George Soros crearon el proveedor de servicios X.25 soviético llamado SFMT ("San Francisco - Moscow Teleport") que más tarde se convirtió en Sovam Teleport (" Teleport soviético-estadounidense"). VNIIPAS también proporcionó servicios X.25, incluso por satélite, a países del bloque oriental junto con Mongolia, Cuba y Vietnam. En ese momento, los usuarios occidentales de Usenet generalmente no lo sabían y consideraban que tales redes en la URSS no existían, por lo que uno de ellos el 1 de abril de 1984 hizo un engaño de " tonto de abril " sobre " Kremvax " (" Kremlin VAX ") que ganó algo de popularidad para los años siguientes. La URSS se unió nominalmente a la red privada Fidonet en octubre de 1990 cuando apareció el primer nodo de la Región 50 en Novosibirsk . Sovam Teleport a principios de la década de 1990 se convirtió en el primer proveedor de red SWIFT para bancos rusos emergentes (más de X.25). Algunas de las primeras redes soviéticas / rusas también se iniciaron como parte de BITNET .

UUCP y Usenet

En 1979, dos estudiantes de la Universidad de Duke , Tom Truscott y Jim Ellis , originaron la idea de usar secuencias de comandos de Bourne para transferir noticias y mensajes en una conexión UUCP de línea serial con la cercana Universidad de Carolina del Norte en Chapel Hill . Tras el lanzamiento público del software en 1980, la red de hosts UUCP que reenvían las noticias de Usenet se expandió rápidamente. UUCPnet, como se llamaría más tarde, también creó puertas de enlace y enlaces entre FidoNet y hosts BBS de acceso telefónico. Las redes UUCP se expanden rápidamente debido a los menores costos involucrados, la capacidad de usar líneas arrendadas existentes, enlaces X.25 o incluso conexiones ARPANET , y la falta de políticas de uso estrictas en comparación con redes posteriores como CSNET y Bitnet . Todas las conexiones fueron locales. En 1981, el número de hosts UUCP había aumentado a 550, casi duplicando a 940 en 1984.

Sublink Network , que opera desde 1987 y se fundó oficialmente en Italia en 1989, basó su interconectividad en UUCP para redistribuir mensajes de correo y grupos de noticias a través de sus nodos italianos (alrededor de 100 en ese momento) propiedad tanto de particulares como de pequeñas empresas. Sublink Network representó posiblemente uno de los primeros ejemplos del progreso de la tecnología de Internet a través de la difusión popular.

1973-1989: fusión de redes y creación de Internet

Mapa de la red de prueba TCP / IP en febrero de 1982

TCP / IP

Primera demostración en Internet, vinculando ARPANET , PRNET y SATNET el 22 de noviembre de 1977

Con tantos métodos de red diferentes, se necesitaba algo para unificarlos. Bob Kahn de DARPA reclutó a Vinton Cerf de la Universidad de Stanford para trabajar con él en el problema. Steve Crocker formó un "Grupo de trabajo en red" de ARPA con Vint Cerf. Al mismo tiempo, en 1972 se formó un Grupo de Trabajo de Redes Internacionales ; los miembros activos incluyeron a Vint Cerf, Alex McKenzie, Donald Davies , Roger Scantlebury , Louis Pouzin y Hubert Zimmermann . Para 1973, estos grupos habían elaborado una reformulación fundamental, donde las diferencias entre los protocolos de red se ocultaban mediante el uso de un protocolo de internetwork común, y en lugar de que la red fuera responsable de la confiabilidad, como en ARPANET, los hosts se volvían responsables. Este trabajo también acuñó el término catenet (red concatenada).

Kahn y Cerf publicaron sus ideas en 1974, que incorporaron conceptos propuestos por Louis Pouzin y Hubert Zimmermann, diseñadores de la red CYCLADES . La especificación del protocolo resultante, el Programa de Control de Transmisión , fue publicada como RFC  675 por el Network Working Group en diciembre de 1974. Contiene el primer uso comprobado del término internet , como abreviatura de internetwork . Este software tenía un diseño monolítico y utilizaba dos canales de comunicación simplex para cada sesión de usuario.

Con el papel de la red reducida a un núcleo de funcionalidad, se hizo posible intercambiar tráfico con otras redes independientemente de sus características detalladas, resolviendo así los problemas fundamentales de la conexión en red . DARPA acordó financiar el desarrollo de software prototipo. Las pruebas comenzaron en 1975 mediante implementaciones simultáneas en Stanford, BBN y University College London . Después de varios años de trabajo, el Instituto de Investigación de Stanford llevó a cabo la primera demostración de una puerta de enlace entre la red Packet Radio (PRNET) en el área de SF Bay y ARPANET . El 22 de noviembre de 1977 se llevó a cabo una demostración de tres redes, incluida la ARPANET, la camioneta de radio por paquetes del SRI en la red de radio por paquetes y la red por satélite de paquetes del Atlántico (SATNET).

El software fue rediseñado como una pila de protocolos modular, utilizando canales full-duplex. Entre 1976 y 1977, Yogen Dalal propuso separar las funciones de control de transmisión y enrutamiento de TCP en dos capas discretas, lo que llevó a la división del Programa de Control de Transmisión en el Protocolo de Control de Transmisión (TCP) y el protocolo IP (IP) en la versión 3 en 1978. . Originalmente conocida como IP / TCP , la versión 4 se describió en la publicación IETF RFC 791 (septiembre de 1981), 792 y 793. Se instaló en SATNET en 1982 y en ARPANET en enero de 1983 después de que el Departamento de Defensa lo convirtiera en estándar para todas las computadoras militares. redes. Esto resultó en un modelo de red que se conoció informalmente como TCP / IP. También se denominó modelo del Departamento de Defensa (DoD), modelo DARPA o modelo ARPANET. Cerf atribuye a sus estudiantes de posgrado Yogen Dalal, Carl Sunshine, Judy Estrin y Richard Karp un importante trabajo en el diseño y las pruebas. DARPA patrocinó o alentó el desarrollo de implementaciones de TCP / IP para muchos sistemas operativos.

Descomposición de la representación de la dirección IPv4 de cuatro puntos a su valor binario

IPv4 utiliza direcciones de 32 bits, lo que limita el espacio de direcciones a 2 32 direcciones, es decir, 4 294 967 296 direcciones. La última dirección IPv4 disponible se asignó en enero de 2011. IPv4 está siendo reemplazada por su sucesor, llamado " IPv6 ", que utiliza direcciones de 128 bits, proporcionando 2 128 direcciones, es decir, 340 282 366 920 938 463 463 374 607 431 768 211 456 . Este es un espacio de direcciones mucho mayor. Se espera que el cambio a IPv6 tarde muchos años, décadas o quizás más en completarse, ya que había cuatro mil millones de máquinas con IPv4 cuando comenzó el cambio.

De ARPANET a NSFNET

Mapa de Internet TCP / IP de BBN Technologies de principios de 1986.

Después de que ARPANET estuvo funcionando durante varios años, ARPA buscó otra agencia a la que entregarle la red; La misión principal de ARPA era financiar investigación y desarrollo de vanguardia, no ejecutar una empresa de comunicaciones. Finalmente, en julio de 1975, la red pasó a manos de la Agencia de Comunicaciones de Defensa , que también forma parte del Departamento de Defensa . En 1983, la parte militar estadounidense de ARPANET se dividió como una red separada, MILNET . MILNET posteriormente se convirtió en la NIPRNET no clasificada pero sólo militar , en paralelo con la SIPRNET de nivel SECRET y JWICS para TOP SECRET y superiores. NIPRNET tiene puertas de enlace de seguridad controladas a la Internet pública.

Las redes basadas en ARPANET fueron financiadas por el gobierno y por lo tanto restringidas a usos no comerciales como la investigación; El uso comercial no relacionado estaba estrictamente prohibido. Esto inicialmente restringió las conexiones a sitios militares y universidades. Durante la década de 1980, las conexiones se expandieron a más instituciones educativas, e incluso a un número creciente de empresas como Digital Equipment Corporation y Hewlett-Packard , que participaban en proyectos de investigación o brindaban servicios a quienes lo estaban.

Varias otras ramas del gobierno de los EE. UU. , La Administración Nacional de Aeronáutica y el Espacio (NASA), la Fundación Nacional de Ciencias (NSF) y el Departamento de Energía (DOE) se involucraron fuertemente en la investigación de Internet y comenzaron el desarrollo de un sucesor de ARPANET. A mediados de la década de 1980, estas tres ramas desarrollaron las primeras redes de área amplia basadas en TCP / IP. La NASA desarrolló la Red de Ciencias de la NASA , la NSF desarrolló CSNET y el DOE desarrolló la Red de Ciencias de la Energía o ESNet.

Red troncal T3 NSFNET, c. 1992

La NASA desarrolló la Red de Ciencias de la NASA (NSN) basada en TCP / IP a mediados de la década de 1980, conectando a los científicos espaciales con datos e información almacenados en cualquier parte del mundo. En 1989, la Red de Análisis de Física Espacial (SPAN) basada en DECnet y la Red de Ciencia de la NASA (NSN) basada en TCP / IP se unieron en el Centro de Investigación Ames de la NASA creando la primera red de área amplia multiprotocolo llamada Internet de la Ciencia de la NASA, o NSI . NSI se estableció para proporcionar una infraestructura de comunicaciones totalmente integrada a la comunidad científica de la NASA para el avance de las ciencias de la tierra, el espacio y la vida. Como red internacional multiprotocolo de alta velocidad, NSI proporcionó conectividad a más de 20.000 científicos en los siete continentes.

En 1981, NSF apoyó el desarrollo de la Computer Science Network (CSNET). CSNET se conectó con ARPANET mediante TCP / IP y ejecutó TCP / IP sobre X.25 , pero también admitió departamentos sin conexiones de red sofisticadas, utilizando el intercambio de correo de acceso telefónico automatizado.

En 1986, la NSF creó NSFNET , una red troncal de 56 kbit / s para respaldar los centros de supercomputación patrocinados por la NSF . La NSFNET también brindó apoyo para la creación de redes regionales de investigación y educación en los Estados Unidos, y para la conexión de redes de campus universitarios y universitarios con las redes regionales. El uso de NSFNET y las redes regionales no se limitó a los usuarios de supercomputadoras y la red de 56 kbit / s se sobrecargó rápidamente. NSFNET se actualizó a 1,5 Mbit / s en 1988 en virtud de un acuerdo de cooperación con Merit Network en asociación con IBM , MCI y el estado de Michigan . La existencia de NSFNET y la creación de Intercambios Federales de Internet (FIX) permitió que ARPANET fuera desmantelado en 1990.

NSFNET se expandió y actualizó a 45 Mbit / s en 1991, y fue desmantelado en 1995 cuando fue reemplazado por redes troncales operadas por varios proveedores comerciales de servicios de Internet .

La comunidad académica y de investigación continúa desarrollando y utilizando redes avanzadas como Internet2 en los Estados Unidos y JANET en el Reino Unido.

Transición hacia Internet

El término "Internet" se reflejó en el primer RFC publicado sobre el protocolo TCP (RFC 675: Programa de control de transmisión de Internet, diciembre de 1974) como una forma abreviada de internetworking , cuando los dos términos se usaban indistintamente. En general, Internet era una colección de redes unidas por un protocolo común. En el período de tiempo en que ARPANET se conectó al proyecto NSFNET recién formado a fines de la década de 1980, el término se usó como el nombre de la red, Internet, que es la red TCP / IP grande y global.

A medida que el interés en las redes creció debido a las necesidades de colaboración, intercambio de datos y acceso a recursos informáticos remotos, las tecnologías TCP / IP se extendieron por el resto del mundo. El enfoque independiente del hardware en TCP / IP apoyó el uso de la infraestructura de red existente, como la red X.25 del Servicio Internacional de Conmutación de Paquetes (IPSS), para transportar tráfico de Internet.

Muchos sitios que no podían conectarse directamente a Internet crearon pasarelas simples para la transferencia de correo electrónico, la aplicación más importante de la época. Los sitios con solo conexiones intermitentes usaban UUCP o FidoNet y dependían de las puertas de enlace entre estas redes e Internet. Algunos servicios de puerta de enlace fueron más allá de la simple interconexión de correo, como permitir el acceso a sitios de Protocolo de transferencia de archivos (FTP) a través de UUCP o correo.

Finalmente, se desarrollaron tecnologías de enrutamiento para Internet para eliminar los aspectos restantes del enrutamiento centralizado. El Protocolo de puerta de enlace exterior (EGP) fue reemplazado por un nuevo protocolo, el Protocolo de puerta de enlace fronteriza (BGP). Esto proporcionó una topología en malla para Internet y redujo la arquitectura céntrica que ARPANET había enfatizado. En 1994, se introdujo el enrutamiento entre dominios sin clases (CIDR) para respaldar una mejor conservación del espacio de direcciones, lo que permitió el uso de la agregación de rutas para disminuir el tamaño de las tablas de enrutamiento .

TCP / IP se globaliza (década de 1980)

CERN, la Internet europea, el vínculo con el Pacífico y más allá

A principios de 1982, NORSAR y el grupo de Peter Kirstein en el University College London (UCL) abandonaron ARPANET y comenzaron a utilizar TCP / IP sobre SATNET. UCL proporcionó acceso entre Internet y las redes académicas en el Reino Unido.

Entre 1984 y 1988, el CERN inició la instalación y operación de TCP / IP para interconectar sus principales sistemas informáticos internos, estaciones de trabajo, PC y un sistema de control de aceleradores. El CERN continuó operando un sistema de desarrollo propio limitado (CERNET) internamente y varios protocolos de red incompatibles (generalmente propietarios) externamente. Hubo una resistencia considerable en Europa hacia un uso más generalizado de TCP / IP, y las intranets TCP / IP del CERN permanecieron aisladas de Internet hasta 1989, cuando se estableció una conexión transatlántica con la Universidad de Cornell.

En 1988, las primeras conexiones internacionales con NSFNET fueron establecidas por INRIA de Francia y Piet Beertema en Centrum Wiskunde & Informatica (CWI) en los Países Bajos. Daniel Karrenberg, de CWI, visitó a Ben Segal, coordinador de TCP / IP del CERN, en busca de asesoramiento sobre la transición de EUnet , el lado europeo de la red UUCP Usenet (gran parte de la cual corría sobre enlaces X.25), a TCP / IP. El año anterior, Segal se había reunido con Len Bosack de la entonces todavía pequeña empresa Cisco para comprar algunos enrutadores TCP / IP para CERN, y Segal pudo asesorar a Karrenberg y remitirlo a Cisco para obtener el hardware apropiado. Esto expandió la porción europea de Internet a través de las redes UUCP existentes. La conexión de NORDUnet a NSFNET se estableció poco después, proporcionando acceso abierto para estudiantes universitarios en Dinamarca, Finlandia, Islandia, Noruega y Suecia. En enero de 1989, el CERN abrió sus primeras conexiones TCP / IP externas. Esto coincidió con la creación de Réseaux IP Européens ( RIPE ), inicialmente un grupo de administradores de redes IP que se reunían periódicamente para realizar trabajos de coordinación juntos. Más tarde, en 1992, RIPE se registró formalmente como cooperativa en Amsterdam.

En 1991 , JANET , la red nacional de investigación y educación del Reino Unido , adoptó el Protocolo de Internet en la red existente. El mismo año, Dai Davies introdujo la tecnología de Internet en el paneuropeo RNIE , Europanet , que fue construido en el protocolo X.25. La Red Académica y de Investigación Europea (EARN) y RARE adoptaron IP casi al mismo tiempo, y la red troncal europea de Internet EBONE comenzó a funcionar en 1992.

Al mismo tiempo que el auge de la interconexión de redes en Europa, se formaron redes ad hoc para ARPA y universidades australianas intermedias, basadas en diversas tecnologías como X.25 y UUCP Net. Estos estaban limitados en su conexión a las redes globales, debido al costo de realizar conexiones telefónicas internacionales UUCP individuales o conexiones X.25. En 1989, las universidades australianas se unieron al impulso hacia el uso de protocolos IP para unificar sus infraestructuras de redes. AARNet fue formada en 1989 por el Comité de Vicerrectores de Australia y proporcionó una red basada en IP dedicada para Australia. La primera conexión internacional a Internet de Nueva Zelanda se estableció el mismo año.

En mayo de 1982, Corea del Sur estableció una red TCP / IP doméstica de dos nodos, agregando un tercer nodo al año siguiente. Japón, que había construido la red JUNET basada en UUCP en 1984, se conectó a NSFNET en 1989, lo que marcó la expansión de Internet a Asia. Fue sede de la reunión anual de la Internet Society , INET'92, en Kobe . Singapur desarrolló TECHNET en 1990, y Tailandia obtuvo una conexión global a Internet entre la Universidad de Chulalongkorn y UUNET en 1992.

No obstante, durante un período a fines de la década de 1980 y principios de la de 1990, los ingenieros, las organizaciones y las naciones se polarizaron sobre la cuestión de qué estándar , el modelo OSI o el conjunto de protocolos de Internet daría como resultado las mejores y más sólidas redes de computadoras.

Surge la temprana "brecha digital" mundial

Mientras los países desarrollados con infraestructuras tecnológicas se unían a Internet, los países en desarrollo comenzaron a experimentar una brecha digital que los separaba de Internet. Sobre una base esencialmente continental, están creando organizaciones para la administración de recursos de Internet y compartiendo experiencia operativa, a medida que se establecen más y más instalaciones de transmisión.

África

A principios de la década de 1990, los países africanos dependían de enlaces UUCP de módem X.25 IPSS y de módem de 2400 baudios para las comunicaciones informáticas internacionales y entre redes.

En agosto de 1995, InfoMail Uganda, Ltd., una empresa privada en Kampala ahora conocida como InfoCom, y NSN Network Services de Avon, Colorado, vendida en 1997 y ahora conocida como Clear Channel Satellite, establecieron el primer TCP / IP nativo de África de alta tecnología. Servicios de Internet satelital de alta velocidad. La conexión de datos fue realizada originalmente por un satélite ruso RSCC de banda C que conectaba las oficinas de InfoMail en Kampala directamente con el punto de presencia MAE-West de NSN utilizando una red privada de la estación terrestre alquilada de NSN en Nueva Jersey. La primera conexión satelital de InfoCom fue de solo 64 kbit / s, y sirvió a una computadora host Sun y doce módems de acceso telefónico de US Robotics.

En 1996, un proyecto financiado por USAID , la Iniciativa Leland , comenzó a trabajar en el desarrollo de una conectividad total a Internet para el continente. Guinea , Mozambique, Madagascar y Ruanda obtuvieron estaciones terrenas de satélite en 1997, seguidas de Costa de Marfil y Benin en 1998.

África está construyendo una infraestructura de Internet. AFRINIC , con sede en Mauricio , gestiona la asignación de direcciones IP para el continente. Al igual que las otras regiones de Internet, existe un foro operativo, la Comunidad de Internet de especialistas en redes operativas.

Existen muchos programas para brindar planta de transmisión de alto rendimiento, y las costas occidental y sur cuentan con cable óptico submarino. Los cables de alta velocidad unen el norte de África y el Cuerno de África a los sistemas de cable intercontinentales. El desarrollo del cable submarino es más lento en África Oriental; el esfuerzo conjunto original entre la Nueva Alianza para el Desarrollo de África (NEPAD) y el Sistema Submarino de África Oriental (Eassy) se ha roto y puede convertirse en dos esfuerzos.

Asia y Oceania

El Centro de Información de la Red de Asia Pacífico (APNIC) , con sede en Australia, gestiona la asignación de direcciones IP para el continente. APNIC patrocina un foro operativo, la Conferencia regional de Internet de Asia y el Pacífico sobre tecnologías operativas (APRICOT).

El primer sistema de Internet de Corea del Sur, System Development Network (SDN), comenzó a funcionar el 15 de mayo de 1982. SDN se conectó al resto del mundo en agosto de 1983 utilizando UUCP (Unixto-Unix-Copy); conectado a CSNET en diciembre de 1984; y conectado formalmente a Internet de EE. UU. en 1990.

En 1991, la República Popular de China vio su primera red universitaria TCP / IP , TUNET de la Universidad de Tsinghua . La República Popular China pasó a hacer su primera conexión global a Internet en 1994, entre la Colaboración de Electro-Espectrómetro de Beijing y el Centro Acelerador Lineal de la Universidad de Stanford . Sin embargo, China pasó a implementar su propia brecha digital mediante la implementación de un filtro de contenido en todo el país .

America latina

Al igual que con las otras regiones, el Registro de Direcciones de Internet de América Latina y el Caribe (LACNIC) administra el espacio de direcciones IP y otros recursos de su área. LACNIC, con sede en Uruguay, opera la raíz del DNS, el DNS inverso y otros servicios clave.

1989-2004: Auge de Internet global, Web 1.0

Inicialmente, al igual que con sus redes predecesoras, el sistema que evolucionaría hacia Internet era principalmente para uso gubernamental y de organismos gubernamentales. Sin embargo, el interés por el uso comercial de Internet se convirtió rápidamente en un tema de debate común. Aunque el uso comercial estaba prohibido, la definición exacta de uso comercial era poco clara y subjetiva. UUCP Net y X.25 IPSS no tenían tales restricciones, lo que eventualmente vería la prohibición oficial del uso de UUCPNet de conexiones ARPANET y NSFNET . (Sin embargo, algunos enlaces UUCP seguían conectándose a estas redes, ya que los administradores hacen la vista gorda a su funcionamiento).

Número de hosts de Internet en todo el mundo: 1969 hasta la actualidad
Fuente: Consorcio de sistemas de Internet .

Como resultado, a fines de la década de 1980, se formaron las primeras empresas de proveedores de servicios de Internet (ISP). Se formaron empresas como PSINet , UUNET , Netcom y Portal Software para brindar servicio a las redes de investigación regionales y brindar acceso alternativo a la red, correo electrónico basado en UUCP y Usenet News al público. El primer ISP de acceso telefónico comercial en los Estados Unidos fue The World , que se inauguró en 1989.

En 1992, el Congreso de los EE. UU. Aprobó la Ley de Tecnología Científica y Avanzada, 42 USC  § 1862 (g) , que permitió a la NSF respaldar el acceso de las comunidades de investigación y educación a redes de computadoras que no se usaban exclusivamente con fines de investigación y educación, por lo tanto permitiendo que NSFNET se interconecte con redes comerciales. Esto causó controversia dentro de la comunidad de investigación y educación, a quienes les preocupaba que el uso comercial de la red pudiera conducir a una Internet que respondiera menos a sus necesidades, y dentro de la comunidad de proveedores de redes comerciales, que sentían que los subsidios gubernamentales estaban dando una ventaja injusta. a algunas organizaciones.

Para 1990, los objetivos de ARPANET se habían cumplido y las nuevas tecnologías de redes excedieron el alcance original y el proyecto llegó a su fin. Los nuevos proveedores de servicios de red, incluidos PSINet , Alternet , CERFNet, ANS CO + RE y muchos otros, ofrecían acceso a la red a clientes comerciales. NSFNET ya no era la columna vertebral y el punto de intercambio de facto de Internet. El intercambio comercial de Internet (CIX), los intercambios de área metropolitana (MAE) y, posteriormente, los puntos de acceso a la red (NAP) se estaban convirtiendo en las principales interconexiones entre muchas redes. Las restricciones finales sobre el transporte de tráfico comercial terminaron el 30 de abril de 1995 cuando la National Science Foundation terminó su patrocinio del NSFNET Backbone Service y el servicio terminó. NSF brindó apoyo inicial para los PAN y apoyo interino para ayudar a las redes regionales de investigación y educación en la transición a ISP comerciales. NSF también patrocinó el servicio de red troncal de muy alta velocidad (vBNS), que continuó brindando apoyo a los centros de supercomputación y la investigación y la educación en los Estados Unidos.

World Wide Web e introducción de navegadores

Anuncio de 1997 en la revista State de la Biblioteca del Departamento de Estado de los EE. UU . Para sesiones de presentación de la Web entonces desconocida

La World Wide Web (a veces abreviada "www" o "W3") es un espacio de información donde los documentos y otros recursos web se identifican mediante URI , están interconectados por enlaces de hipertexto y se puede acceder a ellos a través de Internet mediante un navegador web y (más recientemente ) aplicaciones basadas en web . Se la conoce simplemente como "la Web". A partir de la década de 2010, la World Wide Web es la herramienta principal que utilizan miles de millones para interactuar en Internet, y ha cambiado la vida de las personas de manera inconmensurable.

Los precursores del navegador web surgieron en forma de aplicaciones con hipervínculos a mediados y finales de la década de 1980 (el concepto básico de hipervínculos existía para entonces durante algunas décadas). Después de estos, a Tim Berners-Lee se le atribuye la invención de la World Wide Web en 1989 y el desarrollo en 1990 tanto del primer servidor web como del primer navegador web, llamado WorldWideWeb (sin espacios) y luego rebautizado como Nexus. Pronto se desarrollaron muchos otros, con Mosaic de 1993 de Marc Andreessen (más tarde Netscape ), que fue particularmente fácil de usar e instalar, y a menudo se le atribuye el impulso del boom de Internet de la década de 1990. Otros navegadores web importantes han sido Internet Explorer , Firefox , Google Chrome , Microsoft Edge , Opera y Safari .

NCSA Mosaic era un navegador gráfico que se ejecutaba en varios equipos de oficina y domésticos populares. Se le atribuye el mérito de llevar primero contenido multimedia a usuarios no técnicos al incluir imágenes y texto en la misma página, a diferencia de los diseños de navegadores anteriores; Marc Andreessen, su creador, también estableció la empresa que en 1994, publicado Netscape Navigator , lo que resultó en una de las primeras guerras de los navegadores , cuando terminó en una competencia por el dominio (que perdió) con Microsoft Windows ' Internet Explorer , el cual estaba incluido con Windows, lo que a su vez condujo a la demanda antimonopolio de Estados Unidos v. Microsoft Corporation . La Web comenzó a ser de uso generalizado en 1993-4, cuando comenzaron a estar disponibles sitios web para uso diario . Las restricciones de uso comercial se levantaron en 1995. En los Estados Unidos, el servicio en línea America Online (AOL) ofreció a sus usuarios una conexión a Internet a través de su propio navegador interno, utilizando una conexión de acceso telefónico a Internet . Las conexiones a Internet de banda ancha más rápidas han reemplazado muchas conexiones de acceso telefónico desde principios de la década de 2000.

Uso en la sociedad en general

Sobre sellado de Russian Post emitido en 1993 con sello y gráficos dedicados al primer cable óptico digital submarino ruso tendido en 1993 por Rostelecom desde Kingisepp a Copenhague

Durante la primera década más o menos de la Internet pública, los inmensos cambios que eventualmente permitiría en la década de 2000 aún eran incipientes. En términos de proporcionar contexto para este período, los dispositivos celulares móviles ("teléfonos inteligentes" y otros dispositivos celulares) que hoy brindan acceso casi universal, se utilizaron para negocios y no como un artículo doméstico de rutina propiedad de padres e hijos en todo el mundo. Las redes sociales en el sentido moderno aún no existían, las computadoras portátiles eran voluminosas y la mayoría de los hogares no tenían computadoras. Las velocidades de datos eran lentas y la mayoría de la gente carecía de medios para grabar o digitalizar vídeo; el almacenamiento de medios estaba pasando lentamente de la cinta analógica a los discos ópticos digitales ( DVD y, hasta cierto punto, disquete a CD ). Habilitar tecnologías utilizadas desde principios de la década de 2000, como PHP , JavaScript moderno y Java , tecnologías como AJAX , HTML 4 (y su énfasis en CSS ) y varios marcos de software , que permitieron y simplificaron la velocidad del desarrollo web, la invención esperada en gran medida y su eventual adopción generalizada.

Internet se utilizó ampliamente para listas de distribución , correos electrónicos , comercio electrónico y las primeras compras populares en línea ( Amazon y eBay, por ejemplo), foros y tableros de anuncios en línea , sitios web y blogs personales , y su uso estaba creciendo rápidamente, pero según estándares más modernos. los sistemas utilizados eran estáticos y carecían de un compromiso social generalizado. Esperó una serie de eventos a principios de la década de 2000 para pasar de una tecnología de comunicaciones a convertirse gradualmente en una parte clave de la infraestructura de la sociedad global.

Los elementos de diseño típicos de estos sitios web de la era "Web 1.0" incluyen: páginas estáticas en lugar de HTML dinámico ; contenido servido desde sistemas de archivos en lugar de bases de datos relacionales ; páginas creadas con Server Side Included o CGI en lugar de una aplicación web escrita en un lenguaje de programación dinámico ; HTML 3.2 -era estructuras como marcos y tablas para crear diseños de página; libros de visitas en línea ; uso excesivo de botones GIF y pequeños gráficos similares que promueven elementos particulares; y formularios HTML enviados por correo electrónico . (El soporte para scripting del lado del servidor era raro en servidores compartidos, por lo que el mecanismo de retroalimentación habitual era a través del correo electrónico, utilizando formularios mailto y su programa de correo electrónico .

Durante el período 1997 a 2001, se produjo la primera burbuja de inversión especulativa relacionada con Internet, en la que las empresas "punto-com" (en referencia al dominio de nivel superior " .com " utilizado por las empresas) se vieron impulsadas a valoraciones extremadamente altas como inversores. valores de las acciones avivados rápidamente , seguidos de una caída del mercado ; la primera burbuja de las puntocom . Sin embargo, esto solo ralentizó temporalmente el entusiasmo y el crecimiento, que se recuperó rápidamente y continuó creciendo.

Con la llamada a la Web 2.0 poco después, el período de Internet hasta alrededor de 2004-2005 fue nombrado y descrito retrospectivamente por algunos como Web 1.0.

2005-presente: Web 2.0, ubicuidad global, redes sociales

Los cambios que impulsarían a Internet a su lugar como sistema social se llevaron a cabo durante un período relativamente corto de no más de cinco años, desde alrededor de 2005 hasta 2010. Incluyeron:

  • La llamada a " Web 2.0 " en 2004 (sugerida por primera vez en 1999),
  • Acelerar la adopción y la mercantilización entre los hogares y la familiaridad con el hardware necesario (como computadoras).
  • Aceleración de la tecnología de almacenamiento y las velocidades de acceso a los datos: surgieron los discos duros , sustituyeron a los disquetes mucho más pequeños y lentos , y crecieron de megabytes a gigabytes (y alrededor de 2010, terabytes ), RAM de cientos de kilobytes a gigabytes como cantidades típicas en un sistema y Ethernet , la tecnología habilitadora para TCP / IP, pasó de velocidades comunes de kilobits a decenas de megabits por segundo, a gigabits por segundo.
  • Internet de alta velocidad y una cobertura más amplia de conexiones de datos, a precios más bajos, lo que permite mayores tasas de tráfico, tráfico más simple y confiable y tráfico desde más ubicaciones.
  • La percepción que se acelera gradualmente de la capacidad de las computadoras para crear nuevos medios y enfoques de comunicación, el surgimiento de redes sociales y sitios web como Twitter y Facebook para su prominencia posterior, y colaboraciones globales como Wikipedia (que existía antes pero ganó prominencia como un resultado),
  • La revolución móvil , que proporcionó acceso a Internet a gran parte de la sociedad humana de todas las edades, en su vida diaria, y les permitió compartir, discutir y actualizar, investigar y responder continuamente.
  • La RAM no volátil creció rápidamente en tamaño y confiabilidad, y bajó de precio, convirtiéndose en un producto capaz de permitir altos niveles de actividad informática en estos pequeños dispositivos portátiles, así como en unidades de estado sólido (SSD).
  • Un énfasis en el diseño de dispositivos y procesadores energéticamente eficientes, en lugar de una potencia de procesamiento puramente alta; uno de los beneficiarios de esto fue ARM , una empresa británica que se había centrado desde la década de 1980 en microprocesadores simples potentes pero de bajo costo. La arquitectura ARM ganó rápidamente dominio en el mercado de dispositivos móviles e integrados.

El término "Web 2.0" describe los sitios web que enfatizan el contenido generado por el usuario (incluida la interacción de usuario a usuario), la usabilidad y la interoperabilidad . Apareció por primera vez en un artículo de enero de 1999 llamado "Futuro fragmentado" escrito por Darcy DiNucci , consultora en diseño de información electrónica , donde escribió:

"La Web que conocemos ahora, que se carga en una ventana del navegador en pantallas llenas esencialmente estáticas, es solo un embrión de la Web por venir. Los primeros destellos de la Web 2.0 están comenzando a aparecer, y estamos empezando a ver cómo ese embrión podría La Web se entenderá no como pantallas llenas de texto y gráficos, sino como un mecanismo de transporte, el éter a través del cual ocurre la interactividad. ...] el tablero de su automóvil [...] su teléfono celular [...] máquinas de juegos portátiles [...] tal vez incluso su horno microondas ".

El término resurgió durante 2002-2004 y ganó prominencia a finales de 2004 tras las presentaciones de Tim O'Reilly y Dale Dougherty en la primera Conferencia Web 2.0 . En sus comentarios de apertura, John Battelle y Tim O'Reilly describieron su definición de "Web como plataforma", donde las aplicaciones de software se construyen en la Web en lugar de en el escritorio. El aspecto único de esta migración, argumentaron, es que "los clientes están construyendo su negocio para usted". Argumentaron que las actividades de los usuarios que generan contenido (en forma de ideas, texto, videos o imágenes) podrían "aprovecharse" para crear valor.

Web 2.0 no se refiere a una actualización de ninguna especificación técnica, sino a cambios acumulativos en la forma en que se crean y utilizan las páginas web. La Web 2.0 describe un enfoque en el que los sitios se centran sustancialmente en permitir que los usuarios interactúen y colaboren entre sí en un diálogo de redes sociales como creadores de contenido generado por el usuario en una comunidad virtual , en contraste con los sitios Web donde las personas se limitan a lo pasivo. visualización de contenido . Ejemplos de Web 2.0 incluyen servicios de redes sociales , blogs , wikis , folksonomías , sitios para compartir videos , servicios alojados , aplicaciones web y mashups . Terry Flew , en su tercera edición de New Media, describió lo que él creía que caracterizaba las diferencias entre Web 1.0 y Web 2.0:

"[El] paso de los sitios web personales a los blogs y la agregación de sitios de blogs, de la publicación a la participación, del contenido web como resultado de una gran inversión inicial a un proceso continuo e interactivo, y de los sistemas de gestión de contenido a los enlaces basados ​​en el etiquetado ( folksonomía ) ".

Esta era vio a varios nombres familiares ganar prominencia a través de su operación orientada a la comunidad: YouTube , Twitter, Facebook, Reddit y Wikipedia son algunos ejemplos.

La revolución móvil

El proceso de cambio que generalmente coincidió con la "Web 2.0" se aceleró en gran medida y se transformó poco tiempo después por el creciente crecimiento de los dispositivos móviles. Esta revolución móvil significó que las computadoras en forma de teléfonos inteligentes se convirtieron en algo que muchas personas usaban, llevaban consigo a todas partes, se comunicaban con ellas, las usaban para fotografías y videos que compartían instantáneamente o para comprar o buscar información "en movimiento", y las usaban socialmente, como opuesto a los artículos en un escritorio en casa o simplemente usados ​​para el trabajo.

Los servicios basados ​​en la ubicación, los servicios que utilizan la ubicación y otra información de sensores, y el crowdsourcing (con frecuencia, pero no siempre basado en la ubicación), se volvieron comunes, con publicaciones etiquetadas por ubicación, o sitios web y servicios que reconocen la ubicación. Los sitios web orientados a dispositivos móviles (como "m.website.com") se volvieron comunes, diseñados especialmente para los nuevos dispositivos utilizados. Netbooks , ultrabooks , 4G y Wi-Fi generalizados , y chips móviles capaces o que funcionan casi a la potencia de las computadoras de escritorio de no muchos años antes con un uso de energía mucho menor, se convirtieron en habilitadores de esta etapa del desarrollo de Internet, y surgió el término " aplicación ". (abreviatura de "Programa de aplicación" o "Programa") al igual que la " Tienda de aplicaciones ".

Esta "revolución móvil" ha permitido que las personas tengan una cantidad casi ilimitada de información al alcance de la mano. Con la posibilidad de acceder a Internet desde teléfonos móviles, se produjo un cambio en la forma en que consumimos los medios. De hecho, al observar las estadísticas de consumo de medios, más de la mitad del consumo de medios entre las personas de 18 y 34 años usaba un teléfono inteligente.

Redes en el espacio ultraterrestre

El primer enlace de Internet a la órbita terrestre baja se estableció el 22 de enero de 2010 cuando el astronauta TJ Creamer publicó la primera actualización sin asistencia en su cuenta de Twitter desde la Estación Espacial Internacional , marcando la extensión de Internet al espacio. (Los astronautas de la ISS habían usado el correo electrónico y Twitter antes, pero estos mensajes se habían transmitido a la tierra a través de un enlace de datos de la NASA antes de ser publicados por un proxy humano). enlace de microondas de banda Ku de alta velocidad de la estación espacial . Para navegar por la Web, los astronautas pueden usar una computadora portátil de la estación para controlar una computadora de escritorio en la Tierra, y pueden hablar con sus familiares y amigos en la Tierra usando equipos de Voz sobre IP .

La comunicación con naves espaciales más allá de la órbita terrestre se ha realizado tradicionalmente a través de enlaces punto a punto a través de la red de espacio profundo . Cada uno de estos enlaces de datos debe programarse y configurarse manualmente. A fines de la década de 1990, la NASA y Google comenzaron a trabajar en un nuevo protocolo de red, redes tolerantes al retardo (DTN), que automatiza este proceso, permite la conexión en red de nodos de transmisión espaciales y tiene en cuenta el hecho de que las naves espaciales pueden perder contacto temporalmente porque se mueven atrás. la Luna o los planetas, o porque el clima espacial interrumpe la conexión. En tales condiciones, DTN retransmite paquetes de datos en lugar de descartarlos, como lo hace el Protocolo de Internet TCP / IP estándar. La NASA llevó a cabo la primera prueba de campo de lo que llama "Internet del espacio profundo" en noviembre de 2008. Las pruebas de las comunicaciones basadas en DTN entre la Estación Espacial Internacional y la Tierra (ahora denominadas Redes tolerantes a las interrupciones) se han realizado desde marzo de 2009 y programado para continuar hasta marzo de 2014.

Se supone que esta tecnología de red permitirá en última instancia misiones que involucren múltiples naves espaciales donde la comunicación confiable entre embarcaciones podría tener prioridad sobre los enlaces descendentes de nave a tierra. Según una declaración de febrero de 2011 de Vint Cerf de Google , los llamados "protocolos Bundle" se cargaron en la nave espacial de la misión EPOXI de la NASA (que está en órbita alrededor del Sol) y se probó la comunicación con la Tierra a una distancia de aproximadamente 80 luces. segundos.

Gobernanza de Internet

Como red distribuida globalmente de redes autónomas interconectadas voluntariamente, Internet funciona sin un órgano de gobierno central. Cada red constituyente elige las tecnologías y protocolos que implementa a partir de los estándares técnicos desarrollados por el Grupo de trabajo de ingeniería de Internet (IETF). Sin embargo, la interoperación exitosa de muchas redes requiere ciertos parámetros que deben ser comunes en toda la red. Para administrar dichos parámetros, la Autoridad de Números Asignados de Internet (IANA) supervisa la asignación y asignación de varios identificadores técnicos. Además, la Corporación de Internet para la Asignación de Nombres y Números (ICANN) supervisa y coordina los dos espacios de nombres principales en Internet, el espacio de direcciones del Protocolo de Internet y el Sistema de Nombres de Dominio .

NIC, InterNIC, IANA e ICANN

La función de IANA fue realizada originalmente por USC Information Sciences Institute (ISI), y delegó partes de esta responsabilidad con respecto a la red numérica y los identificadores de sistemas autónomos al Network Information Center (NIC) del Stanford Research Institute (SRI International) en Menlo Park. , California . Jonathan Postel de ISI dirigió la IANA, se desempeñó como editor de RFC y desempeñó otros roles clave hasta su muerte prematura en 1998.

A medida que crecía ARPANET, se hacía referencia a los hosts por sus nombres, y SRI International distribuía un archivo HOSTS.TXT a cada host de la red. A medida que la red creció, esto se volvió engorroso. Una solución técnica llegó en la forma del Sistema de Nombres de Dominio , creado por Paul Mockapetris de ISI en 1983. La Red de Datos de Defensa — Centro de Información de Red (DDN-NIC) en SRI manejó todos los servicios de registro, incluidos los dominios de nivel superior (TLD) de .mil , .gov , .edu , .org , .net , .com y .us , la administración del servidor de nombres raíz y la asignación de números de Internet en virtud de un contrato con el Departamento de Defensa de los Estados Unidos . En 1991, la Agencia de Sistemas de Información de Defensa (DISA) otorgó la administración y el mantenimiento de DDN-NIC (administrado por SRI hasta este momento) a Government Systems, Inc., quien lo subcontrató al pequeño sector privado Network Solutions, Inc.

La creciente diversidad cultural de Internet también planteó desafíos administrativos para la gestión centralizada de las direcciones IP. En octubre de 1992, el Grupo de Trabajo de Ingeniería de Internet (IETF) publicó RFC 1366, que describía el "crecimiento de Internet y su creciente globalización" y sentó las bases para una evolución del proceso de registro de la propiedad intelectual, basado en un modelo de registro distribuido regionalmente . Este documento destacó la necesidad de que exista un único registro de números de Internet en cada región geográfica del mundo (que sería de "dimensiones continentales"). Los registros serían "imparciales y ampliamente reconocidos por los proveedores de red y suscriptores" dentro de su región. El Centro de Coordinación de la Red RIPE (RIPE NCC) se estableció como el primer RIR en mayo de 1992. El segundo RIR, el Centro de Información de la Red de Asia Pacífico (APNIC), se estableció en Tokio en 1993, como un proyecto piloto del Grupo de Redes de Asia Pacífico. .

Dado que en este punto de la historia la mayor parte del crecimiento en Internet provenía de fuentes no militares, se decidió que el Departamento de Defensa ya no financiaría servicios de registro fuera del TLD .mil. En 1993, la Fundación Nacional de Ciencias de los Estados Unidos , después de un proceso de licitación competitivo en 1992, creó InterNIC para administrar las asignaciones de direcciones y la administración de las bases de datos de direcciones, y adjudicó el contrato a tres organizaciones. Los servicios de registro serían proporcionados por Network Solutions ; Los servicios de directorio y base de datos serían proporcionados por AT&T ; y General Atomics proporcionaría los servicios de información .

Con el tiempo, después de consultar con la IANA, el IETF , RIPE NCC , APNIC y el Consejo Federal de Redes (FNC), se tomó la decisión de separar la administración de nombres de dominio de la administración de números IP. Siguiendo los ejemplos de RIPE NCC y APNIC, se recomendó que la gestión del espacio de direcciones IP luego administrado por InterNIC debería estar bajo el control de aquellos que lo utilizan, específicamente los ISP, organizaciones de usuarios finales, entidades corporativas, universidades e individuos. . Como resultado, el Registro Americano de Números de Internet (ARIN) se estableció en diciembre de 1997 como una corporación independiente sin fines de lucro por dirección de la National Science Foundation y se convirtió en el tercer Registro Regional de Internet.

En 1998, tanto la IANA como las funciones restantes de InterNIC relacionadas con el DNS se reorganizaron bajo el control de ICANN , una corporación sin fines de lucro de California contratada por el Departamento de Comercio de los Estados Unidos para administrar una serie de tareas relacionadas con Internet. Como estas tareas involucraron la coordinación técnica para dos espacios de nombres de Internet principales (nombres DNS y direcciones IP) creados por el IETF, ICANN también firmó un memorando de entendimiento con el IAB para definir el trabajo técnico que debe realizar la Autoridad de Números Asignados de Internet. La gestión del espacio de direcciones de Internet se mantuvo en los registros regionales de Internet, que colectivamente se definieron como una organización de apoyo dentro de la estructura de la ICANN. ICANN proporciona coordinación central para el sistema DNS, incluida la coordinación de políticas para el sistema de registro / registrador dividido, con competencia entre los proveedores de servicios de registro para atender cada dominio de nivel superior y múltiples registradores competidores que ofrecen servicios de DNS a los usuarios finales.

Grupo de Trabajo de Ingeniería de Internet

El Grupo de Trabajo de Ingeniería de Internet (IETF) es el más grande y más visible de varios grupos ad-hoc vagamente relacionados que brindan dirección técnica para Internet, incluida la Junta de Arquitectura de Internet (IAB), el Grupo Directivo de Ingeniería de Internet (IESG) y el Grupo de trabajo de investigación de Internet (IRTF).

El IETF es un grupo vagamente autoorganizado de voluntarios internacionales que contribuyen a la ingeniería y evolución de las tecnologías de Internet. Es el organismo principal dedicado al desarrollo de nuevas especificaciones estándar de Internet. Gran parte del trabajo del IETF está organizado en grupos de trabajo . Los esfuerzos de estandarización de los Grupos de Trabajo a menudo son adoptados por la comunidad de Internet, pero el IETF no controla ni patrulla Internet.

El IETF surgió de reuniones trimestrales con investigadores financiados por el gobierno de los EE. UU., A partir de enero de 1986. La cuarta reunión del IETF en octubre de 1986 invitó a representantes no gubernamentales. El concepto de grupos de trabajo se introdujo en la quinta reunión en febrero de 1987. El La séptima reunión en julio de 1987 fue la primera reunión con más de cien asistentes. En 1992, se formó Internet Society , una sociedad de membresía profesional, y la IETF comenzó a operar bajo ella como un organismo de estándares internacional independiente. La primera reunión de la IETF fuera de los Estados Unidos se celebró en Ámsterdam, Países Bajos, en julio de 1993. Hoy, la IETF se reúne tres veces al año y la asistencia ha llegado hasta ca. 2.000 participantes. Normalmente, una de cada tres reuniones del IETF se lleva a cabo en Europa o Asia. El número de asistentes no estadounidenses suele ser ca. 50%, incluso en reuniones celebradas en Estados Unidos.

El IETF no es una entidad legal, no tiene una junta directiva, no tiene miembros y no tiene cuotas. El estado más parecido a la membresía es estar en una lista de correo del IETF o del Grupo de Trabajo. Los voluntarios de IETF provienen de todo el mundo y de muchas partes diferentes de la comunidad de Internet. El IETF trabaja en estrecha colaboración con y bajo la supervisión del Grupo Directivo de Ingeniería de Internet (IESG) y la Junta de Arquitectura de Internet (IAB). El Grupo de Trabajo de Investigación de Internet (IRTF) y el Grupo Directivo de Investigación de Internet (IRSG), actividades entre pares del IETF y el IESG bajo la supervisión general del IAB, se centran en cuestiones de investigación a más largo plazo.

Solicitud de comentarios

Las solicitudes de comentarios (RFC) son la documentación principal para el trabajo de IAB, IESG, IETF e IRTF. RFC 1, "Host Software", fue escrito por Steve Crocker en UCLA en abril de 1969, mucho antes de que se creara el IETF. Originalmente eran notas técnicas que documentaban aspectos del desarrollo de ARPANET y fueron editadas por Jon Postel , el primer editor de RFC .

Los RFC cubren una amplia gama de información de estándares propuestos, borradores de estándares, estándares completos, mejores prácticas, protocolos experimentales, historia y otros temas informativos. Los RFC pueden ser escritos por individuos o grupos informales de individuos, pero muchos son el producto de un Grupo de Trabajo más formal. Los borradores son presentados al IESG por individuos o por el Presidente del Grupo de Trabajo. Un editor de RFC, designado por la IAB, independiente de la IANA y que trabaja en conjunto con el IESG, recibe borradores del IESG y los edita, formatea y publica. Una vez que se publica un RFC, nunca se revisa. Si el estándar que describe cambia o su información se vuelve obsoleta, el estándar revisado o la información actualizada se volverá a publicar como un nuevo RFC que "obsoleto" el original.

La sociedad de Internet

La Internet Society (ISOC) es una organización internacional sin fines de lucro fundada en 1992 "para asegurar el desarrollo abierto, la evolución y el uso de Internet en beneficio de todas las personas en todo el mundo". Con oficinas cerca de Washington, DC, EE. UU., Y en Ginebra, Suiza, ISOC tiene una base de miembros que comprende más de 80 organizaciones y más de 50,000 miembros individuales. Los miembros también forman "capítulos" basados ​​en una ubicación geográfica común o intereses especiales. Actualmente hay más de 90 capítulos en todo el mundo.

ISOC proporciona apoyo financiero y organizativo y promueve el trabajo de los organismos de establecimiento de estándares para los que es el hogar organizativo: el Grupo de Trabajo de Ingeniería de Internet (IETF), el Consejo de Arquitectura de Internet (IAB), el Grupo Directivo de Ingeniería de Internet (IESG), y el Grupo de Trabajo de Investigación de Internet (IRTF). ISOC también promueve la comprensión y la apreciación del modelo de Internet de procesos abiertos y transparentes y toma de decisiones basada en consenso.

Globalización y gobernanza de Internet en el siglo XXI

Desde la década de 1990, la gobernanza y la organización de Internet han sido de importancia mundial para los gobiernos, el comercio, la sociedad civil y las personas. Las organizaciones que tenían el control de ciertos aspectos técnicos de Internet fueron los sucesores de la vieja supervisión de ARPANET y los actuales tomadores de decisiones en los aspectos técnicos del día a día de la red. Si bien se les reconoce como administradores de ciertos aspectos de Internet, sus funciones y su autoridad para tomar decisiones son limitadas y están sujetas a un escrutinio internacional cada vez mayor y a objeciones cada vez mayores. Estas objeciones han llevado a la ICANN a retirarse de sus relaciones con la Universidad del Sur de California en 2000 y, en septiembre de 2009, a obtener autonomía del gobierno de EE. UU. Al finalizar sus acuerdos de larga data, aunque algunas obligaciones contractuales con el Departamento de Comercio de EE. UU. continuado. Finalmente, el 1 de octubre de 2016, ICANN finalizó su contrato con la Administración Nacional de Telecomunicaciones e Información ( NTIA ) del Departamento de Comercio de los Estados Unidos , lo que permitió que la supervisión pasara a la comunidad global de Internet.

El IETF, con el apoyo financiero y organizativo de Internet Society, continúa actuando como el organismo de estándares ad-hoc de Internet y emite Solicitudes de comentarios .

En noviembre de 2005, la Cumbre Mundial sobre la Sociedad de la Información , celebrada en Túnez , pidió que el Secretario General de las Naciones Unidas convocara un Foro de Gobernanza de Internet (IGF) . El IGF abrió una conversación continua y no vinculante entre las partes interesadas que representan a los gobiernos, el sector privado, la sociedad civil y las comunidades técnicas y académicas sobre el futuro de la gobernanza de Internet. La primera reunión del IGF se llevó a cabo en octubre / noviembre de 2006 y posteriormente se realizaron reuniones de seguimiento anuales. Desde la CMSI, el término "gobernanza de Internet" se ha ampliado más allá de las estrechas preocupaciones técnicas para incluir una gama más amplia de cuestiones de política relacionadas con Internet.

Tim Berners-Lee , inventor de la web, estaba empezando a preocuparse por las amenazas al futuro de la web y en noviembre de 2009 en el IGF en Washington DC lanzó la World Wide Web Foundation (WWWF) para hacer campaña para hacer de la web una herramienta segura y empoderadora para el bien de la humanidad con acceso a todos. En noviembre de 2019 en el IGF de Berlín, Berners-Lee y WWWF lanzaron el Contrato para la Web , una iniciativa de campaña para persuadir a los gobiernos, las empresas y los ciudadanos de comprometerse con nueve principios para detener el "mal uso" con la advertencia "Si no actuamos ahora - y actuamos juntos - para evitar que la web sea mal utilizada por aquellos que quieren explotar, dividir y socavar, corremos el riesgo de despilfarrar "(su potencial para el bien).

Politización de Internet

Debido a su prominencia e inmediatez como medio eficaz de comunicación de masas, Internet también se ha politizado más a medida que ha crecido. Esto ha llevado, a su vez, a discursos y actividades que alguna vez se habrían realizado de otras formas, migrando a estar mediatizados por internet.

Los ejemplos incluyen actividades políticas como protestas públicas y sondeos de apoyo y votos , pero también:

Neutralidad de la red

El 23 de abril de 2014, se informó que la Comisión Federal de Comunicaciones (FCC) estaba considerando una nueva regla que permitiría a los proveedores de servicios de Internet ofrecer a los proveedores de contenido una vía más rápida para enviar contenido, revirtiendo así su posición anterior de neutralidad de la red . Una posible solución a las preocupaciones sobre la neutralidad de la red puede ser la banda ancha municipal , según la profesora Susan Crawford , experta legal y tecnológica de la Facultad de Derecho de Harvard . El 15 de mayo de 2014, la FCC decidió considerar dos opciones con respecto a los servicios de Internet: primero, permitir carriles de banda ancha rápidos y lentos, comprometiendo así la neutralidad de la red; y segundo, reclasificar la banda ancha como un servicio de telecomunicaciones , preservando así la neutralidad de la red. El 10 de noviembre de 2014, el presidente Obama recomendó a la FCC reclasificar el servicio de Internet de banda ancha como un servicio de telecomunicaciones para preservar la neutralidad de la red . El 16 de enero de 2015, los republicanos presentaron una legislación, en forma de un proyecto de ley de discusión de recursos humanos del Congreso de los EE. UU. , Que hace concesiones a la neutralidad de la red, pero prohíbe a la FCC lograr el objetivo o promulgar cualquier regulación adicional que afecte a los proveedores de servicios de Internet (ISP). El 31 de enero de 2015, AP News informó que la FCC presentará la noción de aplicar ("con algunas salvedades") el Título II (transporte público) de la Ley de Comunicaciones de 1934 a Internet en una votación prevista para el 26 de febrero de 2015. La adopción de esta noción reclasificaría el servicio de Internet de uno de información a uno de telecomunicaciones y, según Tom Wheeler , presidente de la FCC, garantizaría la neutralidad de la red . Se espera que la FCC haga cumplir la neutralidad de la red en su voto, según The New York Times .

El 26 de febrero de 2015, la FCC falló a favor de la neutralidad de la red aplicando el Título II (transportista común) de la Ley de Comunicaciones de 1934 y la Sección 706 de la Ley de Telecomunicaciones de 1996 a Internet. El presidente de la FCC, Tom Wheeler , comentó: "Este no es más un plan para regular Internet que la Primera Enmienda es un plan para regular la libertad de expresión. Ambos defienden el mismo concepto".

El 12 de marzo de 2015, la FCC publicó los detalles específicos de las reglas de neutralidad de la red. El 13 de abril de 2015, la FCC publicó la regla final sobre sus nuevas regulaciones de " Neutralidad de la Red ".

El 14 de diciembre de 2017, la FCC derogó su decisión del 12 de marzo de 2015 por una votación de 3 a 2 con respecto a las reglas de neutralidad de la red.

Uso y cultura

Correo electrónico y Usenet

El correo electrónico se ha calificado a menudo como la aplicación asesina de Internet. Es anterior a Internet y fue una herramienta crucial para su creación. El correo electrónico comenzó en 1965 como una forma de comunicarse entre varios usuarios de una computadora central de tiempo compartido . Aunque la historia no está documentada, entre los primeros sistemas en tener una instalación de este tipo se encuentran System Development Corporation (SDC) Q32 y el Compatible Time-Sharing System (CTSS) del MIT.

La red informática de ARPANET hizo una gran contribución a la evolución del correo electrónico. Un intersistema experimental transfirió correo en ARPANET poco después de su creación. En 1971, Ray Tomlinson creó lo que se convertiría en el formato estándar de direcciones de correo electrónico de Internet, utilizando el signo @ para separar los nombres de los buzones de correo de los nombres de host.

Se desarrollaron una serie de protocolos para transmitir mensajes entre grupos de ordenadores de tiempo compartido más de los sistemas de transmisión alternativos, tales como UUCP y IBM 's VNET sistema de correo electrónico. El correo electrónico podría pasar de esta manera entre varias redes, incluidas ARPANET , BITNET y NSFNET , así como a hosts conectados directamente a otros sitios a través de UUCP. Consulte el historial del protocolo SMTP .

Además, UUCP permitió la publicación de archivos de texto que podrían ser leídos por muchos otros. El software de noticias desarrollado por Steve Daniel y Tom Truscott en 1979 se utilizó para distribuir noticias y mensajes tipo tablón de anuncios. Esto se convirtió rápidamente en grupos de discusión, conocidos como grupos de noticias , sobre una amplia gama de temas. En ARPANET y NSFNET se formarían grupos de discusión similares a través de listas de correo , discutiendo tanto cuestiones técnicas como temas más centrados en la cultura (como la ciencia ficción, discutida en la lista de correo de sflovers).

Durante los primeros años de Internet, el correo electrónico y mecanismos similares también fueron fundamentales para permitir a las personas acceder a recursos que no estaban disponibles debido a la ausencia de conectividad en línea. UUCP se usaba a menudo para distribuir archivos usando los grupos 'alt.binary'. Además, las puertas de enlace de correo electrónico FTP permitían a las personas que vivían fuera de los EE. UU. Y Europa descargar archivos utilizando comandos ftp escritos dentro de los mensajes de correo electrónico. El archivo fue codificado, roto en pedazos y enviado por correo electrónico; el receptor tuvo que volver a ensamblarlo y decodificarlo más tarde, y era la única forma que tenían las personas que vivían en el extranjero de descargar elementos como las versiones anteriores de Linux utilizando las conexiones lentas de acceso telefónico disponibles en ese momento. Después de la popularización de la Web y el protocolo HTTP, estas herramientas fueron abandonadas lentamente.

De Gopher a la WWW

A medida que Internet creció durante los años ochenta y principios de los noventa, muchas personas se dieron cuenta de la creciente necesidad de poder encontrar y organizar archivos e información. Proyectos como Archie , Gopher , WAIS y la lista de archivos FTP intentaron crear formas de organizar los datos distribuidos. A principios de la década de 1990, Gopher, inventado por Mark P. McCahill, ofrecía una alternativa viable a la World Wide Web . Sin embargo, en 1993, la World Wide Web vio muchos avances en la indexación y la facilidad de acceso a través de los motores de búsqueda, que a menudo descuidaron Gopher y Gopherspace. A medida que la popularidad aumentó gracias a la facilidad de uso, los incentivos a la inversión también crecieron hasta que, a mediados de 1994, la popularidad de la WWW ganó la delantera. Entonces quedó claro que Gopher y los otros proyectos estaban condenados a quedarse cortos.

Uno de los paradigmas de interfaz de usuario más prometedores durante este período fue el hipertexto . La tecnología se inspiró en " Memex " de Vannevar Bush y se desarrolló a través de la investigación de Ted Nelson sobre el Proyecto Xanadu , la investigación de Douglas Engelbart sobre NLS y Augment , y la investigación de Andries van Dam de HES en 1968, a través de FRESS , Intermedia y otros. También se habían creado muchos pequeños sistemas de hipertexto autónomos, como HyperCard de Apple Computer (1987). Gopher se convirtió en la primera interfaz de hipertexto de uso común para Internet. Si bien los elementos del menú de Gopher eran ejemplos de hipertexto, no se percibían comúnmente de esa manera.

Sir Tim Berners-Lee en el CERN utilizó esta computadora NeXT y se convirtió en el primer servidor web del mundo .

En 1989, mientras trabajaba en el CERN , Tim Berners-Lee inventó una implementación basada en la red del concepto de hipertexto. Al lanzar su invento al uso público, fomentó su uso generalizado. Por su trabajo en el desarrollo de la World Wide Web, Berners-Lee recibió el premio de tecnología Millennium en 2004. Uno de los primeros navegadores web populares, siguiendo el modelo de HyperCard , fue ViolaWWW .

Un punto de inflexión para la World Wide Web comenzó con la introducción del navegador web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois en Urbana – Champaign (NCSA-UIUC), dirigido por Marc Andreessen . Los fondos para Mosaic provienen de la Iniciativa de Comunicaciones y Computación de Alto Rendimiento, un programa de financiamiento iniciado por la Ley de Comunicaciones y Computación de Alto Rendimiento de 1991 , también conocida como la " Ley Gore ". La interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba basada principalmente en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet. (La referencia de Gore a su papel en la "creación de Internet", sin embargo, fue ridiculizada en su campaña para las elecciones presidenciales . Ver el artículo completo Al Gore y la tecnología de la información ).

Mosaic fue reemplazado en 1994 por Netscape Navigator de Andreessen , que reemplazó a Mosaic como el navegador más popular del mundo. Si bien mantuvo este título durante algún tiempo, finalmente la competencia de Internet Explorer y una variedad de otros navegadores lo desplazó casi por completo. Otro evento importante que se llevó a cabo el 11 de enero de 1994 fue The Superhighway Summit en el Royce Hall de UCLA . Esta fue la "primera conferencia pública que reunió a todos los principales líderes de la industria, el gobierno y los académicos en el campo [y] también inició el diálogo nacional sobre la Supercarretera de la Información y sus implicaciones".

24 horas en el ciberespacio , "el mayor evento en línea de un día" (8 de febrero de 1996) hasta esa fecha, tuvo lugar en el sitio web activo en ese momento, cyber24.com. Fue encabezado por el fotógrafo Rick Smolan . Una exposición fotográfica fue presentado en el Smithsonian Institution 's Museo Nacional de Historia Americana el 23 de enero de 1997, con 70 fotos del proyecto.

Los motores de búsqueda

Incluso antes de la World Wide Web, había motores de búsqueda que intentaban organizar Internet. El primero de ellos fue el motor de búsqueda Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Estos tres sistemas son anteriores a la invención de la World Wide Web, pero todos continuaron indexando la Web y el resto de Internet durante varios años después de la aparición de la Web. Todavía hay servidores Gopher a partir de 2006, aunque hay muchos más servidores web.

A medida que la Web creció, se crearon motores de búsqueda y directorios Web para rastrear páginas en la Web y permitir que la gente encontrara cosas. El primer motor de búsqueda web de texto completo fue WebCrawler en 1994. Antes de WebCrawler, solo se buscaban títulos de páginas web. Otro motor de búsqueda inicial, Lycos , se creó en 1993 como un proyecto universitario y fue el primero en lograr el éxito comercial. A fines de la década de 1990, tanto los directorios web como los motores de búsqueda web eran populares: Yahoo! (fundada en 1994) y Altavista (fundada en 1995) fueron los respectivos líderes de la industria. En agosto de 2001, el modelo de directorio había comenzado a dar paso a los motores de búsqueda, siguiendo el ascenso de Google (fundado en 1998), que había desarrollado nuevos enfoques para la clasificación de relevancia . Las funciones de directorio, aunque todavía están comúnmente disponibles, se convirtieron en ideas secundarias para los motores de búsqueda.

El "Panel de conocimiento" de Google, así es como se presenta a los usuarios la información del Gráfico de conocimiento.

El tamaño de la base de datos, que había sido una característica de marketing importante a principios de la década de 2000, fue reemplazado de manera similar por el énfasis en la clasificación de relevancia, los métodos por los cuales los motores de búsqueda intentan clasificar los mejores resultados en primer lugar. La clasificación de relevancia se convirtió por primera vez en un tema importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. En consecuencia, los algoritmos para la clasificación de relevancia han mejorado continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayor cantidad de prensa, pero todos los motores de búsqueda principales refinan continuamente sus metodologías de clasificación con miras a mejorar el orden de los resultados. A partir de 2006, las clasificaciones de los motores de búsqueda son más importantes que nunca, tanto es así que se ha desarrollado una industria (" optimizadores de motores de búsqueda " o "SEO") para ayudar a los desarrolladores web a mejorar su clasificación de búsqueda y todo un conjunto de jurisprudencia. se ha desarrollado en torno a cuestiones que afectan la clasificación de los motores de búsqueda, como el uso de marcas comerciales en metaetiquetas . La venta de rankings de búsqueda por parte de algunos motores de búsqueda también ha creado controversia entre bibliotecarios y defensores de los consumidores.

El 3 de junio de 2009, Microsoft lanzó su nuevo motor de búsqueda, Bing . Al mes siguiente, Microsoft y Yahoo! anunció un acuerdo en el que Bing impulsaría a Yahoo! Buscar .

En la actualidad, Google ha avanzado mucho para transformar la experiencia de los usuarios en los motores de búsqueda. Con la incorporación de Google Knowledge Graph de Google , ha habido un efecto significativo en Internet en su conjunto, posiblemente incluso limitando el tráfico de ciertos sitios web, incluida Wikipedia. Al extraer información de Wikipedia y presentarla en la página de Google, algunos argumentan que puede afectar negativamente a Wikipedia y otros sitios. Sin embargo, no ha habido preocupaciones inmediatas entre Wikipedia y el Gráfico de conocimiento.

Compartición de archivos

El intercambio de recursos o archivos ha sido una actividad importante en las redes informáticas desde mucho antes de que se estableciera Internet y se apoyaba de diversas formas, incluidos los sistemas de tablones de anuncios (1978), Usenet (1980), Kermit (1981) y muchos otros. El Protocolo de transferencia de archivos (FTP) para su uso en Internet se estandarizó en 1985 y todavía se utiliza en la actualidad. Se desarrollaron una variedad de herramientas para ayudar al uso de FTP al ayudar a los usuarios a descubrir archivos que podrían querer transferir, incluido el servidor de información de área amplia (WAIS) en 1991, Gopher en 1991, Archie en 1991, Veronica en 1992, Jughead en 1993 , Internet Relay Chat (IRC) en 1988 y, finalmente, la World Wide Web (WWW) en 1991 con directorios web y motores de búsqueda web .

En 1999, Napster se convirtió en el primer sistema de intercambio de archivos de igual a igual . Napster usó un servidor central para la indexación y el descubrimiento de pares, pero el almacenamiento y la transferencia de archivos estaba descentralizado. Siguieron una variedad de programas y servicios de intercambio de archivos de igual a igual con diferentes niveles de descentralización y anonimato , incluidos: Gnutella , eDonkey2000 y Freenet en 2000, FastTrack , Kazaa , Limewire y BitTorrent en 2001 y Poisoned en 2003.

Todas estas herramientas son de uso general y se pueden usar para compartir una amplia variedad de contenido, pero compartir archivos de música, software y películas y videos posteriores son usos principales. Y aunque parte de este intercambio es legal, grandes porciones no lo son. Demandas y otras acciones legales hicieron que Napster en 2001, eDonkey2000 en 2005, Kazaa en 2006 y Limewire en 2010 cerraran o reenfocaran sus esfuerzos. The Pirate Bay , fundada en Suecia en 2003, continúa a pesar de un juicio y una apelación en 2009 y 2010 que resultó en penas de cárcel y grandes multas para varios de sus fundadores. El intercambio de archivos sigue siendo polémico y polémico con cargos de robo de propiedad intelectual por un lado y cargos de censura por el otro.

Burbuja de punto com

De repente, el bajo precio de llegar a millones de personas en todo el mundo, y la posibilidad de vender o escuchar a esas personas en el mismo momento en que fueron contactadas, prometió revertir el dogma comercial establecido en publicidad, ventas por correo , gestión de relaciones con los clientes y muchos más. áreas. La web era una nueva aplicación asesina: podía unir a compradores y vendedores no relacionados de manera fluida y de bajo costo. Los empresarios de todo el mundo desarrollaron nuevos modelos de negocio y acudieron a su capitalista de riesgo más cercano . Si bien algunos de los nuevos empresarios tenían experiencia en negocios y economía, la mayoría eran simplemente personas con ideas y no administraban la afluencia de capital con prudencia. Además, muchos planes de negocio de las puntocom se basaban en el supuesto de que, al utilizar Internet, evitarían los canales de distribución de las empresas existentes y, por lo tanto, no tendrían que competir con ellas; cuando las empresas establecidas con fuertes marcas existentes desarrollaron su propia presencia en Internet, estas esperanzas se hicieron añicos y los recién llegados se quedaron tratando de ingresar a mercados dominados por empresas más grandes y establecidas. Muchos no tenían la capacidad para hacerlo.

La burbuja de las puntocom estalló en marzo de 2000, con el índice NASDAQ Composite pesado de tecnología alcanzando un máximo de 5.048,62 el 10 de marzo (5.132,52 intradía), más del doble de su valor un año antes. En 2001, la deflación de la burbuja estaba a toda velocidad. La mayoría de las puntocom habían dejado de cotizar, después de haber gastado su capital de riesgo y su capital de OPI, a menudo sin obtener ganancias . Pero a pesar de esto, Internet sigue creciendo, impulsada por el comercio, cantidades cada vez mayores de información y conocimiento en línea y las redes sociales.

Teléfonos móviles e Internet

El primer teléfono móvil con conectividad a Internet fue el Nokia 9000 Communicator , lanzado en Finlandia en 1996. La viabilidad del acceso a los servicios de Internet en teléfonos móviles fue limitada hasta que los precios bajaron de ese modelo y los proveedores de red comenzaron a desarrollar sistemas y servicios convenientemente accesibles en Los telefonos. NTT DoCoMo en Japón lanzó el primer servicio de Internet móvil, i-mode , en 1999 y se considera el nacimiento de los servicios de Internet de telefonía móvil. En 2001, se lanzó en Estados Unidos el sistema de correo electrónico para teléfonos móviles de Research in Motion (ahora BlackBerry Limited ) para su producto BlackBerry . Para hacer un uso eficiente de la pantalla pequeña y el teclado minúsculo y el funcionamiento con una sola mano típico de los teléfonos móviles, se creó un documento específico y un modelo de red para dispositivos móviles, el Protocolo de aplicación inalámbrica (WAP). La mayoría de los servicios de Internet de dispositivos móviles funcionan mediante WAP. El crecimiento de los servicios de telefonía móvil fue inicialmente un fenómeno principalmente asiático; Japón, Corea del Sur y Taiwán pronto encontraron que la mayoría de sus usuarios de Internet accedían a los recursos por teléfono en lugar de por PC. Le siguieron los países en desarrollo, con India, Sudáfrica, Kenia, Filipinas y Pakistán, todos informando que la mayoría de sus usuarios domésticos accedían a Internet desde un teléfono móvil en lugar de una PC. El uso de Internet en Europa y América del Norte se vio influenciado por una gran base instalada de computadoras personales, y el crecimiento del acceso a Internet por teléfono móvil fue más gradual, pero había alcanzado niveles de penetración nacional del 20-30% en la mayoría de los países occidentales. El cruce se produjo en 2008, cuando más dispositivos de acceso a Internet eran teléfonos móviles que computadoras personales. En muchas partes del mundo en desarrollo, la proporción es de hasta 10 usuarios de teléfonos móviles por usuario de PC.

Servicios de alojamiento de archivos

El alojamiento de archivos permitió a las personas expandir los discos duros de sus computadoras y "alojar" sus archivos en un servidor. La mayoría de los servicios de alojamiento de archivos ofrecen almacenamiento gratuito, así como una mayor cantidad de almacenamiento por una tarifa. Estos servicios han ampliado enormemente Internet para uso comercial y personal.

Google Drive , lanzado el 24 de abril de 2012, se ha convertido en el servicio de alojamiento de archivos más popular. Google Drive permite a los usuarios almacenar, editar y compartir archivos con ellos mismos y con otros usuarios. Esta aplicación no solo permite editar, alojar y compartir archivos. También actúa como los propios programas de oficina de acceso gratuito de Google , como Google Docs , Google Slides y Google Sheets . Esta aplicación sirvió como una herramienta útil para profesores y estudiantes universitarios, así como para aquellos que necesitan almacenamiento en la nube .

Dropbox , lanzado en junio de 2007, es un servicio de alojamiento de archivos similar que permite a los usuarios mantener todos sus archivos en una carpeta en su computadora, que está sincronizada con los servidores de Dropbox. Esto difiere de Google Drive porque no está basado en un navegador web. Ahora, Dropbox trabaja para mantener sincronizados y eficientes a los trabajadores y los archivos.

Mega , con más de 200 millones de usuarios, es un sistema de comunicación y almacenamiento encriptado que ofrece a los usuarios almacenamiento gratuito y de pago, con énfasis en la privacidad. Al ser tres de los servicios de alojamiento de archivos más grandes, Google Drive, Dropbox y Mega representan las ideas y los valores centrales de estos servicios.

Piratería online

La forma más temprana de piratería en línea comenzó con un servicio de intercambio de música P2P (peer to peer) llamado Napster , lanzado en 1999. Sitios como LimeWire , The Pirate Bay y BitTorrent permitieron que cualquier persona participara en la piratería en línea, lo que provocó ondas en la industria de los medios. . Con la piratería en línea se produjo un cambio en la industria de los medios en su conjunto.

Tecnologías web

Las páginas web se concibieron inicialmente como documentos estructurados basados ​​en el lenguaje de marcado de hipertexto (HTML) que puede permitir el acceso a imágenes , videos y otros contenidos. Los hipervínculos en la página permiten a los usuarios navegar a otras páginas. En los primeros navegadores, las imágenes se abrían en una aplicación "auxiliar" separada. Mosaic 1993 de Marc Andreessen y Netscape 1994 introdujeron texto e imágenes mixtos para usuarios no técnicos. HTML evolucionó durante la década de 1990, dando lugar a HTML 4, que introdujo grandes elementos de estilo CSS y, más tarde, extensiones para permitir que el código del navegador hiciera llamadas y solicitara contenido de los servidores de forma estructurada ( AJAX ).

Historiografía

Hay problemas casi insuperables a la hora de proporcionar una historiografía del desarrollo de Internet. El proceso de digitalización representa un doble desafío tanto para la historiografía en general como, en particular, para la investigación de la comunicación histórica. En la cita se puede obtener una idea de la dificultad de documentar los primeros desarrollos que llevaron a Internet:

"El período Arpanet está algo bien documentado porque la corporación a cargo, BBN , dejó un registro físico. Al entrar en la era NSFNET , se convirtió en un proceso extraordinariamente descentralizado. El registro existe en los sótanos de las personas, en los armarios ... lo que sucedió se hizo verbalmente y sobre la base de la confianza individual ".

-  Doug Gale (2007)

Ver también

Referencias

Bibliografía

Otras lecturas

enlaces externos