jueves, 14 de octubre de 2010

Realice una breve reseña de Linux.

Definicion

Linux es un núcleo de sistema operativo libre de tipo Unix. Actualmente es utilizado por la familia de sistemas operativos GNU/Linux. Lanzado bajo la licencia pública general de GNU y desarrollado gracias a contribuciones provenientes de programadores de todo el mundo, siendo esta  uno de los ejemplos más notables de software libre. Linux fue creado por Linus Torvalds en 1991. Muy pronto, la comunidad de Minix (un clon de Unix) contribuyó en el código y en ideas para el núcleo Linux. Por aquel entonces, el Proyecto GNU ya había creado muchos de los componentes necesarios para obtener un sistema operativo libre, pero su propio núcleo (GNU Hurd) era incompleto y por lo tanto no podían conseguir un sistema libre totalmente funcional. Es por esto que a pesar de las funcionalidades limitadas de la primera versión, rápidamente Linux fue acumulando desarrolladores y usuarios que adoptaron el código de estos proyectos para usar con el nuevo sistema operativo. Hoy en día el núcleo Linux ha recibido contribuciones de miles de programadores. Linux actualmente posee una cuota de mercado del 0,96% a nivel mundial.

Historia

En abril de 1991, Linus Torvalds, de 21 años, empezó a trabajar en el diseño de en unas simples ideas para un núcleo de sistema operativo. Comenzó con un intento por obtener un núcleo de sistema operativo gratuito similar a Unix que funcionara con microprocesadores Intel 80386.
El 25 de agosto de 1991, dejaba claro en comp.os.minix sobre el diseño del sistema operativo emulando GNU para  clones AT 386(486).
En septiembre de 1991 se lanzó la versión 0.01 de Linux. En la cual contenía Tenía 10.239 líneas de código. En ese mismo año, se lanzó la versión 0.02 de Linux.
Luego, en diciembre se lanzó la versión 0.11. Esta versión fue la primera en ser self-hosted (autoalbergada). Es decir, Linux 0.11 podía ser compilado por una computadora que ejecutase Linux 0.11, mientras que las versiones anteriores de Linux se compilaban usando otros sistemas operativos.
Cuando lanzó la siguiente versión, Torvalds adoptó la GPL como su propio boceto de licencia, la cual no permitía su redistribución con otra licencia que no sea GPL. Se inició un grupo de noticias llamado alt.os.linux

El 19 de enero de 1992 se publicó en ese grupo el primer post.

El 31 de marzo, alt.os.linux se convirtió en comp.os.linux. XFree86, una implementación del X Window System, fue portada a Linux, la versión del núcleo 0.95 fue la primera en ser capaz de ejecutarla. Este gran salto de versiones (de 0.1x a 0.9x) fue por la sensación de que una versión 1.0 acabada no parecía estar lejos. Sin embargo, estas previsiones resultaron ser un poco optimistas:

Desde 1993 a principios de 1994, se desarrollaron 15 versiones diferentes de 0.99.
El 14 de marzo de 1994, se lanzó Linux 1.0.0, que constaba de 176.250 líneas de código.
En marzo de 1995 se lanzó Linux 1.2.0, que ya estaba compuesto de 310.950 líneas de código.
En mayo de 1996 Torvalds decidió adoptar al pingüino Tux como mascota para Linux.
La versión 2 de Linux se lanzó el 9 de junio de 1996 y fue un gran éxito. A éste se le sumo  grandes desarrollos:

1.     25 de enero de 1999: se lanzó Linux 2.2.0 con 1.800.847 líneas de código.

2.     18 de diciembre de 1999: se publicaron parches de IBM Mainframe para 2.2.13, permitiendo de esta forma que Linux fuera usado en ordenadores corporativos.

3.     4 de enero de 2001: se lanzó Linux 2.4.0 con 3.377.902 líneas de código.

4.     17 de diciembre de 2003: se lanzó Linux 2.6.0 con 5.929.913 líneas de código.

5.     24 de diciembre de 2008: se lanzó Linux 2.6.28 con 10.195.402 líneas de código.

La Arquitectura de Linux.

Actualmente Linux es un núcleo monolítico híbrido. Los controladores de dispositivos y las extensiones del núcleo normalmente se ejecutan en un espacio privilegiado conocido como anillo 0 (ring 0), con acceso irrestricto al hardware. A diferencia de los núcleos monolíticos tradicionales, los controladores de dispositivos y las extensiones al núcleo se pueden cargar y descargar fácilmente, mientras el sistema continúa funcionando sin interrupciones. También, a diferencia de los núcleos monolíticos tradicionales, los controladores pueden ser prevolcados (detenidos momentáneamente por actividades más importantes) bajo ciertas condiciones. Esta habilidad fue agregada para gestionar correctamente interrupciones de hardware, y para mejorar el soporte de multiprocesamiento.
El hecho de que Linux no fuera desarrollado siguiendo el diseño de un micronúcleo (diseño que, en aquella época, era considerado el más apropiado para un núcleo por muchos teóricos informáticos).

Linux está escrito en el lenguaje de programación C, en la variante utilizada por el compilador GCC (que ha introducido un número de extensiones y cambios al C estándar), junto a unas pequeñas secciones de código escritas con el lenguaje Ensamblador. Por el uso de sus extensiones al lenguaje, GCC fue durante mucho tiempo el único compilador capaz de construir correctamente Linux. Sin embargo, Intel afirmó haber modificado su compilador C de forma de poder compilarlo correctamente.Asimismo se usan muchos otros lenguajes en alguna forma, básicamente en la conexión con el proceso de construcción del núcleo (el método a través del cual las imágenes boteables son creadas desde el código fuente). Estos incluyen a Perl, Python y varios lenguajes shell scripting. Algunos drivers también pueden ser escritos en C++, Fortran, u otros lenguajes, pero esto no es aconsejable. El sistema de construcción de Linux oficialmente solo soporta GCC como núcleo y compilador de controlador.
Portabilidad

 Aun cuando Linus Torvalds no ideó originalmente Linux como un núcleo portable, ha evolucionado en esa dirección. Linux es ahora de hecho, uno de los sistemas operativos más ampliamente portados, y funciona en sistemas muy diversos que van desde iPAQ (una handheld) hasta un zSeries (un mainframe masivo). Está planeado que Linux sea el sistema operativo principal de las nuevas supercomputadoras de IBM

Arquitectura de máquina virtual

El núcleo Linux puede correr sobre muchas arquitecturas de máquina virtual, tanto como host del sistema operativo o como cliente. La máquina virtual usualmente emula la familia de procesadores Intel x86, aunque en algunos casos también son emulados procesadores de PowerPC o AMD.

Formatos binarios soportados

Linux 1.0 admitía sólo el formato binario a.out. La siguiente serie estable (Linux 1.2) agregó la utilización del formato ELF, el cual simplifica la creación de bibliotecas compartidas (usadas de forma extensa por los actuales ambientes de escritorio como GNOME y KDE). ELF es el formato usado por defecto por el GCC desde alrededor de la versión 2.7.0. El formato a.out actualmente no es usado, convirtiendo a ELF en el formato binario utilizado por Linux en la actualidad.Linux tiene la capacidad de permitir al usuario añadir el manejo de otros formatos binarios. También binfmt_misc permite correr el programa asociado a un archivo de datos.
Versiones
Más allá de haber desarrollado su propio código y de integrar los cambios realizados por otros programas, Linus Torvalds continua lanzando nuevas versiones del núcleo Linux. Estos son llamados núcleos “vanilla”, lo que significa que no han sido modificados por nadie. Muchos desarrolladores de distribuciones Linux modifican dicho núcleo en sus productos, principalmente para agregarle soporte a dispositivos o herramientas que no fueron oficialmente lanzadas como estables, mientras que algunas distribuciones, como Slackware, mantienen el núcleo vanilla.

Distribuidores de Linux, como Red Hat y Debian, mantienen los núcleos que salen con sus lanzamientos, de forma que una solución para algunas personas es seguir el núcleo de una distribución.
Historia de UNIX

A mediados de los de la decada de los 60' varias grandes empresas norteamericanas se juntaron para tratar de hacer un sistema operativo de gran potencia al que denominaron MULTICS. El proyecto fue un fracaso pero uno de los programadores del MIT que había trabajado en el proyecto, Ken Thompson, y un grupo de colaboradores decidieron escribir una versión miniatura de MULTICS. Unos de los compañeros de Ken, Brian Kernigham, en una reunión de equipo, bromeando llamó al sistema de Ken Thompson UNICS..

Las más importantes de todas las versiones de UNIX fueron la BSD (Berkeley Software Distribution), de la Universidad de California en Berkeley, que contenía una serie de mejoras que hicieron a UNIX un sistema operativo más amigable, y la System V. Actualmente el System V es considerado el estándar de UNIX, ya que toda la industria se ha agrupado entorno a él.

La aparición de Minix

A pesar del éxito comercial de UNIX y de su aceptación como sistema operativo, el código fuente de UNIX no podía ser explicado en aulas universitarias, de modo que el desarrollo de sistemas operativos volvía a ser una ciencia restringida a un reducido grupo de empresas y personas.

Ante esta situación, el conocido profesor Andrew Tanenbaum decidió imitar a Ken Thompson cuando escribió el código de UNIX basándose en MULTICS, e inspirándose en UNIX llevó a cabo un nuevo sistema operativo mucho más reducido, al que llamó MINIX (de Mini-UNIX). MINIX había sido desarrollado en una IBM PC y ofrecía las mismas llamadas al sistema que UNIX V7. Tanenbaum hizo público el código de MINIX, y su texto aún se usa en la mayoría de las universidades del planeta para enseñar las bases del diseño de sistemas operativos.

Linus Torvalds empieza a desarrollar Linux

A principios de los 90 Linus Torvalds, un estudiante universitario, decidió crear su propia versión de Unix, que superara las limitaciones del sistema minix. Este sistema lo llamó Linux (Contracción de Linus y Unix). Pocos meses después publicó su primera versión, numerada como versión 0.01. Esta versión solamente contenía un kernel (núcleo del sistema operativo) muy rudimentario.

El 5 de Octubre de 1991 fue creada y públicada la versión 0.02 cuando Torvalds logró ejecutar programas como el Bash y el Gcc (básicos para un sistema unix). Por aquel entonces decidió difundirlo pública y gratuitamente (bajo la licencia GNU, de la que hablaremos mas adelante) e invitó a todo aquel que pudiera a aportar ideas nuevas y a mejorar el código via Internet. Gracias a estos aportes Linux comenzó a evolucionar rápidamente.

A partir de ese momento, y a pesar de que Linus sigue teniendo la última palabra sobre el contenido del kernel o núcleo del sistema operativo, el proyecto se a ido abriendo a la comunidad con la participación de programadores de todo el mundo, que reproduciendo a una escala mucho mayor el esquema seguido por gran parte de las aplicaciones GNU.

Con el paso del tiempo se han ido sucediendo las versiones, y Linux ha ido tomando cuerpo como una muy seria alternativa a los demas sistemas operativos, tanto Unix tradicionales como Windows. Así, los sistemas Linux actualmente representan una gran amenaza competitiva para los desarrolladores de sistemas operativos propietarios. Microsoft ha comenzado a advertir la creciente popularidad de Linux y el riesgo que esto representa para su dominio del mercado. Linux se encuentra actualmente en el segundo lugar de las mayores amenazas para Microsoft, según lo anunció la empresa, siendo las condiciones económicas su amenaza número uno.

La creciente popularidad de Linux se debe -entre otras razones- a su extraordinaria estabilidad, al acceso libre al código fuente (lo que permite personalizar el funcionamiento) y a la abundancia de documentación relativa a los procedimientos. Dia a dia, más y más programas están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoria de los mismos vienen acompañados del código fuente y se distribuyen gratuitamente bajo terminos similares a los del núcleo.

Hoy en dia Linux es distribuido a través de múltiples ``distribuciones". Existen numerosas distribuciones de Linux (también conocidas como "distros"), ensambladas por empresas (caso de SuSE, RedHat), como fundaciones (caso de Debian o Gentoo) e incluso administraciones públicas (caso de Linex y Guadalinex en España). Cada distribución suele incluir software adicional, incluyendo software que facilita la instalación del sistema.

La base del sistema de cada distribución es muy parecida, incluyendo varios paquetes básicos del proyecto GNU, incluyendo un intérprete de comandos y utilidades como bibliotecas, compiladores y editores de texto. Estos componentes (esenciales para un sistema funcional) provienen del proyecto GNU, anterior a Linux. Es por esto que Richard Stallman (fundador del proyecto) pide a los usuarios que se refieran a dicho sistema como GNU/Linux. A pesar de esto, la mayoría de los usuarios continúan llamando al sistema simplemente "Linux" y las razones expuestas por Richard Stallman son eterno motivo de discusión.

Comente que es GPL


Es una sigla denominada GENERAL PUBLIC LICENSE, La cual es desarrollada por la “fundación de software libre” FSF (Free Software Fundation -1989).
Un programa generalmente que es diseñado por una empresa de software  propietaria, es distribuido con licencias cerradas.  Estas licencias son intransferible  y exclusivas, es decir tenemos solamente al derecho de usarlo y tanto como nos permita esta licencia a un grupo de usuarios y en la cual no se puede modificar.
Bajo esta premisa la GPL es completamente diferente, los programas bajo GPL en un computador u ordenador se pueden ocupar tantas veces sea necesario es decir sin limitación, tanto es el grado de libertad que es posible modificar el programa o adaptarlo a tus requerimientos, cabe distinguir que GPL no es lo mismo que decir Shareware o Freeware.
Finalmente los programas GPL no ofrecen garantía, sin embargo ofrece derechos  a los usuarios ya que son sistemas abiertos, es decir que cualquier usuario puede mejorar o depurar programas basados en GPL.


¿Cuales son las versiones del sistema Operativo Windows? Explique las características de Windows 95, Windows 98, XP, Vista y Windows 7



La evolucion de los sistemas operativo windows a modo general son los siguientes:

 Windows 3.11, Windows 95, Windows 98, Windows Millenium, Windows XP, Windows NT Server, Windows vista, windows 7.

Caracteristicas

Windows 95: Con este sistema operativo, Microsoft se ha dispuesto a  superar algunas de las limitaciones del MS-DOS.
Entre las novedades que ofrece Windows 95 cabe destacar el sistema de ficheros en  32 bits, gracias al cual podemos emplear nombres de ficheros de hasta 256 caracteres, debido a que se trata de un sistema operativo de modo protegido, desaparece la barrera de los 640K, se ha de tener presente que aunque la mayor parte de Windows 3.1 es un sistema de modo protegido, este se está ejecutando sobre un sistema operativo que trabaja en modo real.


Windows 98: hace que el ordenador funcione mejor integrando Internet y ofreciendo un mejor rendimiento del sistema y un sistema de diagnósticos y mantenimiento más sencillo. Windows 98 es más interactivo gracias a su soporte de las últimas tecnologías de gráficos, sonido y multimedia, la capacidad para añadir y quitar periféricos, y la convergencia de la televisión y el ordenador en el hogar.



Windows xp: La nueva versión de Windows supone un cambio importante respecto a la versión anterior. Desde que apareció Windows95 las sucesivas versiones han sido una evolución de la original, sin embargo en esta ocasión se ha producido un cambio de mayor envergadura ya que se ha cambiado el núcleo o Kernel del sistema operativo.









Windows vista: es una versión de Microsoft windows, línea de sistemas operativos desarrollada por Microsoft. Esta versión se enfoca para ser utilizada en equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC" y equipos "media center".
La aparición de windows vista viene más de 5 años después de la introducción de su predecesor,windows xp, es decir el tiempo más largo entre dos versiones consecutivas. La campaña de lanzamiento fue incluso más costosa que la de windows 95, ocurrido el 25 de agosto de 1995, debido a que esta incluyó además otros productos como Microsoft Office 2007 y Exchange Server 2000.



Windows 7: A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era compatible.Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.






Una breve reseña del desarrollo de internet.

Internet.
Basicamente surge de un proyecto desarrollado por las fuerzas militares en Estados Unidos (sistema de comunicación avanzada). Luego de su creación fue utilizado por el gobierno, y actualmente universidades y otros centros académicos.
La Internet en el mundo de la informática y de las comunicaciones es el mayor logro realizado, asentado una supremacía en la jerarquía de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es , un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos a travez de sus ordenadores esto también es una oportunidad de difusión libre.






Los Orígenes
La primera indicios documentados acerca de las interacciones sociales que podrían ser propiciadas a través del llamado “networking” (trabajo en red) está contenida en una serie de escritos por J.C.R. Licklider, del Instituto de Tecnología de Massachusetts (Massachusetts Institute of Technology), ya en  Agosto de 1962, en los cuales Licklider expone sobre su concepto de “Galactic Network” (Red Galáctica).




El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet. Licklider fue el principal responsable del programa de investigación en ordenadores de la “DARPA” desde Octubre de 1962. 
En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance. Otro paso fundamental fue hacer dialogar a los ordenadores entre sí.




Bajo el mismo tema, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida.
A fines de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores asi creo el plan de ARPANET, publicándolo en 1967, asi mismo en  una conferencia en la que presentó el documento se expuso también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Los trabajos en MIT (1961-67), RAND (1962-65) y NPL (1964-67) se habían confeccionado  en paralelo sin que los creadores se conocieran  el trabajo de los demás. Aquí también nace La palabra packet (paquete) que fue adoptada a partir del trabajo del NPL con una velocidad propuesta para ser usada en el diseño de ARPANET  de 2,4 Kbps hasta 50 Kbps. 
En Agosto de 1968, Roberts y la comunidad de la DARPA hubieran definido la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).
Septiembre de 1969 A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Asi se instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .
Un mes más tarde, cuando el SRI (Instituto de Investigación de Standford) fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah.
Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una nacida Internet. Incluso en esta primitiva etapa, hay que decir que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de hasta el tiempo presente.
Con la rápida conexión de ordenadores a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red.
En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red).
En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. 





En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web es decir, del enorme crecimiento de todas las formas de tráfico persona a persona. 
Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Entonces, el programa fue llamado Internetting . La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. 
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los hosts. 
Así, Kahn decidió desarrollo una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisson-Control Protocol/Internet Protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet).


Asi DARPA formalizó tres contratos con Stanford (Cerf), BBN (Ray Tomlinson) y UCLA (Peter Kirstein) para implementar TCP/IP (en el documento original de Cerf y Kahn se llamaba simplemente TCP pero contenía ambos componentes). El equipo de Stanford, dirigido por Cerf, produjo las especificaciones detalladas y al cabo de un año hubo tres implementaciones independientes de TCP que podían interoperar. 
Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos. 
Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa (desktop), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.
Ya en los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.
Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. 
El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP (Interior Gateway Protocol, protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP (Exterior Gateway Protocol, protocolo externo de pasarela) usado para mantener unidas las regiones.
A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.
La TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. 
Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. 
La transición hacia una infraestructura global
Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.
Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM .
En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines. 
Los comienzos de Arpanet y de Internet en la comunidad de investigación universitaria estimularon la tradición académica de la publicación abierta de ideas y resultados. Sin embargo, el ciclo normal de la publicación académica tradicional era demasiado formal y lento para el intercambio dinámico de ideas, esencial para crear redes. 
En 1969 S.Crocker, entonces en UCLA, dio un paso clave al establecer la serie de notas RFC (Request For Comments, petición de comentarios). Estos memorándums pretendieron ser una vía informal y de distribución rápida para compartir ideas con otros investigadores en redes. Al principio, las RFC fueron impresas en papel y distribuidas vía correo "lento". Pero cuando el FTP ( File Transfer Protocol , protocolo de transferencia de ficheros) empezó a usarse, las RFC se convirtieron en ficheros difundidos online a los que se accedía vía FTP.
Hoy en día, desde luego, están disponibles en el World Wide Web en decenas de emplazamientos en todo el mundo. SRI, en su papel como Centro de Información en la Red, mantenía los directorios online . Jon Postel actuaba como editor de RFC y como gestor de la administración centralizada de la asignación de los números de protocolo requeridos, tareas en las que continúa hoy en día. 
El acceso abierto a las RFC –libre si se dispone de cualquier clase de conexión a internet- promueve el crecimiento deinternet porque permite que las especificaciones sean usadas a modo de ejemplo en las aulas universitarias o por emprendedores al desarrollar nuevos sistemas. 
El e-mail o correo electrónico ha supuesto un factor determinante en todas las áreas de internet, lo que es particularmente cierto en el desarrollo de las especificaciones de protocolos, estándares técnicos e ingeniería en Internet. Las primitivas RFC a menudo presentaban al resto de la comunidad un conjunto de ideas desarrolladas por investigadores de un solo lugar. Después de empezar a usarse el correo electrónico, el modelo de autoría cambió: las RFC pasaron a ser presentadas por coautores con visiones en común, independientemente de su localización. 
Debido a que la rápida expansión actual de Internet se alimenta por el aprovechamiento de su capacidad de promover la compartición de información, deberíamos entender que el primer papel en esta tarea consistió en compartir la información acerca de su propio diseño y operación a través de los documentos RFC. Este método único de producir nuevas capacidades en la red continuará siendo crítico para la futura evolución de Internet