jueves, 30 de marzo de 2017

La historia de Internet

INTERNET


Internet se define como una red de redes, donde la interconexión descentralizada entre dispositivos se efectúa mediante diversos protocolos, entre los que destaca el TCP/IP. Pero, ¿qué significa esto?

Internet es una gran red que permite la conexión entre dispositivos que se encuentran en diferentes posiciones del globo, siguiendo una serie de instrucciones predefinidas. Pero antes de hablar de su historia, es necesario explicar un par de términos.

 

TÉRMINOS

  • Red 
Una red informática es un conjunto de equipos (ordenadores, móviles, impresoras, servidores, entre otros) conectados, que comparten recursos e información entre ellos.
  • Protocolos
 Un protocolo de transmisión de datos es un conjunto de reglas que permite que a dos o más ordenadores comunicarse entre sí. Existe una gran variedad de estos, pero los más importantes son TCP/IP, HTTP, FTP y SSH.
  • Navegador
Es el programa que permite el acceso a Internet, interpretando los distintos protocolos para que puedan visualizarse.
  •  Motor de búsqueda
Sistema informático que busca archivos en un sistema. En este caso, como nos referimos a Internet, buscará palabras clave en la web, listando después las páginas encontradas.
  •  Dominio 
Un dominio es el nombre que identifica a cada página de Internet. Esto se hizo con el fin de que las direcciones de las páginas fuesen más fáciles de memorizar. De este modo en vez de aprenderte los cuatro números distintos que conforman la IP, sólo te aprenderías una palabra o un conjunto de ellas.
       

ORIGEN

Finalizada la Segunda Guerra Mundial, las dos potencias aliadas Estados Unidos y la antigua Unión Soviética (URSS) se separaron por sus diferencias ideológicas. Estados Unidos defendía una ideología capitalista frente al socialismo de la URSS. Esta serie de conflictos acabó originando en 1947 lo que actualmente conocemos como Guerra Fría, que no acabaría hasta la caída del muro de Berlín en 1989. A finales de los años sesenta, la entrada de los misiles intercontinentales jugaban un papel muy importante, ya que serían un recurso fundamental en la guerra. La solución a un ataque masivo de misiles únicamente puede ser procesada por un ordenador, ya que solo se dispone de minutos para localizar un misil y preparar un contraataque para destruirlo en pleno vuelo. Si un misil rival alcanzaba el ordenador central, el país o conjunto de países, sería muy vulnerable. 

Por lo tanto, en 1969, se creó ARPANET, una red estadounidense sin un centro geográfico que formaba parte de cuatro universidades de la zona. La primera transmisión de información se estableció entre la Universidad de California Los Ángeles y el SRI (Stanford Research Institute) el 29 de octubre de 1969. Eran tales las ventajas que suponía que en 1971 la red ya contaba con 15 nodos. Además, dos años más tarde se internacionalizó con la colaboración de la Universidad College of London y la Norwegian Seismic Array.

En el año 1982, ARPANET estableció el protocolo TCP/IP como stándard.

Un año más tarde, el Ministerio de Defensa estadounidense decidió conformar una red independiente bajo su poder total llamada MILNET. Esta red militar estaba formada por 68 de los 113 nodos que componían ARPANET.

A finales del siglo XX, un investigador del CERN llamado Tim Berners-Lee quiso hacer un programa (Enquire) que permitiese almacenar y recuperar información mediante asociaciones. De este modo, en octubre de 1990, Berners-Lee comenzó la elaboración de lo que sería HTML, un código muy usado actualmente en la elaboración de páginas web que permite combinar texto, imágenes y enlaces a otros documentos. También creó el primer servidor World Wide Web (abreviado www, que es el comienzo de la dirección de las páginas web), así como el primer programa que se conectaba a él. Al año siguiente publicó su trabajo en Internet, lo que dio comienzo al gran boom de la creación de dominios, así como a un gran cambio en la socio-economía global.



Evolución de la cantidad de dominios de Internet desde 1994

NAVEGADORES

Para acceder a cada página de Internet basta con que esta esté conectada a los servidores de World Wide Web, y además, conocer su dirección IP. Pero esto nos llevaría a una página donde aparecería un código, generalmente escrito en HTML, que no entenderíamos. Para solucionar esto hace falta un intermediario que lo traduzca a algo más simple de visualizar; esta función es la que realizan los navegadores o browsers, como los archiconocidos Google Chrome y Firefox.

En 1993 es lanzado el primer navegador de la historia, el Mosaic, desarrollado por la NCSA (National Center for Supercomputing Applications). Pero realmente, el verdadero comienzo no llega hasta el año siguiente, en 1994, cuando el navegador Navigator Netscape fue publicado. Su compra permitió a los usuarios sin conocimientos en informática poder adentrarse en el mundo de Internet. Más tarde, en 1995, Microsoft lanzaría el Internet Explorer, técnicamente por debajo de Netscape, pero gratuito. En 2002 nace Firefox con el nombre de Phoenix y, finalmente, en 2008 el titán de Internet, Google, dió a conocer al mundo Google Chrome, el actual navegador más usado.

En 1998 se hizo la primera página que interaccionaba con el usuario, a este hecho se le consideró el inicio de la Web 2.0, pues supuso el auge de las redes sociales, los blogs y demás herramientas que hacían del usuario algo más que un elemento pasivo.


BUSCADORES

Debido a la propia estructura de Internet, resulta muy dificil conocer el contenido de cada página web. Un buscador, permite encontrar archivos almacenados en servidores web, es decir, buscar diferentes formatos digitales en la red.


REDES SOCIALES

Desde la primera red social, la página web classmates.com, que tuvo lugar en 1995, gracias a Randy Conrads, actualmente, esta herramienta cotidiana está creciendo a velocidades de vértigo. 


FUENTES

Funcionamiento del protocolo FTP

jueves, 10 de noviembre de 2016

Proyecto GNU

GNU fue un proyecto dirigido por Richard Stallman. En 1971 comenzó su carrera en el MIT. Durante este periodo usó siempre software libre debido que las compañías lo facilitaban.

A principios de los 80, las empresas empezaron a privatizarlo y fue necesario GNU, un proyecto ambicioso que permitiría la interacción entre usuarios de nuevo.

Proyecto GNU 

El proyecto GNU surgió en 1983 como idea de Richard Stallman para crear un SO (Sistema Operativo) basado en Unix que fuese 100% software libre.

El acrónimo GNU proviene de GNU's not Unix (GNU no es Unix). Debido a la grandeza del proyecto hubo que recaudar fondos mediante la Free Software Foundation, fundada en octubre de 1985. Según propias palabras de GNU :"Un sistema operativo similar a Unix incluye un núcleo, compiladores, editores, procesadores de texto, software de correo, interfaces gráficas, bibliotecas, juegos y muchas otras cosas. Por todo esto, escribir un sistema operativo completo conlleva mucho trabajo". Esto quiere decir que el objetivo no era sólo hacer un SO, sino también incluir en él aplicaciones que pudiesen ser usadas por el usuario de forma gratuita y libre.

El SO no se quedó solo ahí, también desarrollaron una GUI (Graphic User Interface o Interfaz Gráfica de Usuario) llamada GNOME. Esto permitiría el uso del SO a usuarios que no fuesen expertos en informática.

Qué ha permitido GNU

La creación de GNU permitió que otro programador finlandés, Linus Torvalds, desarrollar lo que actualmente conocemos como GNU/Linux (GNU es el SO, mientras que Linux es el kernel o núcleo), comúnmente llamado Linux. Este, a su vez, ha permitido el desarrollo de otros SO's, llamados distros.

Para que el lector se haga una idea de cuantas distros existen de Linux enlazamos un link que muestra todas las distros hasta 2012 y otro enlace para que pueda ver las distros desarrolladas día a día.

También está basado en Unix el sistema operativo OS X, que actualmente usa Apple.


Fuentes:
https://www.gnu.org/gnu/gnu.html
https://es.wikipedia.org/wiki/Richard_Stallman#Biograf.C3.ADa

Vídeo de Richard Stallman cantando la canción del hacker.

jueves, 20 de octubre de 2016

Arquitectura de von Neumann

John von Neumann revolucionó el mundo de la Informática. Antes de la arquitectura, tenías que ser ingeniero eléctrico para poder programar, que se basaba en conectar diferentes cables. Esto ocasionaba numerosos perjuicios ya que cada vez que querías hacer un nuevo cálculo debías volver a conectar todo.


Nació el 28 de diciembre de 1903. Fue un niño prodigio, con una memoria asombrosa, capaz de hacer bromas en griego clásico a la temprana edad de seis años o de memorizarse columnas enteras de guías telefónicas.

Todo cambió gracias a su intervención. John von Neumann fue el matemático que presentó al mundo la idea de hacer programas almacenados en una memoria. 
Sus contribuciones a las matemáticas son destacables (encontrando el campo de la Teoría del juego, haciendo contribuciones en las matemáticas económicas, en la Teoría de la medición, etc.), así como en otros campos (física cuántica y ciencia computacional, entre otras). También fue uno de los colaboradores del Proyecto Manhattan desarrollando los modelos matemáticos detrás de las lentes explosivas.

Para conocer su vida más detalladamente haz click aquí (en inglés).


En la arquitectura von Neumann los datos se escriben y leen en una misma memoria y se direccionan indicando su posición.


Las características principales de esta arquitectura son las siguientes:
  • Posee 3 componentes principales (CPU, Memoria principal y Sistema I/O)
  • Las instrucciones siguen un procesamiento secuencial
  • Datos en código binario
  • Sistema de interconexión
Componentes Principales:

1. CPU (Unidad Central de Procesamiento):


Conocido también como "procesador", principalmente nos permite controlar todo el sistema del ordenador (procesar datos). Está formado por millones de transistores que son los encargados de regular la corriente actuando como un interruptor o amplificador. Nos permite desde incorporar memorias internas y discos duros hasta conectar dispositivos como monitores, teclados, auriculares e impresoras. Actualmente han sido reemplazadas por microprocesadores, debido al avance de la nano tecnología, ya que anteriormente ocupaban mucho espacio y eran muy costosas.



                 

















Dispone de dos unidades en su interior:
  1. Unidad de control: encargado de procesar los datos, es decir, lee las instrucciones que nosotros le damos al ordenador y los envía a los componentes del procesador.
  2. Unidad aritmético lógica (ALU): interpreta los datos, es decir, se encarga de realizar operaciones aritméticas como sumas, restas, multiplicaciones y divisiones, y lógicas como comparaciones.
2. Memoria principal:

La memoria principal es el lugar donde se almacenan los datos o programas de forma temporal que procesa la CPU. Se comunican mediante el bus de datos y el bus de direcciones. Deja de almacenar información cuando se produce un corte de corriente eléctrica. Inicialmente la memoria era principalmente RAM (la memoria de proceso aleatorio se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software), aunque actualmente también se usa la memoria caché (memoria de acceso rápido que guarda temporalmente la información recientemente procesada).

(RAM)




3. Sistema I/O

Conocido como periféricos de entrada/salida. Son dispositivos que permiten la comunicación del CPU con el exterior. (Con una persona o sistema)
Ejemplos de ellos son las pantallas táctiles, el ratón, el teclado, etc.









Para una información mucho más extensa sobre el tema consultar el siguiente PDF.



Aquí mostramos un vídeo explicativo sobre la arquitectura de Neumann.