lunes, 21 de agosto de 2017

REDES

LAS REDES DE AREA LOCAL
Como hemos visto los ordenadores han evolucionado de forma espectacular en muy poco tiempo y el antiguo modelo centralizado de un solo ordenador para toda la empresa se reemplaza por otro que consiste en un gran número de ordenadores en distintos lugares de la empresa pero interconectados entre sí por medio de redes, comúnmente llamadas LAN (Local Area Network). Una red de área local es un conjunto compuesto de puestos de trabajo, (PC's o terminales), periféricos y software unidos a través de unos cables. Todo ello funciona gracias a una tarjeta de comunicaciones llamada NIC (Network Interface Card), que conecta el PC a la red; y a un programa de gestión de la red, que define que estación transmite y cual escucha.
Además la red puede disponer de servidores, computadoras que proporcionan "servicios" a los PC's, como almacenamiento de datos, accesos a impresoras, acceso a otras redes o accesos a computadoras centrales y - lo más importante - es en su unidad de disco fijo en donde está cargado el sistema operativo de la red.
Pero, ¿Por qué conectar equipos en redes?
Tal y como hemos visto en el breve repaso histórico, a principios de los años 70 empezó a haber ordenadores en todos los departamentos de las empresas y surgió la necesidad de compartir datos entre ellos. Así, por ejemplo, cuando en una empresa el departamento de Marketing estudia lanzar un nuevo producto, debe tener datos del departamento de Fabricación, para analizar si su producción es factible; igualmente debe tener datos del departamento de Ventas, para analizar si su comercialización se puede llevar a cabo y así sucesivamente con casi todos los departamentos.
Si todos esos departamentos tienen sus ordenadores conectados a la misma red, éstos no solamente van a poder compartir sus bases de datos, sino que, además mejorará el flujo de comunicación (buzón de correo electrónico en el servidor) podrán trabajar en común y la velocidad de transmisión de dichos datos será mucho mayor que llevar pendrives de un departamento a otro.
Otra ventaja de las redes es la de proporcionar mayor seguridad a los datos gracias a servidores con programas antivirus, además al estar centralizados en el servidor las copias de seguridad son más simples que hacerlas una a una en cada P.C. y lo mismo ocurre con las actualizaciones de software.
Por último y no menos importante las redes de ordenadores nos proporcionan un importante ahorro económico, ya que como hoy en día ya no hay un solo ordenador por departamento, sino que prácticamente los ordenadores están en todos los puestos de trabajo del departamento, las redes nos permiten compartir equipos, tales como impresoras, módems, plotters, discos duros, etc.; y recursos, tales como aplicaciones de software multiusuario, reduciendo con ello las inversiones necesarias en cada departamento. Baste decir que los norteamericanos, tan dados al cálculo de amortizaciones, consideran rentable montar una red de área local, a partir de 5 PC's utilizando uno de ellos como servidor de los demás.
TOPOLOGIA DE REDES DE AREA LOCAL
Se llama topología, al modelo de interconexiones físicas entre los componentes de una red (servidor y estaciones de trabajo), especialmente entre sus nodos. La flexibilidad de una red (ampliación, modificación) dependerá en gran parte de la topología elegida. Básicamente existen tres tipos de topologías: Bus, Anillo y Estrella, siendo las demás mezclas o variaciones sobre ellas.
Topología de Bus:
Las primeras redes informáticas se realizaban a base de cables conectados con una topología de Bus.
En este principio de distribución y de interconexión, todas las estaciones están conectadas en paralelo sobre un mismo cable con un terminador en cada extremo que proporciona la impedancia necesaria en cada extremo para que pueda funcionar la red.
En una red de bus, todas las estaciones de trabajo escuchan todos los mensajes que se transmiten por el cable y cada estación selecciona aquel que le es dirigido y responde con una señal de recepción correcta.
Sí además de compartir archivos, queremos compartir equipos y aplicaciones, necesitaremos un servidor que realice esas gestiones, que perfectamente puede ser una de las estaciones de trabajo conectadas a la red.
Un ejemplo de este tipo de red sería el bus Ethernet fino ó 10 base 2 sobre cable coaxial de diámetro pequeño (Norma IEEE 802-3).
Una de sus ventajas es su bajo coste inicial, debido a la economía de cableado y a la facilidad de instalación. Además, la flexibilidad de una red en bus es muy buena, dado que son redes muy versátiles que permiten tanto ampliar como suprimir estaciones, existiendo además la posibilidad de conectarla a otra red de área local.
Y en cuanto al flujo de información, éste va a depender tanto del control de acceso al medio, como del número de estaciones que estén conectadas a la red, ya que a mayor número de estaciones la conmutación será más lenta.
Su gran inconveniente es la repercusión de los fallos, ya que, aunque un fallo en una estación no afecta al resto y la red podrá seguir funcionando sin ella, vamos a tener una interrupción momentánea del servicio al desconectar la máquina.
Un fallo en el cable sin embargo, supondrá el paro total de la red o dejar la red dividida en dos, según la concepción del control de la red. Es difícil además averiguar donde se ha producido la avería ya que todas las estaciones están en el mimo cable y ninguna podrá funcionar.
Por último, comentar que este tipo de redes tienen un alto coste para la propiedad tanto en operación como en mantenimiento.
Topología de Anillo:
Es otra de las topologías típicas de las primeras redes informáticas. Se trata de un esquema de interconexión de red, en el cual los nodos están conectados en serie formando un bucle (un anillo), o, por decirlo de otra forma, es un bus cerrado en sus extremos.
Este tipo de red, es original de IBM y en ella la información circula por todas las estaciones, siempre en el mismo sentido, hasta llegar a su destino. Cada estación pasa a su vecina en el anillo un mensaje llamado “ficha” (Token), dándole el derecho de emitir un mensaje o de pasar el turno al siguiente.
Un ejemplo de este tipo de red sería la Token Ring de 4 ó 16 Mbits sobre pares trenzados (Norma IEEE 802-5).
Este sistema tiene la ventaja de un ahorro en las instalaciones de transmisión, por ello se suele instalar en redes muy grandes ya que a diferencia del bus la señal se regenera al pasar de una estación a otra.
Pero tiene el inconveniente de que si un dispositivo no funciona bien, o se avería un tramo de la red, todos los dispositivos de la cadena quedarán inutilizados.
La solución ofrecida por el fabricante es una red de anillos “salteados” o de alta seguridad, que consiste en varios buses cerrados, de tal manera que si se avería un tramo de la red siempre habrá otro camino que nos permita llevar la información a su destino.
Sin embargo esta solución hace que se pierda la gran ventaja de esta red que es el ahorro de cableado.
Topología de estrella:
Exclusiva antiguamente de las redes telefónicas.
Principio de conexión donde cada estación está conectada directamente al nodo central, mediante una línea bidireccional y las estaciones no tienen conexiones directas entre sí. En el nodo central tendremos hoy en día situado un HUB (concentrador), un equipo que permite aceptar un cierto número de flujos de información de varias estaciones a la vez y transmitirlos simultáneamente a las estaciones adecuadas regenerando la señal.
Un ejemplo de este tipo de red sería la Ethernet 10 base T sobre pares trenzados. (Norma IEEE 802-3).
La flexibilidad de la red es buena ya que siempre tendríamos ocasión de ampliar el número de estaciones conectando más concentradores en cascada.
Y en cuanto al flujo de información este va a depender sobre todo de la capacidad del nodo central y de su velocidad, aunque también cuenta el número de estaciones, ya que si muchas de ellas están transmitiendo a la vez podemos llegar a tener una congestión de la información.
Otra de sus ventajas es que si se quiere desconectar un terminal de la red no es necesario suspender el funcionamiento del mismo.
Este tipo de topología, como veremos más adelante, es la que se ha estandarizado, debido sobre todo a su baja repercusión de fallos, ya que una avería en una estación no afecta al resto y si se avería un tramo de la red, siempre se tiene la posibilidad de conectar la estación de trabajo a otra toma informática. Solo caería toda la red si cae el concentrador situado en el nodo central.
El principal inconveniente es el de un mayor costo, tanto por la cantidad de cable utilizado, como por el hecho de necesitar elementos activos (concentradores).
Pero a pesar de su mayor coste inicial tienen un menor costo a largo plazo y el diagnóstico de problemas es muy fácil, debido a que al comunicarse todas con el nodo central es sencillo detectar en que estación está el problema y por tanto cual es el cable que está mal.
Una variación de la topología en estrella, es la topología jerárquica o en árbol. Se trata de una interconexión mediante bus de los nodos centrales (HUB's) de varias redes en estrella, formando a su vez una estrella más grande. Es la típica red de área local que une entre sí a las redes locales de cada departamento de una empresa y facilita el crecimiento de la red. Y es la estructura que se utiliza en la televisión por cable.
Otro tipo de topología es la híbrida que consiste, como su nombre indica, en una mezcla de elementos de topologías diversas. Y finalmente existe una última topología llamada “totalmente conectada”, en la cual todos los nodos tienen enlaces directos con todos los otros nodos. Es la topología más complicada y cara, aunque también la más segura.




Servidores:
Un servidor es una computadora que, formando parte de una red, provee servicios a otras computadoras denominadas clientes.
Algunos servicios habituales son los servicios de archivos, que permiten a los usuarios almacenar y acceder a los archivos de una computadora y los servicios de aplicaciones, que realizan tareas en beneficio directo del usuario final. Este es el significado original del término. Es posible que un ordenador cumpla simultáneamente las funciones de cliente y de servidor.
Tipos de servidores
En la siguiente lista hay algunos tipos comunes de servidores y sus propósitos:

  1. Servidor de impresiones: controla una o más impresoras y acepta trabajos de impresión de otros clientes de la red, poniendo en cola los trabajos de impresión (aunque también puede cambiar la prioridad de las diferentes impresiones), y realizando la mayoría o todas las otras funciones que en un sitio de trabajo se realizaría para lograr una tarea de impresión si la impresora fuera conectada directamente con el puerto de impresora del sitio de trabajo.
  2. Servidor de correo: almacena, envía, recibe, enruta y realiza otras operaciones relacionadas con e-mail para los clientes de la red.
  3. Servidor de fax: almacena, envía, recibe, enruta y realiza otras funciones necesarias para la transmisión, la recepción y la distribución apropiadas de los fax.
  4. Servidor de la telefonía: realiza funciones relacionadas con la telefonía, como es la de contestador automático, realizando las funciones de un sistema interactivo para la respuesta de la voz, almacenando los mensajes de voz, encaminando las llamadas y controlando también la red o Internet; p. ej., la entrada excesiva del IP de la voz (VoIP), etc.
  5. Servidor proxy: realiza un cierto tipo de funciones a nombre de otros clientes en la red para aumentar el funcionamiento de ciertas operaciones (p. ej., prefetching y depositar documentos u otros datos que se soliciten muy frecuentemente). También sirve seguridad; esto es, tiene un Firewall (cortafuegos). Permite administrar el acceso a Internet en una red de computadoras permitiendo o negando el acceso a diferentes sitios web.
  6. Servidor de uso: realiza la parte lógica de la informática o del negocio de un uso del cliente, aceptando las instrucciones para que se realicen las operaciones de un sitio de trabajo y sirviendo los resultados a su vez al sitio de trabajo, mientras que el sitio de trabajo realiza la interfaz operadora o la porción del GUI del proceso (es decir, la lógica de la presentación) que se requiere para trabajar correctamente.
  7. Servidor web: almacena documentos, imágenes, archivos de texto, escrituras, y demás material Web compuesto por datos (conocidos normalmente como contenido), y distribuye este contenido a clientes que la piden en la red.
  8. Impresoras: muchas impresoras son capaces de actuar como parte de una red de ordenadores sin ningún otro dispositivo, tal como un"print server", actuando como intermediario entre la impresora y el dispositivo que está solicitando un trabajo de impresión de ser terminado, Los medios de conectividad de estos dispositivos pueden ser alambricos ó inalámbricos dentro de este último puede ser mediante WiFi, Infrarrojo, Bluetooth algunos de ellos ya integrados a la impresora.
  9. Terminal: muchas redes utilizan este tipo de equipo en lugar de puestos de trabajo para la entrada de datos. En estos sólo se exhiben datos o se introducen. Este tipo de terminales, trabajan unido a un servidor, que es quien realmente procesa los datos y envía pantallas de datos a los terminales.
  10. Otros dispositivos: hay muchos otros tipos de dispositivos que se puedan utilizar para construir una red, muchos de los cuales requieren una comprensión de conceptos más avanzados del establecimiento de una red de la computadora antes de que puedan ser entendidos fácilmente (e.g., los cubos, las rebajadoras, los puentes, los interruptores, los cortafuegos del hardware, etc.). En las redes caseras y móviles, que conectan la electrónica de consumo, los dispositivos, tales como consolas vídeojuegos, están llegando a ser cada vez más comunes.
  11. Servidor DNS: Este tipo de servidores resuelven nombres de dominio sin necesidad de conocer su dirección IP.

HISTORIA DE INTERNET

Historia y evolución de Internet
La historia de Internet se remonta al desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras sea tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.
Las más antiguas versiones de estas ideas aparecieron a finales de los años cincuenta. Implementaciones prácticas de estos conceptos empezaron a finales de los ochenta y a lo largo de los noventa. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los noventa se introdujo la World Wide Web (WWW), que se hizo común.
La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.
Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años cincuenta por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Mónica (California) trabajando en demostración automática de teoremas e inteligencia artificial.
En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.
Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.
La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.
Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete.
TCP/IP en el mundo entero
La primera conexión ARPANET fuera de los Estados Unidos se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP (Protocolo de Control de Transmisión) en 1982, al mismo tiempo que el resto de las ARPANET.
En 1984 America empezó a avanzar hacia un uso más general del TCP/IP, y se convenció al CERNET para que hiciera lo mismo. El CERNET, ya convertido, permaneció aislado del resto de Internet, formando una pequeña Internet interna
En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Senegal, coordinador TCP/IP dentro del CERN; buscando por consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces con tecnología X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción asiática de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa. Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam.
Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1990, las universidades australianas se unieron al empujón hacia los protocolos IP (Protocolo Internet) para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia.
En 1984 Japón continuó conectándose a NSFNet (Red universitaria científica) en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kōbe. Singapur desarrolló
TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992. En el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró.
Email: el correo del futuro
Se suele considerar el correo electrónico como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse.
La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Ray Tomlinson inició el uso del signo @ para separar los nombres del usuario y su dominio, en 1971.
Se desarrollaron protocolos para transmitir el correo electrónico entre grupos de ordenadores centrales a tiempo compartido. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET.
Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniel y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.
Una biblioteca mundial: WWW World Wide Web
A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella.
Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex. Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer.
En 1991, Tim Berners-Lee fue el primero en desarrollar una implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias pero nadie lo implementaría para él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería. Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelados después de HyperCard, fue ViolaWWW.
Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción de Mosaic en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore. De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.
Mosaic fue finalmente suplantado en 1994 por Netscape Navigator de Andreessen, que reemplazó a Mosaic como el navegador web más popular en el mundo. La competencia de Internet Explorer y una variedad de otros navegadores casi lo ha sustituido completamente. Otro acontecimiento importante celebrado el 11 de enero de 1994, fue The Superhighway Summit en la Sala Royce de la UCLA. Esta fue la "primera conferencia pública que agrupó a todos los principales líderes de la industria, el gobierno y académicos en el campo y también comenzó el diálogo nacional sobre la Autopista de la información y sus implicaciones.
Antes de Internet
Antes de la creación de Internet, la única forma de comunicarse digitalmente era por medio del telégrafo El telégrafo se inventó en 1840, emitía señales eléctricas que viajaban por cables conectados entre un origen y un destino. Utilizaba el código Morse para interpretar la información.
ARPANET
En 1958 los EEUU fundaron la Advanced Researchs Projects Agency (ARPA) a través del Ministerio de Defensa. El ARPA estaba formado por unos 200 científicos de alto nivel y tenia un gran presupuesto. El ARPA se centró en crear comunicaciones directas entre ordenadores para poder comunicar las diferentes bases de investigación.
En 1962, el ARPA creó un programa de investigación computacional bajo la dirección de John Licklider, un científico del MIT (Massachusetts Institute of Technology).
En 1967 ya se había hecho suficiente trabajo para que el ARPA publicara un plan para crear una red de ordenadores denominada ARPANET. ARPANET recopilaba las mejores idas de los equipos del MIT, el Natinonal Physics Laboratory (UK) y la Rand Corporation.
La red fue creciendo y en 1971 ARPANET tenia 23 puntos conectados.
De ARPANET a INTERNET
En 1972 ARPANET se presentó en la First International Conference on Computers and Communication en Washington DC. Los científicos de ARPANET demostraron que el sistema era operativo creando una red de 40 puntos conectados en diferentes localizaciones. Esto estimuló la búsqueda en este campo y se crearon otras redes.
Entre 1974 y 1982 se crearon gran cantidad de redes entre las que destacaron:
  • Telenet (1974): Versión comercial de ARPANET.
  • Usenet (1979): Sistema abierto centrado en el e-mail y que aun funciona.
  • Bitnet (1981): Unía las universidades americanas usando sistemas IBM.
  • Eunet (1982): Unía Reino Unido, Escandinavia y Holanda.
En aquél momento el mundo de las redes era un poco caótico, a pesar de que ARPANET seguía siendo el “estándar”. EN 1982, ARPANET adoptó el protocolo TCP/IP y en aquel momento se creó Internet (International Net).
De ARPANET a WWW
A principios de los 80 se comenzaron a desarrollar los ordenadores de forma exponencial. EL crecimiento era tan veloz que se temía que las redes se bloquearan debido al gran número de usuarios y de información transmitida, hecho causado por el fenómeno e-mail. La red siguió creciendo exponencialmente como muestra el gráfico.
WWW
El World Wide Web (WWW) es una red de “sitios” que pueden ser buscados y mostrados con un protocolo llamado HyperText Transfer Protocol (HTTP).
El concepto de WWW fue diseñado por Tim Berners-Lee y algunos científicos del CERN (Conseil Européen pour la Recherche Nucléaire) en Ginebra. Estos científicos estaban muy interesados en poder buscar y mostrar fácilmente documentación a través de Internet. Los científicos del CERN diseñaron un navegador/editor y le pusieron el nombre de World Wide Web. Este programa era gratuito. No es muy conocido actualmente pero muchas comunidades científicas lo comenzaron a usar en su momento.

En 1991 esta tecnología fue presentada al público a pesar de que el crecimiento en su utilización no fue muy espectacular, a finales de 1992 solamente había 50 sitios web en el mundo, y en 1993 había 150.

En 1993 Mark Andreesen, del National Center for SuperComputing Applications (NCSA) de Illinois publicó el Mosaic X, un navegador fácil de instalar y de usar. Supuso una mejora notable en la forma en qué se mostraban los gráficos. Era muy parecido a un navegador de hoy en día.

A partir de la publicación de la tecnología WWW y de los navegadores se comenzó a abrir Internet a un público más amplio: actividades comerciales, páginas personales, etc. Este crecimiento se aceleró con la aparición de nuevos ordenadores más baratos y potentes.


miércoles, 2 de agosto de 2017

SOFTWARE LIBRE Y PROPIETARIO O PRIVATIVO

DEFINICIÓN DE SOFTWARE LIBRE
«Software libre» es el software que respeta la libertad de los usuarios y la comunidad. A grandes rasgos, significa que los usuarios tienen la libertad de ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software. Es decir, el «software libre» es una cuestión de libertad, no de precio. Para entender el concepto, piense en «libre» como en «libre expresión», no como en «barra libre». En inglés, a veces en lugar de «free software» decimos «libre software», empleando ese adjetivo francés o español, derivado de «libertad», para mostrar que no queremos decir que el software es gratuito.
Promovemos estas libertades porque todos merecen tenerlas. Con estas libertades, los usuarios (tanto individualmente como en forma colectiva) controlan el programa y lo que este hace. Cuando los usuarios no controlan el programa, decimos que dicho programa «no es libre», o que es «privativo». Un programa que no es libre controla a los usuarios, y el programador controla el programa, con lo cual el programa resulta ser un instrumento de poder injusto.
LAS CUATRO LIBERTADES ESENCIALES
Un programa es software libre si los usuarios tienen las cuatro libertades esenciales:
La libertad de ejecutar el programa como se desea, con cualquier propósito (libertad 0).
La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para ello.
La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones. El acceso al código fuente es una condición necesaria para ello.
Un programa es software libre si otorga a los usuarios todas estas libertades de manera adecuada. De lo contrario no es libre. Existen diversos esquemas de distribución que no son libres, y si bien podemos distinguirlos en base a cuánto les falta para llegar a ser libres, nosotros los consideramos contrarios a la ética a todos por igual.
«Software libre» no significa que «no es comercial». Un programa libre debe estar disponible para el uso comercial, la programación comercial y la distribución comercial. La programación comercial de software libre ya no es inusual; el software libre comercial es muy importante. Puede haber pagado dinero para obtener copias de software libre, o puede haber obtenido copias sin costo. Pero sin tener en cuenta cómo obtuvo sus copias, siempre tiene la libertad de copiar y modificar el software, incluso de vender copias.
LA LIBERTAD DE EJECUTAR EL PROGRAMA COMO SE DESEE
La libertad de ejecutar el programa significa que cualquier tipo de persona u organización es libre de usarlo en cualquier tipo de sistema de computación, para cualquier tipo de trabajo y finalidad, sin que exista obligación alguna de comunicarlo al programador ni a ninguna otra entidad específica. En esta libertad, lo que importa es el propósito del usuario, no el del programador. Usted como usuario es libre de ejecutar el programa para alcanzar sus propósitos, y si lo distribuye a otra persona, también esa persona será libre de ejecutarlo para lo que necesite; usted no tiene el derecho de imponerle sus propios objetivos a la otra persona.
La libertad de ejecutar el programa como se desee significa que al usuario no se le prohíbe o no se le impide ejecutarlo. Esto no tiene nada que ver con el tipo de funcionalidades que el programa posea, ni con su capacidad técnica de funcionar en un entorno dado, ni con el hecho de que el programa sea o no sea útil con relación a una operación computacional determinada.
LA LIBERTAD DE ESTUDIAR EL CÓDIGO FUENTE Y MODIFICARLO
Para que las libertades 1 y 3 (realizar cambios y publicar las versiones modificadas) tengan sentido, usted debe tener acceso al código fuente del programa. Por consiguiente, el acceso al código fuente es una condición necesaria para el software libre. El «código fuente» ofuscado no es código fuente real y no cuenta como código fuente.
La libertad 1 incluye la libertad de usar su versión modificada en lugar de la original. Si el programa se entrega unido a un producto diseñado para ejecutar versiones modificadas por terceros, pero rechaza ejecutar las suyas —práctica conocida como «tivoización» o «bloqueo», o (según la terminología perversa de quienes lo practican) «arranque seguro»—, la libertad 1 se convierte en una vana simulación más que una realidad práctica. Estos binarios no son software libre, aun cuando se hayan compilado a partir de un código fuente libre.
Si una modificación constituye o no una mejora, es un asunto subjetivo. Si su derecho a modificar un programa se limita, básicamente, a modificaciones que alguna otra persona considera una mejora, el programa no es libre.
LA LIBERTAD DE REDISTRIBUIR COPIAS SI ASÍ LO DESEA: REQUISITOS BÁSICOS
La libertad para distribuir (libertades 2 y 3) significa que usted tiene la libertad para redistribuir copias con o sin modificaciones, ya sea gratuitamente o cobrando una tarifa por la distribución, a cualquiera en cualquier parte. Ser libre de hacer esto significa, entre otras cosas, que no tiene que pedir ni pagar ningún permiso para hacerlo.
También debe tener la libertad de hacer modificaciones y usarlas en privado para su propio trabajo o pasatiempo, sin siquiera mencionar que existen. Si publica sus cambios, no debe estar obligado a notificarlo a nadie en particular, ni de ninguna manera en particular.
La libertad 3 incluye la libertad de publicar sus versiones modificadas como software libre. Una licencia libre también puede autorizar otras formas de publicación; en otras palabras, no tiene que ser una licencia con copyleft. No obstante, una licencia que requiera que las versiones modificadas no sean libres, no se puede considerar libre.
La libertad de redistribuir copias debe incluir las formas binarias o ejecutables del programa, así como el código fuente, tanto para las versiones modificadas como para las que no lo estén. (Distribuir programas en forma de ejecutables es necesario para que los sistemas operativos libres se puedan instalar fácilmente). Resulta aceptable si no existe un modo de producir un formato binario o ejecutable para un programa específico, dado que algunos lenguajes no incorporan esa característica, pero debe tener la libertad de redistribuir dichos formatos si encontrara o programara una forma de hacerlo.
SOFTWARE PROPIETARIO O PRIVATIVO
Software no libre (también llamado software propietario, software privativo, software privado, software con propietario o software de propiedad). Se refiere a cualquier programa informático en el que los usuarios tienen limitadas las posibilidades de usarlo, modificarlo o redistribuirlo (con o sin modificaciones, o cuyo código fuente no está disponible o el acceso a éste se encuentra restringido . Para la Fundación para el Software Libre (FSF) este concepto se aplica a cualquier software que no es libre o que sólo lo es parcialmente (semilibre), sea porque su uso, redistribución o modificación está prohibida, o requiere permiso expreso del titular del software. En el software no libre una persona física o jurídica (compañía, corporación, fundación, etc.) posee los derechos de autor sobre un software negando o no otorgando, al mismo tiempo, los derechos de usar el programa con cualquier propósito; de estudiar cómo funciona el programa y adaptarlo a las propias necesidades (donde el acceso al código fuente es una condición previa); de distribuir copias; o de mejorar el programa y hacer públicas las mejoras (para esto el acceso al código fuente es un requisito previo). De esta manera, un software sigue siendo no libre aún si el código fuente es hecho público, cuando se mantiene la reserva de derechos sobre el uso, modificación o distribución (por ejemplo, la versión comercial de SSH o el programa de licencias shared source de Microsoft).
Software propietario
La expresión software propietario proviene del término en inglés "proprietary software". En la lengua anglosajona, "proprietary" significa «poseído o controlado privadamente» («privately owned and controlled»), que destaca la mantención de la reserva de derechos sobre el uso, modificación o redistribución del software. Inicialmente utilizado, pero con el inconveniente que la acepción proviene de una traducción literal del inglés, no correspondiendo su uso como adjetivo en el español, de manera que puede ser considerado como un barbarismo. Sin embargo, todavía es el término preferido por cerca del 99% de los sitios en Internet.
El término propietario en español resultaría inadecuado, pues significa que «tiene derecho de propiedad sobre una cosa» (fuente DRAE), por lo que no podría calificarse de "propietario" al software, porque éste no tiene propiedad sobre nada (es decir, no es dueño de nada) y, además, no podría serlo (porque es cosa y no persona). Asimismo, la expresión "software propietario" podría ser interpretada como "software sujeto a propiedad" (derechos o titularidad) y su opuesto, el software libre, está sujeto al Derecho de Autor.
Software privativo
La expresión software privativo comenzó a ser utilizada por Richard Stallman, desde el año 2003, en sus conferencias sobre software libre, pues sería más adecuada que "software propietario" para definir en español al software que no es libre ("proprietary software" en inglés). Se realizó este cambio idiomático, básicamente por las siguientes razones: El término "privativo" significa que causa privación o restricción de derechos o libertades, justamente lo que se pretende describir con él (privación a los usuarios de sus libertades en relación al software. Su uso ha ido en aumento constante y actualmente se puede constatar que cerca de 20% de los sitios en Internet lo utilizan.