¿QUÉ ES INTERNET?
http://www.rcp.net.pe/contenidos/recursos/
¿QUÉ ES INTERNET? |
No parece que la gente tenga una idea clara de lo que es Internet. El motivo de
esta duda quizá sea el hecho de que no hay una definición que pueda resumir
Internet; hay varios puntos de vista para entenderlo. Por un lado, Internet
podría ser concebido en relación con sus protocolos comunes, como una colección
de circuitos y rutinas, como un conjunto de recursos compartidos o incluso como
una disposición a intercomunicarse; es decir, como una mega red, una red de
redes de computadores. Sin embargo, otro enfoque, que parece más adecuado, es
pensar en las redes como el medio a través del cual se envía y acumula
información. Desde este punto de vista, Internet puede ser interpretado como la
información y los servicios que circulan por esta red. En pocas palabras, un
sistema distribuido de información, una red global de redes de ordenadores (cada
red está compuesta por docenas de miles de ordenadores).
En conclusión, Internet es tanto un conjunto de comunidades como un conjunto de
tecnologías, y su éxito se puede atribuir a la satisfacción de las necesidades
básicas de la comunidad y a la utilización de ésta de un modo efectivo para
impulsar la infraestructura. Es a la vez una oportunidad de difusión mundial, un
mecanismo de propagación de la información y un medio de colaboración e
interacción entre los individuos y sus ordenadores, independientemente de su
localización geográfica.
El número total de usuarios de la Internet asciende hoy en día a varios
millones, y su crecimiento es exponencial. Este alto nivel de conectividad ha
creado un grado de comunicación, colaboración, acceso a la información e
intercambio de recursos sin precedentes en la Historia de la Humanidad.
¿QUIÉN INVENTÓ INTERNET Y PARA QUÉ LO CREÓ? |
Hacia 1967,
la Guerra Fría estaba en su máximo apogeo y la Agencia de Proyectos de
Investigación Avanzada del Departamento de Defensa de Estados Unidos
DARPA (Defense Advanced
Research Project Agency)
, asignó a la
ARPA (Advanced Research Project Agency)
el desarrollar un sistema de interconexión o red que protegiera los sistemas de
logística e información en todas los centros y ciudades importantes en caso de
caos nuclear. Las redes de comunicación de ese tiempo estaban diseñadas de modo
que cada nodo de la red dependía del nodo anterior. Si se destruía un nodo toda
la red quedaba inutilizada.
Este proyecto constaba de dos objetivos: el Militar y el de Investigaciones. El
objetivo militar era el de mantener en curso toda la información del gobierno
mientras Estados Unidos estuviera en guerra, por ser éste un sistema
descentralizado para resistir ataques, operable al 100% desde cualquier punto de
la red y con capacidades de funcionamiento, aun sobre la pérdida de una parte
física de la red.
El objetivo de investigación debía tener las siguientes funciones: ser un
vehículo de investigación para compartir información en lugar de duplicarla,
minimizar tiempos de desarrollo y motivar la cooperación entre instituciones
localizadas en diferentes sectores. El resultado era una red totalmente robusta.
Internet nace, por lo tanto, a fines de la década de los 60, como un proyecto de
diseñar un sistema de comunicaciones distribuido, en el cual los paquetes de
información pudieran seguir rutas alternas, de manera que si una línea estaba
fuera de servicio, la información podía llegar a su destino utilizando otra
ruta. Esta red se llamaría "catenet" y su propósito sería posibilitar las
comunicaciones entre las autoridades en caso de un ataque nuclear.
La opción más viable y segura para construirla fue el partir de la idea de una
red descentralizada con vías de acceso redundantes, es decir, que no sólo
existiera un único servidor y varias terminales con una sola vía de acceso, sino
que todos los equipos interconectados fueran servidores y todos estuvieran
conectados con los que más cerca se encontraran. Esto, aparte de hacer una
telaraña de conexiones y servidores, garantizaba que al "caerse" o desaparecer
un equipo o una línea de conexión, siguieran funcionando todos los demás.
Prácticamente la red se desharía cuando desapareciera la última conexión entre
dos servidores. Estas ideas o principios son aplicables incluso en nuestros
tiempos.
¿EN QUÉ AÑO FUE INVENTADO INTERNET? |
Ya ese mismo
año, 1967, se tenía el primer prototipo en papel de una pequeña red
descentralizada estructurada conceptualmente como lo entendemos hoy en día. Pero
fue en 1969 cuando empezó a funcionar, a través de cuatro súper computadoras
conectadas, todas ellas en universidades importantes en Estados Unidos:
UCLA,
UCSB,
Stanford
y
University of Utah.
Esta red se llamó
ARPANET,
y nació en 1969 con el objetivo de desarrollar protocolos de comunicación que
permitiesen la comunicación entre las redes conectadas (a través de radio y
satélite, y por otros medios). El ARPANET era una red experimental diseñada para
apoyar la investigación militar; en concreto, investigaban sobre cómo construir
redes que pudiesen resistir desastres parciales (como ataques de misiles) y
seguir funcionando. En este modelo, la comunicación siempre sucedía entre un
ordenador emisor y un receptor. Los ordenadores comunicados -no la red en sí-
tenían la responsabilidad de asegurar que la comunicación se realizara. La
filosofía era que cada ordenador de la red pudiera comunicarse con cualquier
otro. Esta red comunicaba los ordenadores del Pentágono con los de las numerosas
universidades que en aquellos momentos trabajaban para él.
La ARPANET original evolucionó hacia Internet, el cual se basó en la idea de que
habría múltiples redes independientes, de diseño casi arbitrario, empezando por
ARPANET como la red pionera de conmutación de paquetes, pero que pronto
incluiría redes de paquetes por satélite, por radio y otros tipos de red.
Internet, como ahora la conocemos, encierra una idea técnica clave: la de
arquitectura abierta de trabajo en red. Bajo este enfoque, la elección de
cualquier tecnología de red individual no respondería a una arquitectura
específica de red, sino que podría ser seleccionada libremente por un proveedor
e interactuar con las otras redes a través del metanivel de la arquitectura de
Internetworking (trabajo entre redes, y nombre del cual proviene el calificativo
"Internet:). Hasta ese momento, había sólo un método para "federar" redes: era
el tradicional método de conmutación de circuitos, por medio del cual las redes
se interconectaban a este nivel, pasándose bits individuales sincrónicamente a
lo largo de una porción de circuito que unía un par de sedes finales.
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas
y desarrolladas separadamente y cada una puede tener su propia y única interfaz,
que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros
proveedores de Internet. Cada red puede ser diseñada de acuerdo a su entorno
específico y los requerimientos de los usuarios de una determinada red. Por lo
general, no existen restricciones en cuanto a los tipos de red que pueden ser
incorporadas ni tampoco influye su ámbito geográfico, aunque ciertas
consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea
de arquitectura de red abierta fue introducida por
Robert E. Kahn un poco antes de su llegada a la DARPA en 1972.
Este trabajo fue originalmente parte de su programa de paquetería por radio,
pero más tarde se convirtió, por derecho propio, en un programa separado. Desde
entonces, éste fue llamado Internetting. La clave para realizar el trabajo del
sistema de paquetería por radio fue un protocolo, extremo a extremo seguro, que
pudiera mantener la comunicación efectiva frente a los cortes e interferencias
de radio y que pudiera manejar pérdidas intermitentes, como las causadas por el
paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en
desarrollar un protocolo local sólo para la red de paquetería por radio, porque
ello le hubiera evitado tratar con la multitud de sistemas operativos distintos
y continuar usando NCP ( protocolo host a host inicial para ARPANET, llamado
Network Control Protocol
-- Protocolo de Control de Red).
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá
de un destino IMP en ARPANET y de esta manera se requería ciertos cambios en el
NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se
basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de
los paquetes se perdía, el protocolo, y presumiblemente cualquier aplicación
soportada, sufriría una grave interrupción. En este modelo, el NCP no tenía
control de errores en el host porque ARPANET había de ser la única red existente
y era tan fiable que no requería ningún control de errores en la parte de los
hosts.
Así, había que desarrollar una nueva versión del protocolo que pudiera
satisfacer las necesidades de un entorno de red de arquitectura abierta. Así
como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo
protocolo sería más bien un protocolo de comunicaciones.
Estas investigaciones dieron como resultado el protocolo
TCP/IP (Transmission Control
Protocol/Internet Protocol), un sistema de comunicaciones muy sólido y robusto bajo el
cual se integran todas las redes que conforman lo que se conoce actualmente como
Internet. Durante el desarrollo de este protocolo se incrementó notablemente el
número de redes locales de agencias gubernamentales y de universidades que
participaban en el proyecto, dando origen así a la red de redes mas grande del
mundo.
Posteriormente, las funciones militares se separaron y se permitió el acceso a
la red a todo aquel que lo requiriera, sin importar de qué país provenía la
solicitud siempre y cuando fuera para fines académicos o de investigación (y por
supuesto, que pagara sus propios gastos de conexión). Los usuarios pronto
encontraron que la información que había en la red era por demás útil y que si
cada quien aportaba algo se enriquecería aún más el acervo de información
existente.
Pronto esta red se transformó en una oficina postal de alta velocidad, al
convertirse el correo electrónico (e-mail) en el medio de comunicación preferido
en estas universidades, con el objeto de compartir y colaborar en proyectos de
investigación..
Por lo
tanto, Internet fue diseñado con el propósito de comunicar a las autoridades
militares en un Estados Unidos devastado por un ataque nuclear; fue concebido
originalmente como una estación de comando pos-apocalíptica. Sin embargo, ahora
es un medio de expresión, un masivo medio de información, e incluso de
intercambio transcultural.
En 1970, se
instalaron tres nodos adicionales en distintas universidades, conformando así a
ARPANET, con siete nodos conocidos como
IMP (Interface Message Processor),
y trabajando sobre el protocolo NCP (Network Control Protocol) y Host to Host
Protocol.
En 1971 ARPANET se extiende a 23 sitios (hosts), conectando a los centros de
investigación de universidades y de gobierno en los Estados Unidos. En 1973 se
internacionaliza, al conectar dos centros en Inglaterra y en Noruega.
Alrededor de 1975, DARPA declara el proyecto como un éxito y le pasa su
administración al Departamento de Comunicaciones de Defensa de Norteamérica.
A finales de la década de los setentas, ARPANET se estaba acercando a su máximo
soporte, con 256 máquinas conectadas. El protocolo NCP no podía satisfacer ya el
tráfico de la red, y era tangible que se necesitaba un sucesor de este
protocolo.
A comienzos de 1980, los protocolos IP y TCP (que juntos forman
TCP/IP- Transmission Control
Protocol/Internet Protocol
) ya eran una realidad, y para 1983 fueron adoptados por
ARPANET. Esta red se componía de cientos de computadoras pertenecientes a
universidades, centros de investigación militar y algunas compañías, conectadas
entre sí. El servicio más popular entonces era el
e-mail (electronic mail), que permitía una fácil
y rápida comunicación entre diferentes personas conectadas a ARPANET. El sistema
operativo que más se utilizaba era
UNIX,
y en especial una versión de UNIX desarrollada por la
universidad de California en Berkeley llamada BSD UNIX.
Hay que recordar que para ese tiempo las computadoras eran enormes y no eran
accesibles al público en general (mainframes).
Hacia 1981, ARPANET tenía 213 nodos y creciendo a un ritmo de un nodo cada 20
días. En 1982, se logró concebir e implementar el diseño final de un nuevo
protocolo, denominado IP (Internet Protocol). IP fue uno de los cuatro
protocolos que fueron desarrollados, pero todos trabajaban sobre éste. Los otros
protocolos fueron el
User Datagram Protocol (UDP),
el
Transmission Control Protocol (TCP) y el
Internet Control Message
Protocol (ICMP).
La libre diseminación del sistema operativo Unix de ATT dió lugar a
USENET,
basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman
e Ira Fuchs diseñaron
BITNET,
que unía los ordenadores centrales del mundo académico siguiendo el paradigma de
correo electrónico como "postales".
Gran parte de las
conecciones originales de BITNET estaban enlazadas con computadoras mainframes
en centros de cómputo de universidades. La situación pronto cambió, a medida que
estas implementaciones de los protocolos fueron disponibles para otro tipo de
máquinas. Desde el principio, BITNET ha sido multidisciplinario en su
naturaleza, contando con usuarios de todas las áreas académicas. Asimismo, ha
proporcionado a éstos una serie de servicios únicos,
tal como el
LISTSERV
( servicio de listas de distribución de archivos). Hoy en día, BITNET y el resto de redes similares a lo largo de todo el
mundo (
EARN
en Europa, por ejemplo ) poseen varios miles de sites. En años recientes, BITNET
ha establecido un patrón que utiliza los protocolos TCP/IP con las aplicaciones
RSCS que van a través del TCP.
Es así como se empieza a visualizar esta colección de
redes (networks) como una gran red, y en 1983 se interconectaron las tres redes,
ARPANET, CSNET y MILNET, dando origen a la red de redes, INTERNETWORK, término
que luego se abreviaría a INTERNET. La esencia de la operación fueron los
protocolos TCP/IP, los cuales fueron la clave que permitiría comunicarse con
ordenadores de diferentes entornos con UNIX, MS-DOS o MacOS.
Con la excepción de BITNET y USENET, todas las
primeras redes (como ARPANET) se construyeron para un propósito determinado. Es
decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos;
razón de las escasas presiones por hacer estas redes compatibles y, en
consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban
empezando a proponerse tecnologías alternativas en el sector comercial, como XNS
de Xerox, DECNET, y la SNA de
IBM . Sólo restaba que los programas ingleses JANET
(1984) y norteamericano NSFNET (1985) anunciaran, explícitamente, que su
propósito era servir a toda la comunidad de la enseñanza superior sin importar
su disciplina. De hecho, una de las condiciones para que una universidad
norteamericana recibiera financiación de la NSF para conectarse a Internet era
que "la conexión estuviera disponible para todos los usuarios cualificados del
campus".
A mediados
de los ochentas se crea el protocolo TCP/IP (Transfer Control Protocol/Internet
Protocol) que permite tener un lenguaje común para todos los computadores
conectados.
Pronto surgieron otras redes independientes como la CSNET (Computer Science
Nerwork) y la MILNET , y ambas utilizaron los protocolos TCP/IP para
interconectar sus equipos. La primera fue fundada inicialmente por la NSF ( National Science
Foundation ) con el objetivo de conectar computadoras de grupos de investigación
científica en universidades, industrias y gobiernos; mientras que la segunda era
una red militar del departamento de defensa de los Estados Unidos.
¿POR QUÉ SE LLAMA INTERNET? |
En 1983 se interconectaron las redes ARPANET, CSNET y MILNET, lo que dió origen al Proyecto Internetting, nombre que luego se abrevió, siendo desde entonces conocido como Internet. El sistema de protocolos que se desarrolló durante el curso de este esfuerzo de investigación se dió a conocer como el conjunto de protocolos TCP/IP , al desarrollarse previamente los dos primeros: El Protocolo de Control de Transmisión (TCP) y el Protocolo Internet (IP).
¿DESDE CUÁNDO FUNCIONA INTERNET? |
La
Internet fue operativo por primera vez en el año 1983, cuando ARPANET se separó
en dos redes distintas, MILTNET Y CSNET, cuya suma formaba la Internet. A cada
una se le dió un número de red, y se instalaron pasarelas que permitieran el
envío de paquetes de información entre ellas. Cuando la ARPANET se separó para
formar Internet, La Agencia de Comunicaciones de Defensa de los Estados Unidos
(DCA) obligó al uso de
TCP/IP
a todos los usuarios de
ARPANET,
forzándoles a esto al modificar el software de intercambio de paquetes. Estos
usuarios comenzaron a utilizar los Protocolos TCP/IP e interactuar con el
entorno Internet. Esto significaba que más redes y pasarelas se podían añadir a
Internet sin ningún efecto negativo sobre la red existente.
Al mismo tiempo que la Internet comenzaba a existir, redes de área local de
Ethernet (LAN: Local Area Networks) se iban desarrollando. Esta tecnología fue
madurando lentamente, hasta que las estaciones de trabajo de sobremesa fueron
accesibles en 1983. La mayoría de éstas llegaban con el sistema
UNIX,
desarollado por la Universidad de Berkeley, que incluía software de red IP. Esto
creó una nueva necesidad: en lugar de conectarse a un sólo ordenador central por
zona, las organizaciones deseaban conectar la ARPANET a toda su red local. Esto
permitiría a todos los ordenadores de ese LAN acceder a las ventajas de ARPANET.
Simultáneamente, otras organizaciones comenzaron la construcción de sus propias
redes utilizando los mismos Protocolos que ARPANET (IP y sus derivados). Se
volvió evidente que si estas redes podían actuar conjuntamente, los usuarios de
una red podría comunicarse con el de otro, y todo el mundo saldría beneficiado.
Una de las más importantes dentro de estas nuevas redes era la
NSFNET
, a cargo de la Fundación Nacional de Ciencia (NSF-National
Science Foundation
) una agencia del gobierno de los Estados Unidos. A finales de los años 80 creó
cinco centros de supercomputadores. Hasta este momento, los ordenadores más
rápidos sólo estaban disponibles para la investigación de armamento y para unos
pocos investigadoress de grandes corporaciones. Al crear centros de
supercomputación, la NSF hizo que estos recursos estuviesen disponibles para
cualquier investigación escolar. Se crearon sólo cinco centros porque eran
demasiado caros, así que tenían que ser compartidos. Esta situación desencadenó
un problema de comunicaciones: necesitaban un modo de conectar todos sus centros
entre sí, y permitir a los clientes de estos centros el acceder a ellos. En un
principio, la
NSF
intentó utilizar la ARPANET para estas
comunicaciones, pero esta estrategia falló por culpa de la burocracia y
problemas de personal.
En respuesta a todo ello, la NSF decidió construir su propia red, basada en la
tecnología IP de ARPANET. Conectaba a los centros con líneas telefónicas de
56.000 bits por segundo de velocidad (56k bps). Esto apenas permite enviar dos
páginas de texto por segundo; es lento para los estándares actuales, pero era
razonablemente rápido a mediados de los 80. Era obvio, sin embargo, que si
intentaban conectar cada universidad a un centro de supercomputadores se
arruinarían (estas líneas telefónicas se pagan por millas). En su lugar,
decidieron crear redes regionales. En cada zona del país, las escuelas estarían
conectadas a su vecino más cercano. Cada cadena se conectó a un centro de
supercomputadores y los centros se conectaron entre sí. Con esta configuración,
cualquier ordenador podía comunicarse con cualquier otro acelerando la
comunicación a través de sus vecinos.
Esta solución fue exitosa, y como cualquier solución exitosa, llegó un momento
en que dejó de funcionar. Compartir supercomputadores permitía también a los
sitios conectados compartir gran cantidad de información no relacionada con los
centros. Repentinamente, estas escuelas tenían todo un mundo de datos y
colaboraciones a su alcance. El tráfico de la red se incrementó hasta que,
finalmente, las computadoras que controlaban la red y las líneas de teléfono que
les conectaban fueron saturadas.
Hacia 1985 las redes locales en computadoras personales ya estaban madurando y
esto ayudó a completar la idea de Internet. Ya se podía tener redes y
sub-redes,las permitían conectar redes de área ancha (Wide Area Networks) con
redes locales (Local Area Networks).
En 1986 surge
"The Supercomputer Centers
Program" iniciado por
"The National Science
Foundation (NSF)", el propósito de este programa era hacer que los recursos de
súper cómputo pudiesen llegar a una gama más amplia de usuarios . Establecieron
cinco centros de súper cómputo en diferentes áreas de los Estados Unidos y
construyeron una red que los uniera a todos. La NSF basó sus protocolos de
comunicación en los protocolos de Internet y se originó lo que se conoció como
NSFNET,
que fue el corazón de Internet hasta 1995. Para esta entonces los principales
servicios de Internet que se utilizaban eran el e-mail, ftp, telnet y gopher.
En esta misma época,
IBM
introdujo los
computadores personales y comenzó la revolución de la computación personal. Al
mismo tiempo se introdujeron los computadores poderosos de tamaño pequeño listos
para redes (como Sun) que permitieron que muchas compañías ingresaran a Internet
y se comunicaran entre sí.
En 1986 la NSF (National Science Foundation ) inició, en Estados Unidos, el
desarrollo de la red NSFNET para poder facilitar el acceso de toda la comunidad
científica americana a cinco grandes centros de supercomputerización. Esta red
privada se convirtió en la espina dorsal de Internet. Actualmente,
gracias a los 45 Megabites que utiliza por
segundo , el NSFNET continúa el pedido de 12 mil millones de paquetes por mes
entre las redes que conecta.
Ante el carácter abierto de esta red, surgieron muchas conexiones,
principalmente por parte de las universidades. La
NASA (
National Aeronautics and Space Administration ) y el Departamento de Energía de
Estados Unidos contribuyeron en ampliar la capacidad de Internet al crear la
NSINET y la ESNET respactivamente. En Europa, la
NORDUNET,
entre otros, proporsionan conectividad a más de cien mil computadoras en una
amplio número de redes. Las redes comerciales en los Estados Unidos y en Europa
están empezando a ofrecer soporte y acceso a Internet con el propósito de
competir con todos los interesados.
Después de que las funciones militares de la red se separaron en una subred
de Internet, la tarea de coordinar el desarrollo de la red recayó sobre varios
grupos. Uno de ellos, la National Science Foundation, fue el que promovió en
gran medida el uso de la red, ya que se encargo de conectar cinco centros de
supercómputo que podían ser contactados desde cualquier nodo de la red. Eso
funcionó bien al principio, pero pronto fueron superadas las cargas de tráfico
previstas. Ante esta situación, se dió la concesión a
Merit Network Inc., en unión con IBM y MCI, para que administrara y actualizara la
red. La vieja red fue reemplazada por líneas telefónicas más veloces (unas
veinte veces más), con ordenadores más rápidos para controlarla. Se mejoraron
así las líneas de comunicación, dando un servicio mucho más rápido; sin embargo,
este proceso de mejora y ampliación de velocidad y capacidad aún continúa,
debido a la creciente demanda de los servicios que se encuentran en la red.
Ese mismo año,
igualmente,
BITNET
y CSNET formaron la
CREN ( Corporation for Research
and Educational Networking ).
En 1989
un equipo de investigación en Suiza pertenecientes al
CERN
(Centro
Europeo de Investigación de Partículas), desarrolló una serie de protocolos para
transferir hipertexto vía Internet. A principios de 1990, un grupo de personas
pertenecientes al
"National Center for
Supercomputing Applications (NCSA)" mejoraron esos nuevos protocolos y
desarrollaron el NCSA Mosaic, el primer
browser
que hacia el uso de Internet algo fácil. Fue entonces cuando comenzó el boom del
World Wide Web que atrajo a miles de personas hacia Internet.
En 1991, el servicio de CSNET
fue descontinuado, habiendo, sin embargo, cumplido con una importante
labor dentro de los inicios en la provisión de servicios académicos en la red.
Un aspecto esencial de CREN es que sus costos operacionales son completamente
cubiertos por los miembros de su organización.
La gestión de Internet se reforzará al año siguiente, en 1992, con la creación
de la Internet Society (ISOC). Este órgano de opinión internacional sin ánimo
de lucro integrará todas las organizaciones y empresas implicadas en construir
la red. Su objetivo será consensuar las acciones de extensión de Internet.
Aparte
de la NSFnet, la NASA y el Departamento de Energía han contribuido a la
ampliación y afianzamiento de la red en los EE-UU., en forma de la NSInet y la
ESnet, respectivamente. En Europa, apoyos internacionales como la NORDUnet y
otros proporcionan conexiones a decenas de miles de ordenadores en un gran
número de redes. Proveedores comerciales de red en los EE.UU. y Europa comienzan
a ofrecer acceso y mayores apoyos a Internet de un modo competente.
INTERNET, ¿TIENE DUEÑO? |
Una
característica importante de la red Internet es su descentralización, nadie
gobierna Internet, cada red conectada conserva su independencia . Sin embargo,
para que semejante sistema funcione es necesario la existencia de una serie de
procedimientos y mecanismos de coordinación.
La conexión a Internet se realiza por medio del proveedor de servicio de acceso
a Internet. Los proveedores llegan a acuerdos de interconexión entre ellos.
Existen proveedores con su propia infraestructura de red de distintos tamaños y
ámbitos geográficos, y esto implica cierta jerarquía de redes en cuyo vértice
están las redes troncales o los denominaods "backbones", que son:
1) Redes de agencias federales de USA:
NSFnet, NSInet, ESnet, MILnet FIX ("Federal Internet Exchange")
2) Redes de proveedores comerciales:
ALTERnet, PSInet,. CIX ("Comercial Internet Exchange")
3) Redes internacionales:
EUnet, Ebone,... GIX("Global Internet Exchange")
Las grandes redes troncales conectan con las redes regionales o redes académicas
nacionales :
-
AARnet
(Australia)
-
JAnet
(Reino Unido)
-
SWITCH (Suiza)
-
RedIRIS (España)
Estas redes intermedias dan servicio a organizaciones finales (universidades o
grandes empresas).
Debido a la forma de funcionamiento de Internet, se hace necesario el
administrar una serie de recursos comunes distribuidos en todo el mundo. Se ha
creado para esto una especie de servicio público denominado NIC ("Network
Information Center"), el cual se encarga de la asignación de direcciones IP y de
los registros de nombres de dominio (URL) . ˜*s
- A nivel mundial:
InterNIC
- En Europa:
RIPE NCC
Internet Society
El marco institucional que orienta y coordina la Internet es la
Internet Society ( ISOC ), organización voluntaria cuyo propósito es promover el intercambio
de información a través de la tecnología Internet.
Fue creado en
1992, y está formado por miembros voluntarios: individuos, corporaciones,
organizaciones sin fines de lucro y agencias gubernamentales. Su principal
propósito es mantener y extender el desarrollo de Internet, tanto del
intercambio global de información y de las funciones de cooperación dentro del
mismo, como de sus tecnologías y aplicaciones para lograr estos objetivos.
Puede decirse que esta sociedad es como un consejo de ancianos que tiene la
responsabilidad de la administración técnica y dirección de Internet. Pero no es
el único grupo que puede tomar decisiones importantes, existen otros tres grupos
que tienen un rol significativo:
El
Internet Architecture Board
(IAB), encargado de determinar las necesidades técnicas a medio y
largo plazo, y de la toma de decisiones sobre la orientación tecnológica de la
Internet . También aprueba las recomendaciones y estándares de Internet,
recogidos en una serie de documentos
RFCs ("Request For Comments")
disponibles en la red.
Este grupo es responsable, por lo tanto, de cómo se deben asignar
las direcciones y
otros recursos en la red, aunque no son ellos quienes se encargan de hacer estas
asignaciones.
Precisamente para eso existe otra organización llamada
NIC (Network Information
Center), administrada por el departamento de defensa de
los Estados Unidos.
La
IAB ( Internet Activities Board ), creada en 1983 con el propósito de guiar la evolución del
Protocolo
TCP/IP
y de proveer información sobre la manera de investigar en la comunidad de
Internet.
Durante el curso de su existencia, el IAB ha sido reorganizado varias veces.
Actualmente, posee dos componentes principales:
IETF ("Internet Engineering Task Force")
y el
IRTF (Internet Research Task
Force),
auténticos brazos tecnológicos de Internet,
sirven de foros de discusión y trabajo sobre los diversos aspectos técnicos y de
investigación. Su principal cualidad es la de estar abiertos a todo aquel que
tenga algo que aportar y ganas de trabajar. Los usuarios de Internet expresan
sus opiniones sobre cómo se deben de implementar soluciones para problemas
operacionales y cómo deben cooperar las redes para lograrlo. Este organismo es
el responsable de la futura evolución de los protocolos de TCP/IP,
de su
estandarización con la concurrencia del IAB, y de la integración de otros
protocolos para el funcionamiento de Internet ( por ejemplo, los protocolos del
Open Systems Interconnection)
Internet Research Task Force. Continúa ordenando y explorando conceptos
avanzados en
el establecimiento de una red bajo dirección del Internet Activities Board
y con el apoyo de varias agencias de
gobierno.
IESG ("Internet
Engineering Steering Group")
e
IRSG ("Internet Research Steering Group"), coordinan los trabajos del
IETF y del IRTF, respectivamente.
IANA ("Internet Assigned Number Authority"), responsable
último de los diversos recursos asignables de Internet.
EL
CCIRN, Coordinating
Committee for Intercontinental Networks, organismo que
coordina las redes
intercontinentales, y que en 1996 fue organizado por el
FNC, Federal Networking Council
de los Estados Unidos, y el organismo europeo RARO, Reseaux Associees vierte el
la Recherche Europeenne , desempeña un papel muy importante en la coordinación
de los planes para el establecimiento de redes de investigación patrocinadas por
los gobiernos. Los esfuerzos del CCIRN han sido un estímulo para que muchas
corporaciones en todo el mundo se animen a unirse a Internet.
Asimismo, ha sido
creada una secretaría encargada del funcionamiento del día-a-día del Internet
Activities Board y del Internet Engineering Task Force. Los miembros del
IETF ( Internet Engineering
Task Force) se reúnen tres veces al año en pleno junto con sus 50 grupos
de trabajo aproximadamente, además de mantenerse en contacto constantemente.
Otras dos funciones son
críticas para la operación IAB: la publicación de documentos que describen
Internet y mantener un archivo de las necesidades de los usuarios, para la
creación de futuros protocolos. A lo largo del desarrollo de Internet, sus
protocolos y otros aspectos de su funcionamiento han sido archivados en una
serie de documentos llamados Requests for Comment
(RFCs). Estos fueron inicialmente utilizados para documentar los primeros
protocolos, desarrollados por
DARPA,
el
ARPANET, que comenzó en 1969, y que se ha convertido en el principal archivo de
información sobre Internet.
El archivo de identificados es provisto por la
IANA ( Internet Assigned
Numbers Authority ), quien ha delegado parte de su responsabilidad a un Internet Registry
, el cual actúa como una central que almacena información de Internet y que
proporciona alojamiento central a las redes y sistemas autónomos de usuarios. La IR (Internet Registry) se
encarga asimismo de proveer mantenimiento central al
DNS (Domain Name Syatem ), base de datos que apunta a la distribución subsidiada de
servidores de DNS distribuidos a lo largo de Internet. Esta base de datos tiene
como función enlazar a un host/cliente y a el nombre de una network/red, con sus
direcciones en Internet. Esta es la razón por la cual este organismo cumple una
función crítica en la oparatividad a gran escala de los protocolos
TCP/IP,
incluído el servicio de e-mail.
Hay un gran número de
NICs ( Network Information Centers) localizados a lo largo de todo Internet para
servir a sus usuarios con documentación, guía, consejo y asistencia. A medida
que Internet continúa creciendo internacionalmente, la necesidad de una mayor
calidad en las funciones del NIC aumenta. A pesar de que la comunidad inicial de
usuarios de Internet provenía del área de las ciencias de la computación y de la
ingeniería, sus usuarios hoy en día abarcan una amplísima gama de disciplinas en
las ciencias, las artes, los negocios, las letras, y los campos de orden militar
y de administración de gobierno.
¿CÓMO FUNCIONA INTERNET? |
Desde su aparición, Internet
ha funcionado gracias a la colaboración entre distintas partes, llamadas
partidos de cooperación. Ciertas funciones claves han sido críticas para su
operatividad, siendo la más importante entre ellas la especificación de
protocolos de comunicación, por medio de los
cuales operan los componentes del sistema. Estos fueron originalmente
desarrollados en el programa de investigación
DARPA,
pero en los últimos años este trabajo ha abarcado un espectro de influencias
mucho mayor. Actualmente, además de los protocolos
TCP/IP,
existen nuevos, tales como: El conjunto de protocolos
Open System Interconnection
(OSI) ,
promulgados por la
International Standards Organization (ISO) , que tratan de definir de un modo más
amplio cómo ciertas aplicaciones deben ser realizadas: mensajería electrónica,
conexiones online y transferencia de ficheros.
El apoyo "regional" en
Internet es proporcionado por varios consorcios de redes/
networks y el apoyo "local" está a cargo de las instituciones de investigación y
de educación. Gran parte de la ayuda que la comunidad
de Internet recibe proviene del gobierno federal y estatal de los Estados
Unidos, puesto que el Internet era originalmente parte de un programa de
investigación federal-financiado, que posteriormente se ha convertido en una
parte esencial de la infraestructura de la investigación de dicho país.
Tanto lo relacionado con el dominio público como las implementaciones
comerciales de los cien protocolos del TCP/IP estuvieron disponibles a partir de
fines de los ochentas. Es precisamente en esa época cuando
la población de usuarios de Internet y de componentes de la red se amplió
internacionalmente y comenzó a incluir recursos de corte comercial. De hecho,
gran parte del sistema hoy en día se compone de redes privadas que brindan
facilidades a nivel mundial en el plano educacional, de instituciones de
investigación , de negocios y gubernamentales;
la industria, asimismo, ha aportado una considarable
contribución, dando origen a una
nueva etapa en el desarrollo de la red.
Por otro lado, en Europa y en otras partes del mundo, el apoyo proviene de
esfuerzos de cooperatividad internacional y de organizaciones de investigación
locales. Durante el curso de su evolución, particularmente después de 1989, el
sistema de Internet empezó a integrar soportes a otras áreas de los protocolos
en cuanto al establecimiento de la red se refiere. A principios de 1990, los
protocolos de OSI también se pusieron en práctica, y hacia fines del año
siguiente, Internet había crecido hasta incluir alrededor de 5,000 redes en más
de 36 países, sirviendo a un número mayor a de
700,000 computadoras host/ cliente, utilizadas por más de 400,000
personas.
Actualmente el énfasis en el sistema está en el trabajo de integración
multiprotocolar, y en particular , en la integración de los protocolos del OSI
(Open Systems Interconnection ) a su configuración.
Desde finales de los años 80, la red Internet ha
crecido exponencialmente a nivel de número de redes conectadas, como de
ordenadores y de tráfico. Además, cada vez hay más países con conectividad total
a Internet y el tipo de usuario de la red es más diverso. El porcentaje de
usuarios del ámbito comercial y empresarial crece rápidamente.
En 1992 Internet conectaba más de un millón de "hosts" (ordenadores "madre" que
daban acceso a los usuarios finales) y enlazaba más de 10.000 redes de 50
países. En 1994, el número de "hosts" conectados era de tres millones y se
habían llegado a integrar 25.000 redes de 146 países.
Hoy día
se calcula que el número de usuarios de Internet asciende a cien millones de
personas en todo el mundo.
¿EXISTE OTRO TIPO DE INTERNET? |
Sin duda alguna la Internet es la red mas extensa del planeta pero no es la
única red WAN. A continuación presentamos algunas redes de área extensa y su
relación con Internet.
Servicios de
información comercial.
Hay muchos subscriptores de servicios de información tales como Compuserve,
America OnLine,
Prodigy,
Genie,
Delphi, etc. Estos
servicios proveen de acceso a grupos de discusión, noticias de última hora,
reservas de avión e información sobre viajes.
En un principio estos servicios estuvieron bastante cerrados a la idea de
conectarse a Internet, pero la presión actual hizo que muchas de ellas empezaran
a abrirse. Algunos , como Compuserve o America OnLine tomaron la iniciativa y
tienen pasarelas para proveer correo electrónico y acceso a Internet. Delphi
provee correo electrónico Internet y otros servicios de la red como ftp y
Gopher.
Proveedores comerciales de bases de datos especializadas
Entre estos se encuentran:
Servicio Nexis/Lexis (Mead Data Central)
servicio información
Dow Jones
Motores de búsqueda como
Yahoo,
Altavista, etc.
Estos proveedores tiene normalmente sus bases de datos indexadas de manera que
la búsqueda sobre un tema o la búsqueda de una palabra se haga mucho mas rápida.
En general los accesos a estas bases de datos pueden tener tarifas elevadas o
algunas pueden ser totalmente gratuitas.
Bitnet
Bitnet ("Because it's Time Network) es una red internacional que
engloba a una gran cantidad de Universidades y otros centros educativos en USA.
Esta red utiliza el protocolo NJE que esta muy extendido en las comunicaciones
de
mainframes
de IBM. Debido al decrecimiento de las ventas de IBM en los grandes mainframes,
el número de hosts Bitnet está disminuyendo mientras que la Internet crece de
forma espectacular.
Redes Públicas o comerciales de datos
A medida que crece Internet, esta vá englobando a otras redes de conmutación de
paquetes que ya existen en otros paises como son :
Datapac (Canadá)
Datapak (Suecia)
Iberpac (España)
Grandes redes corporativas
Existen grandes empresas que poseen sus propias redes para proveer de
comunicaciones de datos tanto a nivel nacional como internacional. A menudo
estas redes privadas tiene pasarelas a Internet. Por ejemplo,
IBM
tiene una red
interna denominada "VNET" que puede intercambiar correo electrónico con
Internet.
Fidonet
A mediados de los años ochentas, en Estados Unidos y en Europa, los computadores
y modems se hicieron muy asequibles económicamente. Ello permitió a mucha gente
empezar a acceder por su línea telefónica a las denominadas BBSs (Bulletin Board
Systems) que son bancos de información electrónica. Miles de BBSs aparecieron en
USA y en otras partes del planeta.
Fidonet es la red que las engloba a todas ellas permitiendo el
intercambio de correo electrónico entre una BBS y otra. No es una red distinta
de Internet, ya que en muchos casos utiliza los caminos de la propia Internet
para encauzar su información.
UUCP
Esta red tiene sus orígenes en el Sistema Operativo Unix y en el protocolo "Unix to Unix copy". El
principal uso de esta red está en el correo electrónico y en los grupos de
discusión o grupos de noticias. Al igual que Fidonet, permite el acceso vía
teléfono. En la actualidad constituye todavía un mecanismo eficiente y económico
de enlazar ordenadores, aunque no es aconsejable para transacciones seguras.
NREN
La red Nacional de Investigación y Educación en USA no es realmente una red sino
un programa o proyecto con el objetivo de usar las comunicaciones por red
Internet en temas de investigación y educación.
Host
(suele traducirse al castellano por anfitrión).
Como resultado del
crecimiento de Internet, se produjo un cambio de gran importancia para la red y
su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron
nombres a los hosts/anfitriones de forma que resultara innecesario recordar sus
direcciones numéricas. Originalmente había un número muy limitado de máquinas,
por lo que bastaba con una simple tabla con todos los ordenadores y sus
direcciones asociadas.
En Internet se llama host a cualquier ordenador conectado a la red y que dispone
de un número IP y un nombre definido, es decir, cualquier ordenador que puede
enviar o recibir información a otro ordenador.
Otros términos que se utilizan con frecuencia son ordenador local y ordenador
remoto. El primero se refiere por lo general al ordenador que el usuario está
usando en primera instancia, a través del cual se establece una conexión con
otro ordenador al que se solicita un servicio, éste último es el ordenador
remoto.
Los protocolos y servicios de soporte de Internet
La red Internet se
basa en la utilización de los protocolos
TCP/IP
que son las normas que posibilitan la interconexión de ordenadores de diferentes
fabricantes utilizando todo tipo de tecnología (Ethernet, líneas telefónicas
conmutadas o
dedicadas, X25, RDSI…).
Esta familia está formada por más de cien normas o protocolos que no dependen de
ningún fabricante y son estándar. Los dos protocolos más importantes son IP (Internet Protocol)
y
TCP (Transmision Control Protocol).
-El
Protocolo IP (Internet Protocol):
un protocolo de comunicación
básico que dió origen al nombre de la Red. Define una red de conmutación de
paquetes donde la información que se quiere transmitir está fragmentada en
paquetes. Cada paquete se envía a la dirección del ordenador destino y viaja
independientemente del resto. La característica principal de los paquetes IP es
que pueden utilizar cualquier medio y tecnología de transporte. Los equipos que
conectan las diferentes redes y deciden por dónde es mejor enviar un paquete
según el destino son los routers o direccionadores.
-El Protocolo TCP: se encarga de subsanar las deficiencias en la llegada de
los
paquetes de información a su destino, para conseguir un servicio de transporte
fiable. Este mecanismo de funcionamiento requiere que todos los ordenadores
conectados tengan direcciones distintas.
Las direcciones TCP/IP
Una dirección Internet identifica un ordenador. Cada ordenador conectado a la
red tiene una dirección asociada (dirección Internet). Estas direcciones son
números de 32 bits que normalmente se escriben como a.b.c.d donde a,b,c,d son
números menores de 255.
Una parte de la dirección identifica la red entre todas las redes conectadas a
Internet y la que utilizan los routers para encaminar los paquetes. La otra
parte de la dirección identifica el ordenador dentro de los conectados en la
misma red. Las aplicaciones dentro de un ordenador se identifican mediante un
número contenido en la cabecera de los paquetes
TCP/IP,
llamado puerto.
Aunque podamos utilizar estas direcciones Internet numéricas para acceder a los
servicios y ordenadores, normalmente utilizamos nombres que son más fáciles de
recordar. Esto es posible mediante la utilización del servicio de nombres de
Internet o
DNS (Domain Name System)
que traduce los nombres a direcciones numéricas.
El DNS: es una
base de datos distribuida de forma jerárquica por toda la red y que es
consultada por las aplicaciones para traducir los nombres a direcciones
numéricas. Esta jerarquía permite distribuir la responsabilidad de garantizar
que no existen nombres repetidos dentro del mismo nivel o dominio, ya que el
administrador de cada nivel es responsable del registro de nombres dentro de su
nivel y garantiza que éstos sean únicos. Es un servicio indispensable para
nuestro uso en la vida diaria de Internet
Así, permite que una dirección IP, como la 167.114.36.123, sea más fácil de
recordar, a través de los llamados nombres de dominio, como upnet.com.mx. Se
pueden utilizar indistintamente los nombres o las direcciones IP en todas las
aplicaciones de Internet.
Las terminaciones o
dominios principales dentro del sistema de nombres de dominio original del DNS
incluía:
- .com, para empresas comerciales.
- .edu, para universidades y centros educativos.
- .gov, para instituciones de gobierno.
- .mil, para instituciones militares.
- .org, para otro tipo de organizaciones.
- .net, para proveedores e instituciones de soporte para la Red.
En seguida, se tuvieron que agregar más dominios regionalizados por país, el
dominio .pe para Perú, .uk para el Reino Unido, etc.
A cada dominio de éstos se les permite administrar su funcionamiento, siguiendo
básicamente el esquema de los Estados Unidos. Con alguna adecuación, se han
creado los dominios .com.pe, .net.pe, .gob.pe, .edu.pe, y .org.pe, para el caso
específico del Perú. Otros países definen sus propias reglas: en lugar de .com,
utilizan .co, por ejemplo.
El UDP (User Datagram Protocol): es
un protocolo del mismo nivel que el TCP y sirve para transmitir datos entre
aplicaciones que hacen uso de Internet. Algunos sistemas de e-mail y el
protocolo SNMP se basan en este protocolo.
El ICMP (Internet Control Message Protocol):
es un protocolo auxiliar de IP, para detectar y anunciar problemas en la red.
El IGMP (Internet Group Management Protocol):
otro protocolo auxiliar de IP para administrar un grupo de servidores en
la red.
El SNMP (Simple Network Monitoring Protocol): sirve para monitorear a
los servidores, ruteadores y demás aparatos conectados en una red.
El LCP ( Link Control Protocol ):
es el Protocolo de Control de Enlace, y se encarga de
verificar los links ( uniones/enlaces ) y garantizar su correcto funcionamiento.
APLICACIONES Y USOS DE LA RED INTERNET |
Correo
Electrónico:
Es el servicio más
utilizado y más común en las redes. Permite transmitir texto y archivos de una
manera sencilla, como un correo normal, sólo que más rápido que un telegrama
(suponiendo que la red esté funcionando de manera adecuada).
El correo electrónico permite el intercambio rápido de mensajes entre personas o
grupos de personas del sistema de comunicación. Para enviar un mensaje
electrónico sólo basta estar conectado a Internet y tener un programa de correo
electrónico, que se puede conseguir gratuitamente en la red. Igualmente, será
necesario que la persona a quien se envía el mensaje esté conectada y que
conozcamos su dirección electrónica. Como en el correo convencional, todos
tenemos una dirección electrónica personal donde recibir la correspondencia y,
además, también tienen la opción de inscribirse a periódicos y revistas
electrónicas. El correo electrónico también se utiliza para transferir todo tipo
de ficheros que pueden contener bases de datos, gráficos o software comprimido
que es posible enviar de forma sencilla sólo conociendo la dirección del
destinatario.
Cada
usuario de Internet está identificado con una dirección electrónica que consta
de dos partes. Por ejemplo:
fluna@rcp.net.pe.
La primera parte ( flauna ) es el nombre de usuario, que generalmente consta de
tres a veintisiete caracteres y puede estar separado por puntos. A continuación,
se coloca el signo @ (denominado popularmente arroba).
La segunda parte ( rcp.net.pe ) es el nombre de un dominio o de una computadora
en Internet : el nombre del ordenador, el lugar donde se encuentra la
máquina (empresa o institución) y el país.
En algunos casos los sistemas de correo electrónico no soportan los acentos y
las 'ñ's, por lo que es recomendable no utilizarlos.
Actualmente se utiliza el protocolo
SMTP (Simple Mail Transfer
Protocol)
para transmitir E-mail. Este protocolo permite mandar correo electrónico desde y
hacia redes que no están conectadas directamente a Internet. Los sistemas de
correo electrónico abren posibilidades inimaginables con los sistemas
anteriores, entre ellos las listas de correo que permiten el intercambio de
correspondencia entre un grupo cerrado de personas, lo que propicia el debate
ágil sobre los temas de interés del grupo.
A partir
del envío de la información, se transfiere de nodo a nodo de la red, buscando el
camino óptimo para llegar al destino. El tiempo que tarda un mensaje en llegar
varía en función del tráfico de la red y de las conexiones entre los
ordenadores. En unos segundos, un mensaje puede haber viajado de Barcelona a
Berkeley (California).
Cuando nuestro mensaje llega a su destino, queda almacenado en el ordenador
receptor hasta que su usuario se conecte de nuevo. Cuando lo hace, recibe el
aviso que tiene correo y puede leer sus mensajes en el ordenador.
Internet no es la única red accesible mediante correo electrónico; existen otras
conectadas a ésta mediante pasarelas. También podemos enviar mensajes
electrónicos a los usuarios de estas redes.
Ventajas
más importantes respecto al correo postal y al teléfono:
- más velocidad (un mensaje puede llegar a cualquier punto del mundo en horas,
minutos o incluso segundos)
- coste más económico.
- se pueden consultar bases de datos, bibliotecas…
- se pueden transferir ficheros y programas.
- el destinatario puede responder cuando le interesa.
Telnet y
Rlogin :
Este es otro de los primeros servicios de Internet. Sirve para establecer una
sesión en una computadora remota, prácticamente como si estuviera en una red
local.
Inicialmente se utilizaba el protocolo Rlogin; sin embargo, el protocolo Telnet
es más nuevo y más confiable que el anterior.
Telnet es el protocolo o servicio que permite iniciar sesiones de trabajo en
máquinas remotas conectadas a la Internet . El Telnet permite el teletrabajo, ya
que permite, a través de un terminal lejano al puesto de trabajo, acceder a toda
la información , recursos informáticos y aplicaciones de la máquina situada en
el centro de trabajo, tal y como si se estuviera frente a ella . El Telnet
permite también acceder a bancos de datos emulando un terminal que estuviera
directamente enlazado al ordenador central. Obviamente para ingresar al sistema
remoto se debe conocer un nombre de usuario y su respectivo password. En algunos
sistemas hay cuentas para huéspedes o usuarios anónimos con las que se puede
contar con parte de los recursos de la computadora remota. Cada sistema tiene
sus propias aplicaciones que permiten usar ciertos recursos.
El Telnet es también
el servicio mas utilizado para ofrecer acceso a bancos de datos, aunque empieza
a ser sustituido por servicios más avanzados, tales como gopher y WWW. Sin
embargo es muy común todavía en el acceso OPAC a Bibliotecas.
Uno de los protocolos más utiles es el FTP (File Transfer Protocol), Protocolo
de Transferencia de Archivos, que sirve para transmitir archivos de todo tipo a
través de la Red. Generalmente hay servidores llamados de FTP anónimo, de donde
se puede ´´bajar´´ ( transferir a tu computadora ) archivos públicos. En este
tipo de sistemas, el nombre de usuario que se utiliza es anónimo (anonymous) y
la contraseña ( password ) es la dirección del correo electrónico. Hay otros
sistemas en los que es necesario un nombre de usuario y su respectivo password.
Generalmente en todos los sistemas está permido bajar archivos públicos y en
algunos también ´´subir´´ ( transferir archivos de la computadora en la que se
está trabajando a la computadora remota) archivos propios.
Para utilizar el FTP anónimo desde un navegador, únicamente para bajar archivos,
se antepone ftp:// al nombre del servidor al que se quiera conectar.
El WWW
(World Wide Web)
Sin duda, el gran paso para hacer popular el uso de Internet fue la creación del
World Wide Web. Fue desarrollado inicialmente en Suiza
en el
CERN, dirigido por Tim Berners-Lee.
Es un sistema de información que integra todos los
recursos accesibles por Internet en páginas de información y se basa en
otro protocolo, llamado HTTP, que
permite hacer ligas de un documento, publicado en Internet, a otro, haciendo la
búsqueda de información bastante amigable.
El WWW , o la telaraña
de ancho mundial, es un sistema de información multimedia que permite la
creación de documentos hipertexto, de libros electrónicos con aplicaciones como
revistas informativas, documentos de referencia y consulta, formación o soporte
técnico, etc.; es decir, desarrollar aplicaciones interactivas con soporte de
entrada de datos en formularios. Esto permite desarrollar aplicaciones de tipo
interactivo sobre cualquier navegador (browser).
Se le llama Web ( Telaraña ) por las conexiones ( o enlaces ) que se hacen entre
los documentos que existen en ella, así se va formando una telaraña de ligas
entre los documentos publicados en Internet. El WWW permite acceder remotamente
a documentos electrónicos organizados en forma de hipertexto que incorporan
imágenes y sonido.
Tras su aparición surge el desarrollo de los ya mundialmente famosos navegadores
Mosaic ,
Netscape Navigator
e
Internet Explorer
de Microsoft, que permiten usar los diferentes recursos de la red sin
tener que aprender comandos crípticos de
UNIX.
El primer navegador
creado fue el MOSAIC,desarrollado en la NCSA (National Center for Supercomputing Applications),
cuando su expansión y uso comenzó a crecer de forma exponencial. Este fue
desarrollado con el propósito de facilitar la comunicación y adiestramiento de
los colaboradores, científicos y estudiantes dispersos geográficamente por todo
el mundo, para que participan en sus proyectos. Gracias a ello este sistema de información empezó
a difundirse a nivel mundial. En el navegador una palabra, una frase, e
incluso una imagen pueden formar parte de un enlace hipertexto. De esta forma es
posible organizar esquemas de acceso a la información basados en íconos. Los
navegadores permiten integrar sistemas anteriores de distribución de documentos
basados en el intercambio de ficheros (FTP, e-mail) o Gopher, y se han
convertido en una herramienta universal de acceso a Internet. En la actualidad
los navegadores más comunes son el Explorer de Microsoft y el Navigator de
Netscape.
Con el WWW se pretende crear también una interfaz uniforme que homogenice la
búsqueda y el acceso a todos los servicios de información disponibles,
generándole así al usuario la visión de un sistema de información universal.
Este sistema de información distribuido, permite que, desde un interface de
usuario totalmente intuitivo, la información sea buscada y mostrada de forma
fácil sin necesidad de ser, o depender de, un experto informático. Es un sistema
innovador que permite seguir hechos, ideas y texto de un enlace de hypertexto a
otro y a su vez permite escuchar sonidos y ver graficas que lo hacen
incomparable.
Así, sólo
leyendo, buscando y guardando información, el usuario ¨salta¨ (de una forma
transparente para él) entre diferentes documentos que pueden estar almacenados
en máquinas distintas (distribución de la información). Una vez encontrada la
información, si interesa se podría guardar el enlace o guardar el documento y/o
imprimirlo.
Estos objetivos se consiguen mezclando los conceptos de hipertexto/hipermedia,
una búsqueda indexada y una serie de diferentes protocolos de red. La
organización de la información contenida en el conjunto de los servidores WWW,
llamado Web, W3, se realiza mediante documentos, en los cuales existen palabras
resaltadas que pueden apuntar tanto a otras partes del mismo documento, como a
otros documentos. Estos documentos pueden estar físicamente en el mismo
ordenador (enlace local) o en un ordenador remoto (enlace remoto). Otra parte de
la organización del espacio WWW la cubren los índices. Los índices están
implementados como documentos especiales que pueden ser consultados por palabras
clave en vez de ser leídos. La consulta empieza desde una pagina principal (el
documento más general) y a partir de ahí podemos ir moviéndonos por el
entrecruzado.
El
servicio WWW presenta tres ventajas fundamentales:
- se puede combinar texto y gráficos.
- los hiperenlaces permiten cargar páginas de cualquier otro servidor conectado
a Internet, al margen de la ubicación geográfica del mismo.
- la creación de páginas WWW es bastante sencilla mediante el lenguaje HTML.
¿CÓMO TRABAJA EL HIPERTEXTO? |
Una página WWW puede incluir tres tipos de información: texto, gráficos e
hipertexto. Un hipertexto es texto resaltado que el usuario puede activar para
cargar otra página WWW. La diferencia entre un documento hipertexto y un
documento normal consiste en que el hipertexto contiene, además de la
información, una serie de enlaces o conexiones con otros documentos
relacionados, de manera que el lector puede pasar de un tema a otro y volver al
documento original en el momento en que le interese.
Los documentos hipertexto reflejan nuestra forma de trabajar con documentos o
libros . Hojeamos el índice, encontramos elementos que nos interesan, vamos a
las páginas donde se desarrollan, si no era lo que esperábamos encontrar,
volvemos al índice y repetimos el proceso. Un documento hipertexto incluye
enlaces a otros documentos donde se desarrollan con mas detalle, conceptos,
ideas, noticias que se apuntan en el documento.
La información documental se codifica utilizando el estándar de marca de
documentos SGML. Los documentos se pueden producir por medio de procesadores de
texto como Microsoft Word o WordPerfect que se traducen automáticamente a HTML
(Hyper-Text Markup Languaje), lenguaje de marca de Hipertexto.
HTML
HTML,
HyperText Markup Language, es un lenguaje simple utilizado para crear documentos
de hipertexto para WWW. No es un lenguaje de descripción de página como
Postcript; HTML no permite definir de forma estricta la apariencia de una
página, aunque una utilización algo desviada hace que se utilice en ocaciones
como un lenguaje de presentación. Además, la presentación de la página es muy
dependiente del browser (o programa navegador) utilizado: el mismo documento no
produce el mismo resultado en la pantalla si se visualiza con un browser en modo
línea,
Mosaic
o
Netscape,
es decir, HTML se limita a describir la estructura y el contenido de un
documento, y no el formato de la página y su apariencia.
Una de las claves del éxito de WWW, aparte de lo atractivo de su presentación es
sin duda, su organización y coherencia. Todos los documentos WWW comparten un
mismo aspecto y una única interfaz, lo que facilita enormemente su manejo por
parte de cualquier persona. Esto es posible porque el lenguaje HTML, en que
están escritos los documentos, no sólo permite establecer hiperenlaces entre
diferentes documentos, sino que es un "lenguaje de descripción de página"
independiente de la plataforma en que se utilice. Es decir un documento HTML
contiene toda la información necesaria sobre su aspecto y su interacción con el
usuario, y es luego el browser que utilicemos el responsable de asegurar que el
documento tenga un aspecto coherente, independientemente del tipo de estación de
trabajo desde donde estemos efectuando la consulta.
Su simplicidad es tal que no es necesario utilizar un editor particular. Su gran
permisividad exige rigor y atención en la estructura de documentos con el fin de
que éstos se visualicen correctamente al margen del contexto y del browser
utilizado.
Por tanto, HTML es un lenguaje muy sencillo que nos permite preparar documentos
Web insertando en el texto de los mismos una serie de marcas (tags) que
controlan los diferentes aspectos de la presentación y comportamiento de sus
elementos.
Para escribir HTML lo único que se necesita es un editor de texto ASCII, como
EDIT del MS-DOS o el Bloc de notas de Windows. Las marcas o tags que controlan
el comportamiento del documento son fragmentos de texto encerrados entre los
signos "mayor que" y "menor que" (<marca>). Existen diferentes tipos de marcas:
algunas controlan simplemente la presentación del texto del documento; otras, la
forma en que se incluirán en él imágenes; otras, finalmente, los hiperenlaces
con documentos o con diferentes partes del mismo.
Existe una serie de programas que ayudan en la elaboración de documentos HTML,
como HTMLED (shareware) o HTML Assistant, ambos para Windows, pero no son
imprescindibles para escribir el código. Lo que sí es necesario es un programa
cliente WWW, tal como Mosaic, o Netscape, para probar el documento a medida que
se va desarrollando.
Las marcas funcionan muchas veces por parejas, una para indicar el inicio de
enlace o formato, y otra para señalar el final. La marca de inicio consiste en
una letra o una palabra (por ejemplo, estas son marcas de inicio: <B>, <TITLE>).
La marca de final es la misma letra o palabra precedida por la barra inclinada o
"slash" (es decir,</B>, </TITLE>). Existen, no obstante, algunas marcas que no
requieren su pareja de cierre, como <BR> (que fuerza un salto de línea). Es
importante señalar que las marcas, en general pueden estar indistintamente en
mayúsculas o en minúsculas.
SGML
SGML es un acrónimo de Standard Generalized Markup Language o Lenguaje Normal
Generalizado de Marcación. Este es una norma
ISO ( International
Standards Organization) derivada de un anterior GML de
IBM.
SGML permite que la estructura de un documento pueda ser definida en base a la
relación lógica de sus partes. Esta estructura puede ser validada por una
Definición de Tipo de Documento (DTD - Document Type Definition). La norma SGML
define la sintaxis del documento y la sintaxis y semántica de DTD.
Un documento SGML es marcado de modo que dice nada respecto a su representación
en la pantalla o en papel. Un programa de presentación debe unir el documento
con la información de estilo a fin de producir una copia impresa en pantalla o
en papel.
La sintaxis de SGML es suficiente para sus necesidades, pero pocos pueden decir
que es particularmente bella. El lenguaje muestra que se originó en sistemas
donde el texto era el contenido principal y el marcado era la excepción.
¿QUÉ SIGNIFICA NAVEGAR POR INTERNET? |
Navegar por Internet significa estar en un ambiente gráfico que permite al
usuario ubicar, traer información y acceder a los Servicios Internet que se
encuentran distribuidos en Servidores de todo el mundo, a través de documentos
de Hipertexto. Gráficamente podemos ver a esta forma de búsqueda como una "tela
de araña" que nos lleva "navegando" en busca de la información o la dirección
solicitada.
Existen en el mercado una gran cantidad de navegadores por Internet, uno de los
cuales es:
Microsoft Explorer
Es una aplicación que permite moverse en el ambiente de hipertexto y acceder a
distintas "direcciones" de Internet, facilitando la obtención de información y/o
el acceso a los servicios de Internet. Una de las principales ventajas es que
Internet Center SSD distribuye para usted
Microsoft Explorer en castellano, lo cual facilita su uso y permite
consultar eficazmente su ayuda.
Estas direcciones son llamadas URLs (Universal Resource Locator). Un ejemplo de
URL es:
http://www.rcp.net.pe
Navegar con
Dirección (URL) Conocida
Se puede obtener información en forma directa sabiendo la dirección específica
de la página que se desea ver, escribiendo dicha dirección en la ventana
Dirección y luego presionando la tecla Enter.
O bien clickeando en la opción de menú Archivo, luego Abrir:
Aparecerá una nueva ventana donde debe escribir la dirección y hacer click en
Aceptar:
Navegar Sin Dirección (URL) Conocida
Para buscar información de un tema específico cuando no se tiene la dirección,
se pueden utilizar distintos motores de búsqueda. Estos motores de búsqueda
contienen campos en los que se ingresa "el texto clave" que se quiere buscar y
se obtiene como resultado una página que contiene sitios con información del
tipo buscado. Presionando con el mouse sobre los textos resaltados, "saltará" a
la página donde se encuentra lo seleccionado.
Los motores de búsqueda son gratuitos y de uso público. La calidad de la
búsqueda depende de la precisión con la que se haga la misma. Es importante
tener en cuenta: la corrección ortográfica, la elección de palabras clave, el
motor de búsqueda, el tamaño de las bases de datos de dichos buscadores y sus
índices.
Dado que la mayoría de estos buscadores se encuentran en EE.UU., tendrá mayor
éxito si ingresa las palabras claves en inglés.
El GOPHER.
Distribución electrónica de documentos
El Gopher de
Internet (o simplemente Gopher), es un servicio de distribución de documentos e
información que permite a los usuarios explorar, buscar y recuperar información
residente en bancos de datos de forma fácil y potente. El acceso a la
información es configurable por el usuario a través de índice o estructuras de
menú, siendo posible el acceso directo a la información de consulta frecuente.
Es uno de los primeros sistemas de información a nivel mundial que se basa en
menús muy fáciles de utilizar y que permiten ir de una computadora a otra en
Internet de manera transparente (sin notarlo ). De ahí el nombre de Gopher, pues
es un sistema que se interconecta de un lado a otro como si fueran túneles.
Cuando el usuario ojea a través del Gopher, la información aparece como una
serie de menús anidados, donde cada elemento de menú es una frase explicativa
del contenido de la información. El otro método de acceso a través de índice
permite introducir consultas por palabra clave.
En Gopher el acceso es transparente al tipo de información: texto, imágenes,
ficheros, sonido, etc .Este servicio se encarga de gestionar la recuperación y
visualización de la información en sus distintas formas.
Gopher puede
combinar información de distintos servidores de datos de forma transparente al
usuario. Esto lo hace particularmente indicado para aplicaciones de ventanilla
única o múltiples servidores de información interelacionados. En este sistema
hay gran cantidad de información, mayormente técnica. Cada vez más la
información se está pasando al formato de WWW,
ya que en el sistema Gopher sólo se presenta la información en forma de texto, y
los navegadores usados para el WWW permiten usar el protocolo y los servidores
de éste. Basta únicamente con anteponer los caracteres gopher:// al nombre del
servidor.
Servicio de
noticias
Los servicios de
noticias
(Netnews o Usenet News),
también conocidos como tableros de anuncios o foros de debate , son sistemas de
distribución de mensajes de un usuario a muchos . Un mensaje dirigido al grupo
de noticias se distribuye entre todos los usuarios suscritos al grupo, y sirve
de mecanismo para la discusión de todo tipo de temas, desde los más técnicos y
especializados hasta temas de actualidad general.
Una Lista de Correo es una dirección electrónica a la que puede suscribirse
cualquiera que disponga de correo electrónico. Cualquiera de los suscriptores de
la lista puede enviar mensajes a dicha dirección, y cualquiera de los mensajes
que recibe la lista es automáticamente reenviado al resto de los suscriptores de
la misma.
Cualquier materia que se proponga, puede tener respuesta en una lista
electrónica. Existen diferentes tipos de listas, algunas de las cuales sólo
proporcionan información y otras son de libre acceso. Las primeras únicamente
envían
mensajes a los suscriptores, sea una persona o un grupo reducido. A las de libre
acceso, en cambio, todos los suscriptores pueden enviar mails a los miembros de
la lista.
Otros servidores mantienen direcciones de correo de listas de distribución, es
decir, cuando un usuario envía un mensaje a la lista, el servidor envía una
copia a cada uno de los usuarios suscritos a ella.
Para recibir información sobre los servidores de listas basta que conozcamos la
dirección electrónica de uno de ellos, ya que ese nos puede facilitar
información de cómo podemos utilizarlo y la dirección de otros servidores.
Por ejemplo, si se
manda un email a la dirección LISTSERV@listserv.rediris.es, escribiendo help en
el cuerpo del mensaje, recibiremos a los pocos minutos un email con una lista
abreviada de las órdenes que puede entender el
LISTSERV.
Los grupos de noticias o News es el sistema más sencillo para localizar
colectivos y personas relacionadas con nuestros intereses. Son grupos de debate
o trabajo en grupo organizados temáticamente.
Es algo similar a las listas, pero con la diferencia de que los mensajes no son
depositados en el propio buzón de correo, sino en un tablón público disponible
para ser leído en cualquier momento.
Mediante el programa correspondiente, una persona puede expresarse libremente
sobre cuestiones relacionadas con el grupo. También hay grupos donde el
moderador filtra la información.
Existen entre 4000 y 5000 grupos temáticos, algunos de los cuales son mantenidos
por empresas privadas a las cuales se les paga una cuota para recibir esas
noticias.
Hay diferentes
"lectores de News" que nos permiten visualizar los últimos artículos enviados.
Transferencia de ficheros (FTP)
El File Transfer
Protocol es una herramienta que le
permite captar desde su ordenador ficheros procedentes de cualquier usuario o
servidor del mundo. La oferta de los servidores de FTP es muy variada. Vía
Internet, puede incorporar a su PC software gratuito, documentos técnicos,
bibliotecas gráficas, aplicaciones
informáticas….
El término FTP (File Transfer Protocol) se refiere a la aplicación diseñada para
la transferencia de ficheros entre dos ordenadores. Estos ficheros pueden ser
documentos, textos, imágenes, sonidos, programas, etc.
Si bien la transferencia de ficheros entre dos ordenadores es el mismo proceso
en todos los casos, podemos clasificar esta operación en dos tipos, dependiendo
de que sea necesario o no, autorización para entrar en el ordenador remoto:
Usted trabaja en dos ordenadores diferentes conectados a una red. Es decir,
posee una cuenta en ambos y la correspondiente contraseña (password) si fuera
necesaria. En ese caso, utilizaría FTP para transferir ficheros de un ordenador
a otro.
Usted dispone de un ordenador conectado a Internet y desea obtener ficheros de
acceso público que están disponibles en miles de anfitriones (host) de Internet.
En este caso no será necesario la contraseña y esta operación se la conoce como
FTP
anónimo (anonymous FTP).
Anonymous
FTP
FTP (File Transfer Protocol), es el nombre del protocolo que permite a un
usuario de un sistema acceder y transferir a otro sistema de la red. Normalmente
es también el nombre de la aplicación que nos permite realizar FTP. Podemos
realizar FTP, desde una aplicación de FTP o también desde nuestro navegador de
intenet. Puede encontrar clientes FTP en nuestro área shareware.
Si accede a nuestro área shareware podrá encontrar varias aplicaciones Internet,
además de clientes e información de FTP. Para realizar una sesión FTP desde un
cliente FTP, deberá especificar la dirección del host que sea público. Si por
el contrario, intenta acceder a un host público, tendrá que especificar como
login la palabra "anonymous", y como password se suele poner la dirección
Internet. Al iniciar una sesión FTP nos aparecerá una ventana con nuestro árbol
de directorios de la máquina remota a la que nos hemos conectado y movernos
dentro de ellos.
Archie
: es un sistema de información para buscar archivos que estén disponibles en
servidores públicos dentro de Internet. En lugar de buscar en cada sitio de FTP
anónimo de Internet, los servidores archie
contienen índices de los archivos que hay en dichos sitios. Se pueden hacer
búsquedas de información de cualquier tema, simplemente especificando el nombre
de lo que queremos buscar.
Existen tres métodos de utilización de Archie. El primero es la utilización de
un cliente de Archie. Estos clientes no sólo permiten realizar la búsqueda en
una base de datos remota sino que también nos permiten obtener el fichero
directamente, sin necesidad de utilizar una aplicación de FTP externa.
Cliente Archie para Windows:
ftp://oak.oakland.edu/SimTel/win3/winsock/wsarchie.zip
El segundo método es la utilización de un cliente de Archie remoto, accesible
vía Telnet. El principal inconveniente de este método es la imposibilidad de
obtener el fichero directamente (será preciso utilizar una aplicación externa de
FTP
para poder obtenerlo).
Para utilizar Archie a través de Telnet el primer paso a realizar es conectar
con el servidor remoto. La regla general indica que siempre se deberá utilizar
el servidor más próximo a la localización en la que uno se encuentre.
Al realizar la conección por Telnet a un servidor Archie, éste preguntará por el
login. Así, se deberá escribir ‘archie’ y no se solicitará password.
Los comandos más usados dentro de Archie son los siguientes:
-about, nos da información acerca de Archie.
-bye, salir de archie.
-exit, salir de archie.
-list ,lista de todos los sistemas conocidos en la base de datos archie.
-prog, para realizar la búsqueda del tema que queremos (utiliza comodines).
-site, lista los archivos contenidos en un sistema.
El otro método es utilizando un servidor de Web que realiza la búsqueda en una
base de datos Archie. La ventaja de este método consiste, en primer lugar, en el
interface de usuario, ya que se utilizan formularios estándar de Web, que
facilita
notablemente la selección de las diferentes opciones y, lo más importante, una
vez localizada la información se puede descargar el fichero concreto que se
buscaba directamente en nuestro ordenador simplemente realizando un clic con el
Mouse sobre el resultado de la búsqueda.
Listado de servidores Archie:
http://archie.emnet.co.uk/
Veronica
: es un sistema para buscar información por tema en el sistema de Gopher. La
búsqueda se basa en analizar los títulos de los menús del Gopher. Los resultados
se presentan también en forma de menús de Gopher.
WAIS : es otra clase de sistema para buscar información en el gopher,
sólo que en lugar de buscar únicamente en el título de los menús del gopher, se
busca en el cuerpo de los documentos que se encuentran en los servidores que
corren este servicio.
IRC- Chat:
Internet Relay Chat (Charla Interactiva Internet), es el protocolo mundial para
conversaciones simultáneas, que permite comunicarse por escrito entre sí a
través del ordenador y con varias personas en tiempo real. Son pláticas en línea
con gente de todo el mundo, acerca de diferentes temas.
Hay dos sistemas principales, dalnet y undernet, que conectan a una gran
cantidad de servidores alrededor del mundo, a través de los cuales se tiene
acceso a los canales de IRC. Los canales funcionan como una banda civil,
utilizando como analogía a la radio, donde todo mundo opina y se puede comunicar
con todos los demás usuarios. Las nuevas versiones del software para utilizar el
IRC, permiten hacer pláticas privadas con otros usuarios y transmitir y recibir
archivos en línea.
Para poder realizar IRC se deberá instalar en el ordenador del usuario el soft
apropiado, además de disponer de la dirección de un host que acepte
Utilizando IRC uno elige el modo de la comunicación que desea emplear, sin
importar la aplicación (sea charla, voz, tarjeta del mensaje, la comunicación de
los datos, la transferencia de fichero o juegos) ICQ conseguirá su mensaje
entero y en tiempo real. Este sistema utiliza una variedad de aplicaciones
Internet populares y sirve como plataforma universal de la cual uno pueda lanzar
a cualquier par a la aplicación del par (tal como
Microsoft NetMeeting
o
Netscape CoolTalk).
Puede también ser utilizado en un modo del múltiple-utilizador, gracias a lo
cual un determinado grupo puede conducir conferencias apenas ' cuelgue hacia
fuera ' en línea. El programa se ejecuta en el fondo, tomando memoria mínima y
los recursos netos. Mientras que usted trabaja con otras aplicaciones, ICQ le
alerta cuando hay una conexión, permitiendo que uno trabaje de forma eficiente
mientras que paralelamente mantiene una amplia gama de funciones en Internet.
Entre las funciones disponibles se encuentran: charla, mensaje, E-mail, y
transferencia del URL y de fichero.
INTRANET
Se llama así
a las redes tipo Internet pero que son de uso interno, por ejemplo, la red
corporativa de una empresa que utilizara protocolo
TCP/IP
y servicios similares como WWW.
Finger
Finger es un programa que se encuentra en muchos ordenadores del sistema, que
nos facilita la búsqueda de información sobre los usuarios de la red. Para
realizar Finger se deberá conectar con un host del sistema que tenga este
servicio, luego aparecerá una casilla donde introduciremos los datos del usuario
que se quiere ubicar utilizando el siguiente formato:
usuario@host.
Cuando se está utilizando Finger no hace falta introducir el nombre exacto al realizar la búsqueda, pero sí es imprescindible el host del usuario. Si sólo se especifica el nombre del host, Finger nos devolverá una lista con todos los usuarios. El tipo de información que devuelve Finger depende de lo que esté disponible, normalmente incluye el nombre del usuario, el del login, oficina, dirección y teléfono. Desafortunadamente, Finger no está disponible en todos los host, así que no se puede confiar en él para obtener todas las respuestas.
ASPECTOS IMPORTANTES Y POSITIVOS DE INTERNET |
El aspecto más
importante del esfuerzo de creación de una red por la
NSF(National Science
Foundation) es que permitió a cualquiera acceder a la red. Hasta ese
momento, el accesso a Internet sólo era posible para investigadores
informáticos, empleados del gobierno y similares. La
NSF
promovió el acceso educacional universal creando conexiones
en los campus sólo si éstos tenían planeado a su vez extender el uso de Internet
a su alrededor, de tal modo que cualquier estudiante universitario podía ser un
usuario de Internet.
El enorme crecimiento de Internet se debe en parte a que es una red basada en
fondos gubernamentales de cada país que forma parte de Internet lo que
proporciona un servicio prácticamente gratuito. A principios de 1994 comenzó a
darse un crecimiento explosivo de las compañías con propósitos comerciales en
Internet, dando así origen a una nueva etapa en el desarrollo de la red.
La demanda
sigue creciendo. Ahora que la mayoría de facultades y escuelas universitarias
están conectadas, se está intentando que se conecten las escuelas de enseñanza
primaria y secundaria. Los licenciados saben qué ventajas tiene la Intenet, y
tratan de conectar a las empresas en las que trabajan. Por ello, el crecimiento
se ha acelerado hasta niveles insospechados en los últimos años.
Por otro
lado,
la constitución
de redes comienza a incluir aplicaciones comerciales. De hecho, el grueso del
sistema hoy en día está formado por accesos privados en instituciones de
investigación y educativas, empresas y en organizaciones gubernamentales a lo
largo y ancho del planeta.
Aplicaciones de Internet en las empresas
Internet es una extraordinaria herramienta que va a cambiar el curso del mundo
de los negocios. Algunos dicen que: "la empresa que no esté en Internet en cinco
años estará fuera de negocio". Las facilidades que esta herramienta informativa
dentro de esta área son muchas
Creación de nuevos clientes
Encontrar nuevos clientes no es siempre tarea fácil. Incluye cuidadosos análisis
de mercado, marketing, etc... Internet esta constituida por millones de usuarios
cuya formación es múltiple. Se pueden encontrar nuevos clientes de este grupo
gigantesco siempre y cuando se suponga la presencia de uno mismo en la red.
Análisis de productos
Muchos usuarios hacen análisis de productos, comparaciones y estudios técnicos
sobre los mismos por medio de Internet. A menudo, se puede encontrar por lo
menos una persona que esté familiarizada con el producto en el que uno está
interesado. Se puede conseguir los manuales de ese producto ahorrando tiempo y
dinero.
Análisis de mercado
Debido al gran número de personas conectadas a Internet, resulta muy fácil y
ventajoso realizar un análisis de mercado para un nuevo producto o idea de
servicio. Con poco esfuerzo este nuevo producto o idea llega a un gran número de
gente. Una vez hecho este análisis, se puede examinar el nivel de aceptación que
tienen los usuarios que hayan recibido el producto. Este es el motivo por el
cual es cada vez mayor el número de empresas que basan sus investigaciones en
los recursos que encuentran en Internet.
Marketing-publicidad
Son muchas las
razones por las cuales podemos considerar a Internet como una poderosa
herramienta de marketing.
La comercialización y publicidad de un determinado producto o servicio se pueden
hacer a una misma vez al coste de una fracción de lo que serían los métodos
tradicionales.
Otra ventaja es que, mientras la aparición publicitaria en los medios de
difusión, como la televisión, ha quedado limitada a grandes empresas que pueden
cubrir los gastos, sin embargo en Internet cualquier empresa puede aparecer
profesionalmente al igual que lo hacen las grandes empresas como
IBM,
MICROSOFT, etc., y lo que es más sorprendente, por unos precios que incluso
cualquier particular se puede permitir.
Lo mejor de todo es que una empresa o particular puede comercializar sus
productos y servicios a través de Internet y recibir un beneficio instantáneo
por sus esfuerzos de comercialización, cosa que no había sido antes posible,
especialmente a tan bajo costo.
Los expertos han señalado que el éxito o el fracaso de las empresas en el futuro
dependerá de la cantidad de información que el futuro cliente tenga sobre ellos,
y la información, claro está, depende de la publicidad y Internet.
El sentido de la publicidad está cambiando desde que existe Internet, ya que en
internet, la publicidad que uno ve y visita, es la que él mismo está interesado.
Una vez interesado, uno mismo puede, la mayoría de las veces, realizar sus
compras, pedidos, o informar instantáneamente al ofertante de sus intenciones de
compra, con o sin un costo muy bajo.
Consejos y ayuda de expertos
Hay un gran número de excelentes expertos en Internet que hacen presencia de
manera ampliamente conocida y que son fácilmente accesibles. Muchas veces se
puede conseguir un consejo o ayuda de uno de estos expertos de forma gratuita,
antes que tener que pagar una fuerte suma de dinero a servicios de consultoría
de empresas, revistas o periódicos.
Ofertas y demandas de empleo
Internet tiene largas listas de ofertas y demandas de empleo que se actualizan
en los grupos de noticias
(Usenet Groups) constantemente . Estas ofertas y/o demandas
informan de forma actualizada la disponibilidad de cada nueva profesión.
Acceso rápido a la información
Acceder a la información sobre Internet es mucho mas rápido en muchas ocasiones
que las transmisiones vía fax o servicios de mensajería. Se puede acceder a la
información en cualquier país del mundo y hacer conexiones interactivas con
ordenadores remotos situados en cualquier lugar del mundo.
Diseminación de la información a gran escala
Pueden colocarse documentos en ordenadores de Internet y hacerlos
instantáneamente accesibles a millones de usuarios. Los documentos hipertexto
proveen un método efectivo para presentar la información a suscriptores o al
público en general . La creación de documentos Web y el registro de estos
documentos en servidores de hipertexto o Web (hay muchísimos en Internet),
mejora la disponibilidad de los documentos a un gran número de clientes, en
lugar de tener que hacer esta operación por medio de una circular a varios
periódicos.
Comunicaciones rápidas
El correo electrónico se ha consolidado como la forma mas efectiva de
comunicación en Internet y puede ser preferible a las comunicaciones telefónicas
en muchísimos casos:
- no interrumpe su trabajo (el teléfono sí)
- remitente y destinatario trabajan independientemente del horario (el teléfono
no)
- la información se puede reprocesar (en el teléfono las palabras se las lleva
el viento en muchas ocasiones)
Coste efectivo en la transferencia de documentos
La transferencia de documentos a través de Internet tarda poco tiempo, con lo
que se ahorra dinero que de otra manera se tendría que gastar en correo normal o
servicio de mensajería, los cuales pueden sufrir retrasos, perdidas o daños. Si
un documento que se intenta transferir en Internet se pierde o no llega a su
destino, siempre se puede reenviarlo.
Comunicaciones pares
Investigadores y ejecutivos de empresas han apuntado el hecho de que muchas de
sus comunicaciones en Internet están en la misma línea entre sus campos de
investigación y sus campos de trabajo. Las comunicaciones pares permiten a la
gente compartir sus ideas, problemas y soluciones entre ellos mismos. A menudo
la gente encuentra que otros están en su mismo campo profesional y que ya se han
enfrentado a los mismos problemas, y esta dispuesta a ofrecer consejos y
soluciones.
Nuevas oportunidades de negocio
Muchas personas emprendedoras continuamente buscan nuevas e innovadoras ideas
que sean comercialmente viables. Los usuarios de Internet están constantemente
ayudando a dar soluciones a estas ideas no sólo por los motivos de tradición
investigadora de la Internet, sino por la atmósfera de cooperación que envuelve
a esta red.
VENTAJAS QUE PROPORCIONA INTERNET |
Internet ofrece,
entre otras, las siguientes ventajas:
-Permanencia en contacto con amigos, parientes y colegas alrededor del mundo, a
una fracción del costo de una llamada telefónica o correo aéreo.
-Discusión sobre cualquier tema con personas de todos los países, culturas y
utlizando el idioma que desee.
-Exploración global de los millares de bibliotecas y bases de datos de
información existentes.
-Acceso a millares de documentos, diarios, reservas y programas.
-Servicio de Noticias de cualquier tipo y de todo el mundo.
-Juegos en vivo y en tiempo real; permite jugar con docenas de personas
de inmediato.
Conectarse a la
Red hoy toma, en un sentido, algo de aventura. Se necesita la predisposición
para aprender y una capacidad de tomar un hábito profundo cada vez superior en
poco tiempo. Visitar la Red, hoy día, es como viajar al extranjero.
La Red realmente tiene una tradición rica de ayudar a recién llegados. Hasta muy
recientemente, había pocas guías escritas para la gente ordinaria, y la Red
creció en su mayor parte mediante una tradición oral, en la cual los expertos
ayudaban a los recien iniciados.