Archivo de la categoría: Historia Internet

Seguridad Web en la nube

La virtualización de servicios de cómputo ofrece al gerente una nueva perspectiva para organizar y explotar los recursos de procesamiento de datos (PD) como herramientas para mejorar la competitividad de su empresa. El reto es como convertir esta posibilidad tecnológica en un concepto de PD que permita captar y mantener clientes, agilizar su respuesta ante los cambios en su entorno, reducir costos operativos y obtener el máximo provecho de la productividad de su gente. El análisis de oportunidades pasa por comprender el impacto en la empresa y su desempeño.

¿Qué genera, crea o posibilita esta tecnología?

cloud computingEl modelo de McLuhan es un marco por demás adecuado para desentrañar el significado práctico de esta tecnología para cualquier gerente; sin embargo debe acotarse que la respuesta depende del negocio, de su cultura decisional, de su posición en su mercado, de cómo se compara con sus competidores y de cuánto se apoya en las TI.

La virtualización de los espacios de negocios, apunta hacia la reducción de costos por inversiones de capital y costos operativos, derivados directamente de poder agenciar recursos de terceros y aprovechar la consecuente capacidad ociosa en el recurso propio. La reducción de necesidades de espacios físicos para hacer negocios, la disminución del esfuerzo humano para contactar clientes potenciales y el ofrecimiento de una forma de comunicación ágil y prácticamente ubicua a clientes potenciales y la comunicación permanente con los clientes actuales permite mejores y menos costosas posibilidades de captura y mantenimiento de la clientela

La virtualización de procesos básicos de TI, tiene impacto directo en la productividad de las personas y en la capacidad de reacción de la organización ante cambios en su entorno. La accesibilidad permanente a la información y la posibilidad de compartir el momento permite decisiones mejor informadas y oportunas a los cuerpos gerenciales. La potenciación del trabajo en grupo y la facilidad que brindan los espacios virtuales de trabajo permiten agilidad en el desempeño del cuerpo laboral, así como la reducción de tiempos de respuesta ante requerimientos de los clientes. La colaboración es palanca principal en la sinergia de los grupos de trabajo con el consecuente impacto en la productividad. Finalmente, en esta breve relación, está el mejor aprovechamiento de los recursos de TI propios de la empresa, al especializarlos en aspectos que no se desee o no convenga manejarlos a través de la nube.

¿Qué obsolesce?

herramientas nubeEl tema que más preocupa es la obsolescencia de los sistemas de seguridad, al menos de la concepción que la empresa tiene de la salvaguarda de la información antes de la implantación de estas tecnologías.

En primer lugar, y por más que los proveedores pontifiquen sobre la seguridad del espacio virtual, el gerente debe considerar dos aspectos; el primero es que está entregando su información a un tercero y como consecuencia de ello pierde o cede control sobre la salvaguarda de confidencialidad de la misma; lleva inmediatamente a preguntarse sobre cuán segura puede estar la información vital para el desempeño y supervivencia del negocio de intrusiones indeseables. Las medidas tradicionales como las claves de acceso deben ser reevaluadas, deben incorporarse tanto de parte de los usuarios como de los proveedores del servicio mecanismos de segregación por características de usuario y permisología asociada, que actualmente o no existen o son precarios. Debe ofrecerse las facilidades de encriptación de la data alojada en los recursos compartidos y deben incorporarse mecanismos de auditoría de tráfico, de accesos y de uso de la data para detectar y prevenir acciones no autorizadas o fraudulentas.

En segundo lugar debe considerarse un mecanismo de evaluación de riesgos que incorpore por una parte, el uso de estos recursos para tareas de salvamento y recuperación (lo obvio) y por otro lado las consecuencias principalmente legales derivadas del uso no autorizado de la información almacenada en el recurso virtual. Este último asunto es crítico, puesto que la empresa dueña de la información es responsable de su custodia, uso y acceso, y la legislación actual no comprende aún este tipo de circunstancias tecnológicas. Los acuerdos de niveles y condiciones de servicio son aspectos que deben ser bien evaluados por la empresa antes de entregar información crítica bajo esta modalidad de servicio virtual.

Finalmente (esta lista no es exhaustiva) debe evaluarse, desde el punto de vista de la seguridad (al igual que se haya hecho con el operativo) cuál información residirá en la nube, y cuál debe mantenerse bajo control de los medios propios de TI, cuáles procesos habrán de virtualizarse, y de ser procedente cuales irán a la nube privada o híbrida, si es el caso, y cuáles a la nube pública. Los criterios para esta discriminación serán siempre, criticidad de la información, vulnerabilidad ante las amenazas previsibles, impacto de la mitigación y remediación, facilidades de acceso deseables, requeridas y brindadas a los clientes, amén de cualesquiera otras que se deriven de la naturaleza del negocio y de los servicios que se usen.


 

Tarjeta Carneiro

Banner De todo un Poco (1) 600 px

Encriptación y Firmas Electrónicas

wikileaksEn un mundo digital donde la seguridad es una necesidad, donde personajes como Edward Snowden y Julian Assange nos revelan la influencia de la NSA en el mundo y organizaciones como Wikileaks nos muestran la verdad sobre múltiples temas, todos, basados en un mundo digital cada vez mas vigilante, nos encontramos bajo una necesidad de entender el mundo de las encriptaciones, firmas digitales y otros mecanismos de seguridad que nos liberan y aseguran que nuestras acciones en un mundo digital sean privadas.

Para aquellos con deseos de entender estas aéreas de seguridad, el mecanismo de encriptación, en general, es una manera de lograr que, la información que se origina en un punto A logre llegar, sin ser modificada, clonada o alterada en vivo al punto B. En el mundo web por ejemplo existen sistemas de seguridad para las páginas web que transforman, las típicas páginas que conocemos como HTTP a HTTPS. La S en este caso nos indica que es una página “segura” que utiliza tecnologías como SSL o TSL para ofrecernos un nivel de seguridad más alto en donde no pueda existir, o sea más difícil que exista un individuo que pueda capturar nuestra información antes o durante que esta llegue a nuestro destino.

httpsPara conexiones seguras a servidores existen otro tipo de seguridades que se complementan con las ya mencionadas. Estas son llamadas Firmas. Una firma, explicada de una manera simple, es una forma de asegurar que quien realiza una acción es, sin lugar a dudas, la persona que se espera. Un caso de ejemplo, sería un servidor donde existan múltiples personas con acceso al servidor. Como saber que conexión es que persona. Las firmas nos aseguran que, un individuo que se conecte al servidor, sea la persona correcta. Las firmas en estos casos, típicamente utilizadas bajo un protocolo SSH (Secure Shell), y son necesarias para conectarse con ciertos servidores que nos exigen tener una firma para poder utilizarlos.

clave privada publicaSi bien, cualquiera puede crear su propia firma única que los valide en muchos servidores, estas firmas deben estar ya aprobadas en el servidor para poder utilizar este servidor. Esto significa que tu como usuario debes tener una parte de la firma y el servidor otra. La firma del servidor típicamente se llama Firma Pública ya que no se encuentra bajo tu dominio (Físico o Virtual). La firma que tú mantienes contigo, se conoce como Firma Privada. Cuando tú deseas conectarte a múltiples servidores, tu solo les suministras la firma pública y con tu firma privada se asegura que, entre la mitad de tu firma privada y la pública, el servidor sepa que eres tú y solo tú que se está conectando.

Estos dos son algunos de los métodos que son utilizados para aumentar la privacidad de nuestras vidas digitales y la seguridad de nuestras acciones en esta era virtual. La encriptación por un lado nos brinda confiabilidad, integridad de nuestra información y por otro lado las firmas digitales nos brindan autenticación.


Tarjeta Alvarado

 

Banner De todo un Poco (1) 600 px

Otros Protocolos de Aplicaciones

otros protocolosLos protocolos facilitan una estructura de reglas y procesos acordados primeramente que asegura que los servicios que funcionan en un dispositivo en particular puedan enviar y recibir datos desde una variedad de dispositivos de red diferentes, por tanto, facilita la comunicación entre equipos, es el encargado de definir cómo interactúan en una plataforma un cliente y un servidor; tienen la tarea de abrir y cerrar, hacer y satisfacer peticiones de servicio y manejar e informar errores.

El envío de datos en la red puede ser solicitado desde un servidor por un cliente o entre dispositivos que funcionan en una conexión punto a punto, donde la relación cliente/servidor se establece según qué dispositivo es el origen y cuál el destino en ese tiempo. Los mensajes se intercambian entre los servicios de la capa de aplicación en cada dispositivo final según las especificaciones del protocolo para establecer y utilizar estas relaciones.

Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan: DHCP (Dynamic Host Configuration Protocol – Protocolo de configuración dinámica de anfitrión), HTTP: es el Protocolo de Transferencia de Hipertexto ó acceso a páginas web (en inglés HyperText Transfer Protocol), FTP: es el Protocolo de Transferencia de Archivos(en inglés File Transfer Protocol), IRC: es el Chat Basado en Internet(en inglés Internet Relay Chat), SMTP: es el Protocolo de Transferencia de Correo(en inglés Simple Mail Transfer Protocol), SSH (Secure SHell), NNTP: es el Protocolo de Transferencia de Red de Noticias(en inglés Network News Transfer Protocol), NAT (Network Address Translation – Traducción de dirección de red), POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos y TFTP (Trival File Transfer Protocol)

A su vez, hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red: DNS (Domain Name Service – Servicio de nombres de dominio) y SNMP (Simple Network Management Protocol.

Los distintos protocolos sirven, pues, para ofrecer una gran variedad de servicios en Internet. Los más utilizados son: la transferencia de archivos, el correo electrónico y el protocolo de la Web, pero existen otros muchos. Cada uno cuenta con aplicaciones clientes que hacen más fácil su uso.

Para las aplicaciones distribuidas de la forma cliente-servidor, estos protocolos funcionan eficazmente, ya que el software de cliente actúa recíprocamente con el servidor según un protocolo de intercambio de datos estándar. El servidor no tiene que “preocuparse” del hardware o las particularidades de software del ordenador sobre el que el que reside el software del cliente. Por su parte, el software del cliente no tiene que “preocuparse” de cómo solicita la información un tipo particular de servidor, puesto que todos los servidores de un protocolo particular se comportan de la misma forma.


Referencias

Consultados el día 26 de septiembre de 2015 de la WWW:

Tarjeta Ordonez

Banner De todo un Poco (1) 600 px

TCP: Transport Control Protocol (Protocolo de Control de Transporte)

tcpipEl Protocolo de Control de Transmisión (TCP, por sus siglas en inglés: Transmission Control Protocol) es, como su nombre lo indica, un protocolo de envío y recepción de datos a través de Internet el cual se ha posicionado como uno de los métodos más eficaces para la transmisión de información.

El protocolo TCP junto con el IP (Internet Protocol) nació de los trabajos del ARPA (Advanced Research Project Agency) del Departamento de Defensa de los EEUU, durante las décadas de los 60 y 70. A través de las universidades y centros de investigación se trató de construir una red que fuese capaz de resistir las caídas parciales de la misma (por ejemplo en caso de guerra). Así surgió ARPANET, la primera red de intercambio de paquetes.

En 1974 Vint Cerf y Robert Kahn propusieron un nuevo conjunto de protocolos básicos de red que solventaban gran parte de los problemas de los protocolos usados en ARPANET. Así se pusieron los cimientos de los protocolos IP y TCP. En 1980 se comenzó la migración de los aproximadamente 100 servidores que formaban la red ARPANET a los nuevos protocolos. En 1983 el Departamento de Defensa estandarizó el protocolo TCP/IP como protocolo básico de red. Rápidamente otras agencias del gobierno adoptaron el protocolo, lo que obligó a las empresas proveedoras de equipos a implementarlo en sus sistemas operativos y equipos de comunicaciones.

Con este protocolo TCP, las aplicaciones pueden participar de una forma segura en el proceso de comunicación entre dos o más computadoras, esto gracias al sistema de acuse de recibo del protocolo TCP, que no dependen de las capas inferiores. Esto significa que los routers sólo tienen que enviar los datos, sin preocuparse con el monitoreo de los mismos porque esta función la cumple específicamente el protocolo TCP.

Durante una comunicación usando el protocolo TCP, las dos máquinas deben establecer una conexión. La máquina emisora que es la que solicita la conexión, se llama cliente, y la máquina receptora se llama servidor. Por eso es que decimos que estamos en un entorno Cliente-Servidor.

La comunicación que provee el TCP entre las computadoras es bidireccional, eso quiere decir que mientras esté enviando datos, puede recibir otros tantos.

Para posibilitar la comunicación y que funcionen bien todos los controles que la acompañan, los datos se agrupan; es decir, que se agrega un encabezado a los paquetes de datos que permitirán sincronizar las transmisiones y garantizar su recepción.

Otra función del TCP es la capacidad de controlar la velocidad de los datos usando su capacidad para emitir mensajes de tamaño variable. Estos mensajes se llaman segmentos.

Este protocolo se ha posicionado como uno de los pilares del funcionamiento del Internet hoy en día y la base fundamental de la arquitectura cliente – servidor.


Referencias

Consultado el día 29 de septiembre de 2015 de la WWW:

Tarjeta Finol

Banner De todo un Poco (1) 600 px

Internet y los Paquetes

Paquete en Internet

paquete 1En internet, la información se divide en paquetes para ser enviados de forma más eficiente, en el mismo, se indica la ruta a seguir a lo largo de la red hasta su destino. Existen límites para el tamaño de los paquetes y en los casos que se exceda, se divide el paquete en otros más pequeños (tramas). Este procedimiento se realiza con el fin de que los paquetes formen una cola y se transmitan lo más rápido posible.

Protocolo de comunicaciones

paquete 2Los protocolos de comunicación definen las normativas y criterios para que los diversos componentes de un sistema de interconexión puedan comunicarse, es decir, que los dispositivos puedan intercambiar datos, además de especificar la sintaxis y semántica  de la comunicación.

Familia de Protocolos de Internet

paquete 3Es un conjunto de protocolos para redes de computadoras en los que se basa Internet para la transmisión de datos. Comúnmente, se le denomina conjunto de protocolos TCP/IP, haciendo referencia a los dos protocolos más importantes que la componen, que fueron de los primeros en definirse, y que son los dos más utilizados de la familia:

  • TCP (Protocolo de Control de Transmisión) Transmission Control Protocol
  • IP (Protocolo de Internet) Internet Protocol

TCP/IP

Es un conjunto de protocolos nacidos en la década de los 70’s. Éstos se originan debido a la necesidad de conocer la transmisión de paquetes de información entre redes con características y tipos muy diferentes.

IP es un protocolo que no está orientado a la conexión y permite que las conexiones inalámbricas tengan siempre movilidad, pero a su vez no es totalmente seguro en la transmisión de los datos. Por su parte, el protocolo TCP le brinda la confiabilidad que requiere el protocolo IP.

¿Para qué sirven los protocolos de internet?

paquete 4Considerando que en Internet se encuentran conectados ordenadores de clases muy diferentes y con hardware y software incompatibles en muchos casos, además de todos los medios y formas posibles de conexión. Estos protocolos se encargan de que la comunicación entre todos sea posible. Hablando específicamente de TCP/IP cabe destacar que es compatible con cualquier sistema operativo y con cualquier tipo de hardware.

El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. Por su parte, el modelo OSI tiene una proximidad teórica y representa una etapa importante en la evolución de las redes de computadoras, éste es más sencillo de entender, pero TCP/IP es el protocolo común utilizado por todos los ordenadores conectados a Internet.


Referencias

Consultado el día 23 de septiembre de 2015 de la WWW:

Tarjeta Vincze

Banner De todo un Poco (1) 600 px

Comercialización y Crecimiento

wwwCuando se piensa en Internet y en su evolución en los últimos años las personas imaginan descomunales, hay que recordar que Internet fue creada en 1960 y puesta a disposición del público en los años 90. Por ende, es fácil inferir que el crecimiento de esta red fue en aumento a medida que pasaron los años y, en estos último, ha alcanzado cifras impresionantes.  Ahora bien, la cantidad de usuarios de Internet en esta última década aumentó un 444,8%. Actualmente, en todo el mundo hay más de mil novecientos sesenta millones de usuarios (la cifra exacta es 1.966.514.816 usuarios) y en Europa hay más de cuatrocientos setenta y cinco millones (475.069.448 exactamente). Un 24,2% de los habitantes del mundo conectados a la red pertenecen a Europa. En nuestro continente, el crecimiento de usuarios de Internet en esta década es de un 352%, pero en África la cifra es mucho más impresionante: hubo un aumento en los usuarios de Internet de un 2357,3%. En Latinoamérica, la población con Internet aumentó un 1032,8%, y en Medio Oriente, un 1825,3%.

Es importante señalar, que Internet se expande constantemente. Nuevos sitios Web son desarrollados y se añaden mas y mas elementos de hardware (físicos) para dar soporte a los nuevos Sitios Web que son realizados por motivos diversos, desde comerciales hasta simplemente una expresión o entretenimiento de sus creadores. Asimismo, aumenta la amplia cantidad de usuarios activos, que día a día se suman Internet por resultarles algo interesante o útil.

El crecimiento de internet se debe a que en primer lugar mucha información. Desde textos a imágenes y videos, e incluso material multimedia informativo. Desde catálogos hasta comentarios de usuarios que adquirieron un producto en cuestión, y comentan como les fue. Asimismo Internet es como una gran Biblioteca moderna, al alcance de la mano, con multitud de temas disponibles. También, hay muchos Sitios Web dedicados a la información y las noticias actuales. Luego, además brinda: Capacidad de comunicación entre usuarios; entretenimientos y juegos online, incluyendo archivos multimedia tales como música y videos. Internet es una herramienta de trabajo y un medio donde hacer negocios. Se pueden hacer algunos trámites, compras, y utilizar distintos servicios. El amplio surtido de contenidos hace que Internet sea interesante y útil para un público muy extenso. Por ello crece.

Por otra parte, la comercialización de Internet no solo implicó el desarrollo de servicios de redes competitivos y privados sino también el desarrollo de productos comerciales para implementar la tecnología de Internet. A principios de los 80, docenas de vendedores estaban incorporando TCP/IP en sus productos porque veían compradores para este tipo de enfoque a la interconexión. Desafortunadamente, no tenían información real sobre cómo se suponía que funcionaba la tecnología y cómo planeaban los clientes usar este enfoque a la interconexión.

En 1985, reconociendo esta falta de disponibilidad de información y entrenamiento apropiado, Dan Lynch en cooperación con la IAB organizó un taller de tres días para que todos los vendedores aprendiesen cómo TCP/IP funcionaba y lo que aún no podía hacer bien. Los conferenciantes provenían casi todos de la comunidad de investigación de DARPA, gente que había desarrollado esos protocolos y los usaba diariamente. Unos 250 vendedores fueron a escuchar a 50 inventores y experimentadores. Los resultados fueron sorpresas en ambas partes: los vendedores se sorprendieron al darse cuenta que los inventores eran tan abiertos sobre el funcionamiento de las cosas (y sobre lo que aún no funcionaba) y a los inventores les gustó escuchar sobre nuevos problemas que no habían considerado, pero que los vendedores de campo estaban descubriendo. De modo que se formó una discusión a dos vías que ha durado más de una década.

Después de dos años de conferencias, tutoriales, reuniones de diseño y talleres, se organizó un evento especial y se invitó a los vendedores cuyos productos ejecutaban TCP/IP bien para que se juntasen en una sala durante tres días para demostrar lo bien que trabajaban todos juntos con Internet. En septiembre de 1988 nació la primera feria de muestras Interop. 50 compañías consiguieron asistir. 5.000 ingenieros de organizaciones de clientes potenciales fueron a ver si funcionaba como prometían. Funcionaba. ¿Por qué? Porque los vendedores trabajaron duro para asegurarse que todos los productos interoperaban con el resto de los productos; incluso con los productos de los competidores. La feria de muestras Interop ha crecido muchísimo desde entonces y hoy en día se celebra en 7 ubicaciones en todo el mundo durante el año, y más de 250.000 personas vienen a aprender sobre qué productos funcionan con que productos sin problemas, aprender más sobre los últimos productos y discutir la tecnología más puntera.

En paralelo con los esfuerzos de comercialización que se resaltaban en las actividades de Interop, los vendedores empezaron a asistir a las reuniones de la IETF, que se celebraban 3 o 4 veces al año para discutir nuevas ideas sobre ampliaciones del conjunto de protocolos TCP/IP. Empezando con unos pocos cientos de asistentes, mayoritariamente de académicos y pagados por el gobierno, hoy en día, estas reuniones tienen una asistencia de miles de personas, mayoritariamente de la comunidad de vendedores y pagados por los asistentes mismo. Este grupo autoseleccionado evoluciona el conjunto TCP/IP de manera cooperativa. La razón por la que es tan útil es porque está compuesto por todos los interesados: investigadores, usuarios finales y vendedores.

Conforme se hizo más grande la red, quedó claro que los procedimientos usados para gestionar la red no escalarían. La configuración manual de las tablas fue sustituida por algoritmos automáticos distribuidos, y se diseñaron mejores herramientas para aislar fallos. En 1987, quedó claro que era necesario un protocolo que permitiese gestionar los elementos de una red, como los enrutadores, remotamente de manera uniforme. Se propusieron varios protocolos con este objetivo, incluyendo el Protocolo Simple de Administración de Red o SNMP (diseñado, como sugiere su nombre, para ser sencillo, y derivado de una propuesta anterior llamada SGMP), HEMS (un diseño más complejo de la comunidad investigadora) y CMIP (de la comunidad OSI). Tras una serie de reuniones se decidió retirar HEMS como candidato para la estandarización, para ayudar a resolver la contención, pero que se continuaría trabajando en SNMP y CMIP, con la idea que SNMP sería una solución a corto plazo y CMIP una solución a largo plazo. El mercado podía elegir el que le pareciese más adecuado. Hoy en día se usa SNMP casi universalmente para la gestión basada en la red.

En los últimos años, hemos visto una nueva fase de comercialización. Originalmente, los esfuerzos de comercialización comprendían principalmente vendedores ofreciendo los productos básicos de redes y los proveedores de servicios ofreciendo los servicios de conectividad y básicos de Internet. Internet casi se ha convertido en un servicio de mercancías, y se ha prestado mucha atención en esta infraestructura global de información para soportar otros servicios comerciales. Esto se ha visto acelerado increíblemente por la adopción generalizada y rápida de navegadores y la tecnología World Wide Web, lo que permite a los usuarios tener un fácil acceso a la información enlazada de todo el mundo. Hay productos disponibles para facilitar el aprovisionamiento de esta información y muchos de los últimos desarrollos en la tecnología se han centrado en proveer servicios de información cada vez más sofisticados por encima de los servicios de comunicación básicos de datos de Internet.


Referencias

Consultado el día 23 de septiembre de 2015 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

La Web se hace más fácil de usar

berners leeSe considera que La Web se desarrolló entre marzo de 1989 y diciembre de 1990.por el inglés Tim Berners-Lee, con el apoyo de belga Robert Cailliau. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas web), y en los últimos años ha abogado por su visión de una Web semántica.

Es importante comenzar a recordar que un conjunto de páginas web dedicado a algún tema particular o propósito específico, con forma a un sitio web el cual puede contener hiperenlaces a cualquier otro sitio web, de manera que la distinción entre sitios individuales, se está haciendo referencia a un sitio web, mediante las página web que se visualiza por primera vez, estos pueden ser visualizados o accedidos desde cualquier dispositivos con conexión a Internet, como computadoras personales, portátiles, PDAs, y teléfonos móviles.

Actualmente los sitios Web o la Web, son la fuente de información una de las más consultada en el mundo, superando a los medios llamados tradicionales como la televisión, la radio y los diarios, según Cohen (2012). Se puede decir, como nos ha transformado la comunicación el uso de la Web, ofreciendo demasiadas ventajas en nuestra vida, los estudios y nuestras profesiones en diferentes aplicaciones en las organizaciones, son innumerables los beneficios el uso de la tecnologías web implican el uso de recursos multimedia, compartir fotos, sonidos, videos entre otras, la utilización de atajos para realizar operaciones frecuentes, para chatear con los contactos guardados en el ordenador y poder gestionar sus peticiones.

En tal sentido, todos los servicios o elementos de su propiedad que se incorporaran en el Sitio Web, incluyendo, a título meramente enunciativo y no limitativo: aquellos elementos que conforman la apariencia visual, imagen gráfica y otros estímulos sensoriales de las páginas web que conforman el Sitio Web; Una buena arquitectura de navegación; los códigos fuente con que esta creada las páginas web; todos los componentes que la conforman como: fotografías, grabaciones, programas de ordenador, base de datos, tecnología, logotipos y signos distintivos.

web 2Es de suma importancia, resaltar que en la actualidad existen muchas herramientas que facilitan el uso de internet permitiendo las formas de interacción mediante la navegación, herramientas de búsqueda, los cuales se puede decir que son detalles que pueden hacer de la experiencia de uso de Internet algo mucho más genial de lo que ya es, desde la navegación el uso de sus navegadores y sus funciones, los atajos de teclado. Siendo de mayor provecho su uso, ahora bien es imposible saberlo todo o ser un experto en poco tiempo, siempre hay nuevas cosas que descubrir y avances vertiginosos.

Así mismo, se hacen obvio, ciertas desventajas como la participación masiva de todas las personas que quieran entrar en ellas. Esto puede conducir a la pérdida de privacidad en la producción de ideas y en la restricción de una posible violación de derechos de autor.

En este sentido, es fundamental adecuarse a la construcción de una buena estructura de la lógica de la información para dar fortaleza a la operatividad del sitio web sin mayor esfuerzo. Con adecuados contenidos de forma lógica, utilizando iconos y botones claros, un lenguaje simple. El lograr un proceso de navegación, sin interferencias. Permitiendo dar confianza al usuario, ofreciéndole la posibilidad de modificar cualquier paso de un proceso.

Igualmente, es de suma importancia el conocer que existen reglas para el buen uso de la Web, como lo es el derecho intelectual de los contenidos, servicios, elementos que en él se integran, ya que los mismos, son propiedad y leyes del los tratados y convenios internacionales. Aplicados a todos los contenidos de información, actividades, productos y servicios diversos, propios o de terceros que se ofrecen a través del Sitio web.

Se puede resumir que si el sitio web está bien diseñado y al mismo tiempo bien programado, hace que este sitio web puede contener un fácil uso o que sea realmente sencillo su manejo y efectividad al acceso de la información correcta.


Referencias

Berners-Lee, Tim; y otros (15 de diciembre de 2004). Architecture of the World Wide Web, Volume One. Versión 2004-12-15. W3C.

Tarjeta Valera

Banner De todo un Poco (1) 600 px

El primer Internet: NFSNet

Hace unos meses mi sobrina Victoria, 17 años, se encontró en casa de mamá una máquina de escribir portátil que compré siendo cadete de la Academia Militar de Venezuela, 1972. Su juvenil curiosidad la hizo ponerse en acción, cargó papel y a escribir. Todo bien hasta que cometió un error y no encontró la tecla DEL. Tuvimos que hablarle del Tippex. A su corta edad, Victoria no conoce un mundo sin computadoras, teléfonos inteligentes, tabletas, laptops y afines. Su vida sin Internet no tendría sentido. Sin Whatsapp mucho menos. Yo, con mis 60 años, pienso igual.

En 1972, los correos electrónicos existían, pero mi mundo no incluía las computadoras y no era por desconocimiento. En esos años aprendí BASIC y FORTRAN. Las computadoras ya eran una realidad desde principios de los años 40. Simplemente estaban al alcance de pocos y ocupaban enormes espacios físicos. Su empleo estaba reducido al manejo de procesos muy bien definidos y aislados. Interconectarse masivamente era un tema de ir de reuniones, telégrafo, teléfono, radio o televisión. Compartir entre varios usuarios las bondades de un computador era impensable. Sin embargo, ya algunos visionarios tenían tiempo trabajando en esa dirección. Como en otros casos, las necesidades de seguridad y defensa impulsarían desarrollos valiosos para la humanidad. La tecnología y la guerra siempre han ido de la mano.

El 4 de octubre de 1957 el mundo fue sorprendido por los soviéticos al enviar al espacio el primer satélite artificial, el Sputnik I. El vehículo usado fue un misil balístico intercontinental (ICBM) probado en mayo de ese año. Este acontecimiento marcaría el inicio de la Era Espacial e impactaría tremendamente la tensa calma de la Guerra Fría. Para el momento, los EE.UU. y la URSS estaban enganchados en una carrera armamentística. Los primeros perfeccionaban su capacidad nuclear y los segundos la buscaban. El Sputnik I daría la señal de partida a otras dos carreras, la espacial y consecuentemente la carrera tecnológica. Ninguno quería llegar de segundo.

La recién adquirida capacidad misilística soviética y la colocación de misiles en Cuba incremento la posibilidad de un ataque a los EE.UU. y disparó numerosas de alarmas, una de ellas en el área de las comunicaciones. El sistema existente tenía una arquitectura centralizada; requería descentralización para evitar que la destrucción de un nodo interrumpiera las comunicaciones por completo.

arpaEl Congreso aprobó miles de millones de dólares para apoyar los sistemas de educación, investigación y desarrollo. Para el momento, el intercambio de conocimiento era ineficiente y muchas investigaciones se conducían en paralelo. Para minimizar esto el Departamento de Defensa de los EE.UU. creó, bajo su tutela, ARPAnet, la primera red científica y académica del mundo. El embrión de lo que hoy conocemos como Internet. Tres aspectos fundamentales completarían la visión: la necesidad de una red para manejar asuntos militares de seguridad y defensa, una red para manejar lo comercial y otra dedicada a lo científico tecnológico. Estas redes ya existían, el trabajo era relacionarlas.

La Fundación Nacional de Ciencias (NSF) fue creada en 1950 por el Congreso norteamericano para promover el progreso en las ciencias, mejorar la salud, prosperidad y bienestar y asegurar la defensa nacional de los estadounidenses. Para 1985, la NSF había aportado fondos para el establecimiento de supercomputadoras en diferentes universidades y laboratorios privados a lo largo y ancho de los EE.UU., pero aunque alguna interconexión existía a niveles locales y regionales, los grandes centros aún no se comunicaban entre sí. La Universidad de Michigan, una de las principales universidades del país, quería tener su supercomputador y preparó una propuesta que no fue aceptada por la NSF. Sin embargo, su destino era otro: utilizar su experiencia en interconectar computadores regionales para crear el backbone de lo que sería la primera red de alta velocidad. Con la aprobación presupuestaria de la NSF, aportes de software y hardware de IBM, las capacidades de MCI, fondos del estado de Michigan y liderados por la experimentada Merit Network se crea un consorcio que permitió el nacimiento de NSFnet. Juntos interconectaron a los grandes centros de investigación y comunidades educativas y sentaron las bases para el desarrollo de lo que hoy conocemos como el internet comercial.

nsfnetEl flujo de información fue tal que pasado un año fue necesario un upgrade de NSFnet. ARPAnet se separó de NSFnet in 1990 y a partir de ese momento todo quedo en manos del sector comercial. En 1995 NSFnet dejaría de existir y, una vez más, lo que comenzó motivado por razones de seguridad y defensa quedó para uso comercial y en pro de la humanidad.

Cuando el Editor de esta revista me pidió que escribiera sobre el tema me manifestó que era de mi época. Bueno, resulta que todo lo que les narre anteriormente sucedía en mis narices, sin saberlo, mientras estudiaba Ingeniería Nuclear en la Universidad de Michigan. Curiosamente, mi primer encuentro del III Tipo con una microcomputadora tendría lugar en esa época: una Zinclair ZX8. En mi caso no encontraba la palanca que tenia la máquina de escribir para pasar a la línea siguiente, ya no hacía falta. Infinidad de cosas han sucedido desde ese entonces, pero muchos de los protocolos diseñados para NSFnet aún son usados. Ya desde mi mano puedo acceder a cualquier contenido disponible en la red en cualquier parte del mundo. ¿Qué le esperará a mi nieto Henry Alexander?


Tarjeta Contreras

Banner De todo un Poco (1) 600 px

El inicio de la Computación Electrónica

eniacUno de los primeros dispositivos mecánicos para contar fue el ábaco, cuyo origen se remonta a las antiguas civilizaciones griega y romana, luego En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18. 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo. A partir de estos descubrimientos en pro de los avances numéricos y tecnológicos, empiezan a suceder una serie de eventos y que llevarían a la sociedad a grandes avances tecnológicos y científicos que hoy podemos constatar.

Desde la invención de las primeras computadoras que se registra desde la primera generación, hasta la actualidad han venido sucediendo cambios muy notables en el tamaño, rapidez y características de las mismas. El ganador del premio Nobel de Física de 1965, Richard Feynman, fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología que guarda relación con la quinta generación de las computadoras, las cuales tienen como característica principal la reducción de tamaño y velocidad. en un discurso que dio en el Caltech (Instituto Tecnológico de California) el 29 de diciembre de 1959, titulado “En el fondo hay espacio de sobra” (There’s Plenty of Room at the Bottom), en el que describe la posibilidad de la síntesis vía la manipulación directa de los átomos. El término “nanotecnología” fue usado por primera vez por Norio Taniguchi en el año 1974, aunque esto no es ampliamente conocido.

nanotecnologiaAsí, el surgimiento de la nanotecnología como un campo en la década de 1980 ocurrió por la convergencia del trabajo teórico y público de Drexler, quien desarrolló y popularizó un marco conceptual para la nanotecnología, y los avances experimentales de alta visibilidad que atrajeron atención adicional a amplia escala a los prospectos del control atómico de la materia. Por ejemplo, la invención del microscopio de efecto túnel en el año 1981 proporcionó una visualización sin precedentes de los átomos y enlaces individuales, y fue usado exitosamente para manipular átomos individuales en el año 1989.

Así mismo, la nanotecnología comprende el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala, y la explotación de fenómenos y propiedades de la materia a nanoescala. Cuando se manipula la materia a escala tan minúscula, presenta fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas. Entre los principales beneficios que ofrece este avance de la computación electrónica tenemos los siguientes:

  • La información y la comunicación son herramientas útiles, pero en muchos casos ni siquiera existen. Con la nanotecnología, los ordenadores serían extremadamente baratos.
  • Muchos sitios todavía carecen de energía eléctrica. Pero la construcción eficiente y barata de estructuras ligeras y fuertes, equipos eléctricos y aparatos para almacenar la energía permitirían el uso de energía termal solar como fuente primaria y abundante de energía.
  • El desgaste medioambiental es un serio problema en todo el mundo. Nuevos productos tecnológicos permitirían que las personas viviesen con un impacto medioambiental mucho menor.
  • Muchas zonas del mundo no pueden montar de forma rápida una infraestructura de fabricación a nivel de los países más desarrollados. La fabricación molecular puede ser auto-contenida y limpia: una sola caja o una sola maleta podría contener todo lo necesario para llevar a cabo la revolución industrial a nivel de pueblo.
  • La nanotecnológica molecular podría fabricar equipos baratos y avanzados para la investigación médica y la sanidad, haciendo mucho mayor la disponibilidad de medicinas más avanzadas.
  • La masificación del internet en lugares rurales y remotos para que alcance la mayor población posible, además de que hace posible la fabricación de microcomputadoras y microcomponentes que pueden ser utilizados en cualquier lugar del mundo proporcionando comodidad y rapidez en las actividades cotidianas.

Referencias

Consultado el día 21 de septiembre de 2015 de la WWW:

Tarjeta Pernia

Artículo de Portada: Historia del Internet

internetCuando se presentó el momento de pensar en el tema para el inicio del tercer año de publicación de la revista, recibí la excelente recomendación de Daniel Zambrano, quien fue columnista de esta revista durante 24 números consecutivos (Simplemente Tecnología) de basar el tema de portada acerca del Internet y de su evolución histórica.

Y decidimos usar el esquema de un curso en línea ofrecido por la Universidad de Michigan como esquema editorial para esta edición de la revista “De Tecnología y Otras Cosas”.

Salimos un poco del esquema de presentar siete (7) productos o artículos de portada, ya que la ocasión así lo amerita, y presentamos el esquema a seguir en esta edición:

  1. El inicio de la Computación Electrónica
  2. El primer Internet: NFSNet
  3. La Web se hace más fácil de usar
  4. Comercialización y Crecimiento
  5. Internet y los Paquetes
  6. TCP: Transport Control Protocol (Protocolo de Control de Transporte)
  7. Protocolos de Aplicaciones
  8. Encriptación y Firmas Electrónicas
  9. Seguridad Web

Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen funcionen como una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como Arpanet, entre tres universidades en California, en Utah, en los Estados Unidos. El género de la palabra Internet es ambiguo según el Diccionario de la lengua española de la Real Academia Española.

Tomado de Wikipedia: https://es.wikipedia.org/wiki/Internet

Tarjeta Castellanos

Banner De todo un Poco (1) 600 px

Año 03 Número 01: Evolución Histórica de Internet

Portada DTyOC 03 01

Editorial

¿Qué mejor para engalanar el inicio del tercer año de publicación de esta revista, que colocar Internet en su portada? Internet es una de las tecnologías que más ha evolucionado en los últimos años y que nos ha ayudado a construir esa Aldea Global de McLuhan.

En las columnas habituales: “A mí también me gusta el chocolate” con el “Mousse de Chocolate y Café Moka”, se podrá conocer acerca de “Chappie” en “el Séptimo Arte”, “2do Mandamiento” en “Enfoque de Sistemas”, acerca de “Restaurantes en lugares extraños” en “Mundo en Diapositivas”, “Seymour Cray” en “Quién es Quién”, “Ataques de Fuerza Bruta en “Seguridad Informática”, “acerca de los alimentos” en el “Rincón de las TICs”, “la Supervivencia de los más Ineptos” con “Que Kurdas”, acerca de “Los Negocios en el futuro: nuevas especies en la selva comercial” en la columna “Y otras cosas”, “Ventanas” en “Merodeando desde la Arquitectura”, “Vía Saludable” acerca del “sexo oral”.

Coordinación General y Edición: Luis Castellanos H.

Tabla de Contenidos: Tema de Portada

Tabla de Contenidos: Secciones Fijas

DTyOC en ISSUU (2)(Haga click en el banner para leer la Revista)

Banner De todo un Poco (1) 600 px

A %d blogueros les gusta esto: