Archivo del sitio

LMS

lms

Un sistema de gestión de aprendizaje o LMS es un software instalado en un servidor web que se emplea para administrar, distribuir y controlar las actividades de formación no presencial (o aprendizaje electrónico) de una institución u organización. Permitiendo un trabajo de forma asíncrona entre los participantes.

Ahora bien, si se está utilizando algún LMS es importante saber lo que la industria E-Learning trae para este año 2016, seguramente ya muchos están sorprendidos con el constante crecimiento e innovación de los proceso de formación virtual impartidos desde las Plataformas LMS en la actualidad, Sistemas que integran Gamificación, aprendizaje social, Móvil Learning es lo más destacado de la lista de tendencias E-Learning.

Gamificacion: Implementar juegos hace el aprendizaje más divertido. Impulsa a los usuarios a ganar un juego dentro del proceso de aprendizaje. Los  juegos ayudan al estudiante a retener mejor el conocimiento. Usa puntos, insignias y premios para aumentar la participación de los alumnos y mejorar su experiencia de aprendizaje.

Móvil Learning: Proporciona un fácil acceso en cualquier lugar y tiempo y desde cualquier móvil. Es compatible con tecnologías móviles como realidad aumentada, Códigos QR y GPS. Con el uso de pantallas más pequeñas, los contenidos deben ser en proporciones menores para facilitar la retención. Los procesos de seguimiento son 3 veces más probables en usuarios que usan dispositivos móviles en su proceso de formación.

Aprendizaje social: El aprendizaje es un proceso cognitivo que tiene lugar en un contexto social. El aprendizaje se basa en la observación de  patrones de comportamiento y las consecuencias de la conducta. Las organizaciones verán el valor del aprendizaje social, a través de: Conectar usuarios desvinculados, ayuda a los usuarios a organizarse, facilita la colaboración, aplica al amplio mundo de  las necesidades de formación y funciona mejor para equipos geográficamente separados.

Vídeo interactivo: Esta formación permite un aprendizaje efectivo y en menor tiempo. El aprendizaje se torna animado, divertido y atractivo. Sesiones de entrenamiento más dinámicos. Los usuarios experimentan un mejor poder de retención al ver vídeos. Reducción de costos de formación, por la disminución del uso de recursos presenciales. Los vídeos interactivos ayudan a los estudiantes a retener la información un 90% más, la formación basada en video puede acortar el tiempo de incorporación, aumentar la retención de los conocimientos y enriquecer la educación continua de los usuarios.

Sistema basado en la nube: Tiene medidas de encriptación avanzada para mayor seguridad de los datos sensibles. Reducción en el costo de la formación en línea, formación de fácil acceso para los empleados. La formación en línea se convierte en algo fácil de escalar.

Aprendizaje mixto: La combinación perfecta de módulos que se va a usar para lograr los objetivos deseados. Ofrece una opción de escalabilidad y alcance más amplio. Los usuarios obtienen un acceso flexible a los recursos de formación. El aprendizaje puede ser impartido a través de múltiples canales de aprendizaje

Microlearning: El Micro aprendizaje  ayuda a llevar el proceso en pasos más pequeños. Los usuarios destinan periodos de tiempo cortos para el aprendizaje. El uso de medios de comunicación hace que el aprendizaje sea interesante y divertido. Asimilar la información se convierte en algo fácil. Los cursos de microaprendizaje son normalmente de 10 minutos de duración.

LMS en DTyOC, Número 09 Año 01


Referencias

Consultados el día 25 de Agosto de 2016 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Anuncios

Redes de Sensores

redes de sensores

Una red de captores sin hilos o red de sensores, refiere a una tecnología específica que ayuda a la creación de ciudades inteligentes. Su objetivo es el de crear una red de nodos con captores inteligentes, con los que se puedan medir parámetros diversos que ayuden a una mejor gestión del territorio. Todos los datos recogidos son transmitidos en tiempo real, e inmediatamente disponibles tanto para autoridades como para ciudadanos de a pie.

Es así por ejemplo, que los ciudadanos podrán supervisar el nivel de contaminación del aire presente en una determinada calle o en un determinado lugar, o incluso recibir una alerta cuando por ejemplo el nivel de radiaciones sobrepase un determinado límite. Este tipo de sistemas también ofrecerán a las autoridades la posibilidad de optimizar la irrigación de plazas y parques, o la iluminación de ciertas zonas de la ciudad. Además, con este tipo de tecnología, las fugas de agua potable o filtraciones de aguas servidas podrán ser más fácilmente detectadas, así como también se podrán elaborar planos con el estado de la contaminación sonora sobre el territorio. Igualmente, los contenedores de basura también podrán ser más inteligentes, al tener captores que desencadenen una alarma cuando se encuentren cercanos al límite de su capacidad.

Asimismo, el tráfico en las calles y en las autorutas también podrá ser monitoreado, a efectos por ejemplo de modificar en forma dinámica, la iluminación de las zonas concernidas. Además, el tráfico local en búsqueda de estacionamiento podrá ser reducido, gracias a sistemas que detecten los lugares libres más próximos, y gracias también a la aplicación dinámica de peaje de estacionamiento que se ajustaría por demanda; de esta forma, los automovilistas serían informados en tiempo real, y rápidamente podrían estacionar, economizando así tiempo, carburante, y ocupación de vías de circulación. Las consecuencias del uso de sistemas como los que acaban de señalarse, además de los aspectos económicos, tendrán la ventaja de reducir la contaminación y los embotellamientos, lo que traerá aparejado un mejoramiento de la calidad de vida.

Es importante señalar que los sensores son el principio de una ciudad inteligente y la base de su funcionamiento, los sensores inteligentes están repartidos por toda la ciudad y proporcionan la información a las administraciones públicas o directamente al ciudadano a través de Wifi y a tiempo real. Por lo tanto, en una Smart City cualquier ciudadano puede consultar el dato que necesite a través de algún dispositivo electrónico. Así, toda la ciudad puede estar conectada, y sus ciudadanos también.

Tipos de sensores

Los más básicos e importantes, y que proporcionan la información más relevante, son:

  • Sensores de aparcamiento: El sensor de aparcamiento facilita la fluidez del tráfico dentro de las ciudades, evitando así que los automóviles estén dando vueltas en busca de aparcamiento.
  • Sensores de tráfico: Los sensores de tráfico facilitan a los ciudadanos y a las administraciones públicas saber el estado del tráfico, posibles incidencias o incluso elegir la ruta de menos congestión.
  • Sensores de humedad: Los sensores de humedad contribuyen a la gestión de parques y jardines públicos, haciendo que el regado sea cuando realmente la tierra lo necesite y durante el tiempo justo.
  • Sensores de luz: El sensor de luz es uno de los más comunes. Este detecta si se hace de noche o amanece o si la ciudad necesita más luz o menos a causa del tiempo. El sensor de luz hace que el alumbrado público se encienda o apague, en función de la luz natural que hay en la ciudad.
  • Sensores de paso: Los sensores de paso hacen que el alumbrado público permanezca con una luz tenue hasta que detecte el paso de algún vehículo o peatón.
  • Sensores meteorológicos y de contaminación: Con los sensores meteorológicos se puede conseguir la monitorización y seguimiento de los parámetros ambientales. Se puede medir, por ejemplo, la calidad del aire, la calidad del agua, el ruido, la humedad, la temperatura y la concentración de polen.
  • Sensor indicador de capacidad de container: Estos sensores avisan cuando los contenedores están llenos y ayudan a planificar la retirada de los residuos según las necesidades reales de la ciudad.
  • Sensor de control de consumo de agua y electricidad: Estos sensores tienen la función de concienciar al ciudadano sobre el consumo que hace de estos dos recursos.
  • Sensores de la red eléctrica: Estos sensores son los que hacen que la red eléctrica de la Smart City sea inteligente, avisando de las incidencias que se producen a lo largo de la red eléctrica, de los datos de consumo o de la meteorología (estos últimos para prevenir posibles incidencias a causa de algún fenómeno climático).

Referencias

Consultado el día 15 de julio de 2016 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Polymail

polymail iconoCuando hablamos de clientes de correo electrónico parece que está todo inventado. Outlook ya es bastante sofisticado, Gmail mejora cada vez más, con versiones como Inbox, que siguen creciendo en paralelo pero aún se sigue trabajando en esta categoría, y Polymail lo demuestra.

 Se trata de un proyecto, que pretende renovar el mundo del email. Un programa que muestra el correo con funcionalidades que se han visto en plugins y clientes externos, como la posibilidad de cancelar un envío, ver quién ha leído los mensajes enviados, consultar los datos de contacto de cualquier persona que envíe un email, poner un correo a dormir, para que solo lo veamos dentro de un tiempo específico, enviar emails para más tarde, entre otras cosas.

 Polymail permite gestionar emails de varias fuentes (incluyendo gmail), y ofrece cada función sin perder de vista los detalles. En los envíos a un grupo, por ejemplo, se puede ver qué miembros han leído el contenido y en qué momento, algo que no se ve fácilmente en el mercado.

 Siguiendo el mismo orden de ideas, Polymail es una aplicación que quiere ir más allá de ser un cliente de correos añadiendo funciones de trabajo propias de trabajo en equipo y de herramientas como Slack, en las que la rapidez y la coordinación son clave. La programación de envío de correos y anulación de suscripciones con un click.

 Para empezar, los correos que se envían desde Polymail pueden ser seguidos, de forma que el que los ha enviado sabrá cuántas veces se ha leído y qué destinatarios lo han hecho concretamente. Una barra lateral con toda la información de cada contacto aparecerá a la derecha de los correos que se abran, mostrando su información social y datos útiles como los últimos mensajes que se han enviado.

 Es por ello que Polymail quiere demostrar que los correos todavía pueden ser protagonistas de un entorno de trabajo productivo.

 El cliente es compatible con cuentas de Google, iCloud, Outlook, Yahoo y cualquier cuenta de correo IMAP. Y por supuesto, no falta la clasificación de los correos en los clásicos “más tarde”, “mañana” o “este fin de semana”. Es más, se puede incluso programar un correo para que se envíe más tarde en vez de en ese preciso momento. Tampoco faltan las opciones de deshacer el envío de un correo o de desuscribirse con un sólo click de cualquier boletín que moleste demasiado.

polymail banner


Referencias

Consultados el día 21 de Junio de 2016 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

XP – Kent Beck

xp-2La programación extrema o extreme programming (XP) es un enfoque de la ingeniería de software formulado por Kent Beck, autor del primer libro sobre la materia, Extreme Programming Explained: Embrace Change (1999). Es el más destacado de los procesos ágiles de desarrollo de software. Al igual que éstos, la programación extrema se diferencia de las metodologías tradicionales principalmente en que pone más énfasis en la adaptabilidad que en la previsibilidad. Los defensores de XP consideran que los cambios de requisitos sobre la marcha son un aspecto natural, inevitable e incluso deseable del desarrollo de proyectos. Creen que ser capaz de adaptarse a los cambios de requisitos en cualquier punto de la vida del proyecto es una aproximación mejor y más realista que intentar definir todos los requisitos al comienzo del proyecto e invertir esfuerzos después en controlar los cambios en los requisitos.

¿Qué es?

Siguiendo el mismo orden de ideas,  es una metodología ágil centrada en potenciar las relaciones interpersonales como clave para el éxito en desarrollo de software, promoviendo el trabajo en equipo, preocupándose por el aprendizaje de los desarrolladores, y propiciando un buen clima de trabajo. XP se basa en realimentación continua entre el cliente y el equipo de desarrollo, comunicación fluida entre todos los participantes, simplicidad en las soluciones implementadas y coraje para enfrentar los cambios, XP se define como especialmente adecuada para proyectos con requisitos imprecisos y muy cambiantes, y donde existe un alto riesgo técnico.

Objetivos

Por otra parte los objetivos son:

  • Establecer las mejores prácticas de Ingeniería de Software en los desarrollo de proyectos.
  • Mejorar la productividad de los proyectos.
  • Garantizar la Calidad del Software desarrollando, haciendo que este supere las expectativas del cliente,

Contexto

En relación al contexto está:

  • cliente bien definido;
  • los requisitos pueden (y van a) cambiar;
  • grupo pequeño y muy integrado (máximo 12 personas);
  • equipo con formación elevada y capacidad de aprender.

Características

Sus principales características son: Metodología basada en prueba y error; fundamentada en valores y prácticas; expresada en forma de 12 prácticas; conjunto completo; se soportan unas a otras; son conocidas desde hace tiempo. La novedad es juntarlas. Ahora bien el estilo XP está orientado hacia quien produce y usa el software, reduce el costo del cambio en todas las etapas del ciclo de vida del sistema, Combina las que han demostrado ser las mejores prácticas para desarrollar software, y las lleva al extremo.

Prácticas básicas

Es importante destacar que para que todo esto funcione, la programación extrema se basa en doce “prácticas básicas” que deben seguirse al pie de la letra:

  1. Equipo completo: Forman parte del equipo todas las personas que tienen algo que ver con el proyecto, incluido el cliente y el responsable del proyecto.
  2. Planificación: Se hacen las historias de usuario y se planifica en qué orden se van a hacer y las mini-versiones. La planificación se revisa continuamente.
  3. Test del cliente: El cliente, con la ayuda de los desarrolladores, propone sus propias pruebas para validar las mini-versiones.
  4. Versiones pequeñas: Las mini-versiones deben ser lo suficientemente pequeñas como para poder hacer una cada pocas semanas. Deben ser versiones que ofrezcan algo útil al usuario final y no trozos de código que no pueda ver funcionando.
  5. Diseño simple: Hacer siempre lo mínimo imprescindible de la forma más sencilla posible. Mantener siempre sencillo el código.
  6. Pareja de programadores: Los programadores trabajan por parejas (dos delante del mismo ordenador) y se intercambian las parejas con frecuencia (un cambio diario).
  7. Desarrollo guiado por las pruebas automáticas: Se deben realizar programas de prueba automática y deben ejecutarse con mucha frecuencia. Cuantas más pruebas se hagan, mejor.
  8. Integración continua: Deben tenerse siempre un ejecutable del proyecto que funcione y en cuanto se tenga una nueva pequeña funcionalidad, debe recompilarse y probarse. Es un error mantener una versión congelada dos meses mientras se hacen mejoras y luego integrarlas todas de golpe. Cuando falle algo, no se sabe qué es lo que falla de todo lo que hemos metido.
  9. El código es de todos: Cualquiera puede y debe tocar y conocer cualquier parte del código. Para eso se hacen las pruebas automáticas.
  10. Normas de codificación: Debe haber un estilo común de codificación (no importa cual), de forma que parezca que ha sido realizado por una única persona.
  11. Metáforas: Hay que buscar unas frases o nombres que definan cómo funcionan las distintas partes del programa, de forma que sólo con los nombres se pueda uno hacer una idea de qué es lo que hace cada parte del programa. Un ejemplo claro es el “recolector de basura” de java. Ayuda a que todos los programadores (y el cliente) sepan de qué estamos hablando y que no haya mal entendidos.
  12. Ritmo sostenible: Se debe trabajar a un ritmo que se pueda mantener indefinidamente. Esto quiere decir que no debe haber días muertos en que no se sabe qué hacer y que no se deben hacer un exceso de horas otros días. Al tener claro semana a semana lo que debe hacerse, hay que trabajar duro en ello para conseguir el objetivo cercano de terminar una historia de usuario o mini-versión.

Ventajas y Desventajas

Para finalizar sus principales ventajas son:

  • Programación organizada.
  • Menor tasa de errores.
  • Satisfacción del programador

Sus desventajas:

  • Es recomendable emplearlo solo en proyectos a corto plazo.
  • Altas comisiones en caso de fallar.

modelos agiles


Referencias

Consultados el día 21 de Mayo de 2016 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

eSCM-SP

escm spEl eServices Capability Model for Service Providers (eSCM-SP) es un modelo desarrollado por ITSqc, el eSCM-SP consiste en un modelo de capacidades “mejores prácticas” con tres propósitos: el primero para dar a los proveedores de servicios de orientación que les ayudará a mejorar su capacidad en todo el ciclo de vida de abastecimiento, el segundo para proporcionar a los clientes un medio objetivo para evaluar la capacidad de los proveedores de servicios, y el tercero para ofrecer a los proveedores de servicios un estándar para utilizar cuando se diferencian de sus competidores.

Ahora bien, el eServices Capability Model for Service Providers (eSCM-SP) ayuda a las organizaciones a gestionar y reducir los riesgos y mejorar sus capacidades a través de todo el ciclo de vida de abastecimiento, las prácticas del modelo pueden ser consideradas como las mejores, asociadas con las relaciones de abastecimiento de éxito. Se ocupa de las cuestiones críticas relacionadas con la compra de componentes en IT (eSourcing) para realizar acuerdos tanto externos como de servicio compartido.

Por otra parte, los proveedores de servicios utilizan sus métodos de determinación de la Capacidad eSCM-SP para evaluar sus capacidades de eSourcing, y obtener la certificación eSCM-SP, proporcionando de esta manera una ventaja sobre sus competidores.

Es importante señalar, que el eSCM-SP ha sido diseñado para complementar los modelos de calidad existentes para que los proveedores de servicios puedan capitalizar sus esfuerzos de mejora, lo que permitido desarrollar una serie de documentos que comparan la eSCM-SP con otros modelos y normas.

Por otro lado, la mayoría de los modelos de calidad se centran sólo en las capacidades de diseño y entrega, pero del ciclo de vida del abastecimiento de eSCM-SP incluye no sólo la entrega, sino también iniciación y terminación del contrato. Las dos fases son a menudo las más críticas a las relaciones de abastecimiento de éxito. El ciclo de vida Sourcing también incluye las prácticas generales.

Las áreas de capacidad proporcionan agrupaciones lógicas de prácticas para ayudar a mejorar y gestionar el contenido intelectual del modelo. Los proveedores de servicios pueden construir o demostrar las capacidades en función de una crítica particular. Las diez áreas de capacidad son la gestión del conocimiento, gestión de personas, gestión del rendimiento, gestión de relaciones, gestión de la tecnología, gestión de amenazas, servicio de transferencia, contratación, diseño e implementación de servicio, y de prestación de servicios.

Para finalizar, los cinco niveles de capacidad eSCM-SP indican el nivel de capacidad de una organización. El nivel 1 indica que la organización está proporcionando un servicio. Una organización de Nivel 2 tiene procedimientos para que pueda cumplir rigurosamente con los requisitos de sus clientes. En el nivel 3, una organización es capaz de gestionar su rendimiento consistentemente a través de compromisos. Nivel 4 requiere que una organización es capaz de añadir valor a sus servicios a través de la innovación. Los proveedores de servicios en el nivel 5 han demostrado que pueden mantener la excelencia en un período de al menos dos años.

esCM-Sp


Referencias

Wikipedia

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Certificación CISSP

cissp_logoCISSP (Certified Information Systems Security Professional) es una certificación de alto nivel profesional otorgada por la International Information Systems Security Certification Consortium Inc., con el objetivo de ayudar a las empresas a reconocer a los profesionales con formación en el área de seguridad de la información.

Ahora bien, CISSP es considerada como una de las credenciales de mayor representatividad en el ámbito de la seguridad informática a nivel mundial. Para mayo del 2014, había registrados 93391 CISSPs en el mundo. En junio del 2004 CISSP obtuvo la acreditación ANSI e ISO/IEC Standard 17024:2003. La certificación también tiene aprobación del Departamento de Defensa de Estados Unidos (DOD) en las categorías técnicas (Information Assurance Technical (IAT)) y de dirección (Information Assurance Managerial (IAM)) para el requerimiento de certificación DoDD 8570. La certificación CISSP ha sido adoptada como estándar para el programa ISSEP de la Agencia Nacional de Seguridad de EEUU.

Por otra parte, los aspirantes a obtener la certificación CISSP deben aprobar el examen correspondiente: este examen consta de 250 preguntas de selección simple y 6 horas de duración, en el cual se evalúa el manejo que tiene el candidato sobre cada uno de los 10 dominios de conocimiento que conforman el Common Body of Knowledge (CBK), obteniendo una puntuación superior o igual a 700 sobre 1000.

Siguiendo el mismo orden de ideas, los participantes también deben demostrar experiencia mínima de 5 años en al menos dos de los 10 dominios del CBK, y deben adherirse al Código de Ética de la ISC2. En caso de ser seleccionado para tal fin, el aspirante debe someterse y pasar un proceso de auditoría respondiendo cuatro preguntas en relación al historial delictivo y de antecedentes personales.

Es importante resaltar que con el objetivo de mantener su estado de CISSP, aquellos profesionales certificados deben realizar cierta cantidad de actividades cuya finalidad primordial es asegurar que el profesional se ha mantenido activo en el área de la seguridad. Cada una de estas actividades recibe cierta cantidad de créditos (CPE) de los cuales el profesional debe reunir 120 cada 3 años. Si el CISSP no reúne los 120 CPEs en el tiempo definido, debe entonces volver a tomar y aprobar el examen si desea mantener su certificación.

Para finalizar, los aspectos que debe dominar aquel que pretenda certificarse como CISSP cubre lo que se llama como los 10 dominios de conocimiento que requiere el ISC al candidato son los siguientes

  1. Seguridad de la Información y Gestión de Riesgos (Information Security and Risk Management).
  2. Sistemas y Metodología de Control de Acceso (Access Control).
  3. Criptografía (Cryptography).
  4. Seguridad Física (Physical Security).
  5. Arquitectura y Diseño de Seguridad (Security Architecture and Design).
  6. Legislación, Regulaciones, Cumplimiento de las mismas e Investigación (Legal, Regulations, Compliance, and Investigation).
  7. Seguridad de red y Telecomunicaciones (Telecommunications and Network Security).
  8. Planes de continuidad del negocio y de Recuperación Frente a Desastres (Business Continuity and Disaster Recovery Planning).
  9. Seguridad de Aplicaciones (Applications Security).
  10. Seguridad de Operaciones (Operations Security).

CISSP


Referencias

Consultado el día 24 de marzo de 2016 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Piktochart

piktochart banner

La Infografía es una combinación de texto e imágenes sintéticas, explicativas y fáciles de entender con el fin de comunicar información de manera visual para facilitar su transmisión. Además de las ilustraciones, se puede ayudar más al lector a través de gráficos que puedan entenderse e interpretarse instantáneamente.

Es importante señalar, que la infografía es una excelente manera de representar datos de forma visual, por medio de procedimientos informáticos, y para ello existen muchas herramientas en línea entre las cuales se pueden mencionar Canva, Easel.ly, Genially, Infogr.am, PIKTO chart, Visual.ly, Vizualize.me, entre otras.

Ahora bien, Piktochart es una herramienta en línea basada en la creación de infografías que permite a los usuarios sin experiencia como la que tienen los diseñadores gráficos crear fácilmente un trabajo de calidad profesional utilizando las plantillas temáticas.

piktochart logoEs importante destacar que esta herramienta tiene una característica resaltantes como lo es su capacidad de HTML para las publicaciones, lo que permite generar un trabajo que pueda ser visualizado en línea por los usuarios. Además, ofrece herramientas para añadir mapas interactivos, gráficos, videos e hipervínculos.

En el mismo orden de ideas, este editor de infografía en la nube ofrece todas las herramientas necesarias para crear los mencionados trabajos de una forma sencilla y práctica.Una vez creada la cuenta de usuario, se puede elegir entre múltiples plantillas disponibles. Adicional a esto cabe destacar que la versión gratuita cuenta con funciones limitadas.

Desde el momento que el usuario accede al editor, se pueden aprovechar todas las herramientas para generar las infografías. En la parte izquierda está el menú desplegable con acceso a todas las formas y gráficos, se deben arrastrar y soltar los elementos hasta la pantalla principal para añadirlos en la presentación. Se puede combinar texto y gráficos para presentar la información de forma más atractiva y visual.

Sus principales características son:

  • Crear infografías propias.
  • Herramientas de edición fáciles de usar.
  • Personalizar colores y fuentes.
  • Exportar los gráficos como imágenes estáticas.
  • Hasta cuarenta temas y plantillas diferentes para elegir.
  • Combinar texto y gráficos para presentar la información de forma más atractiva, entre muchas otras.

Referencias

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Google Hangouts

Google-Hangouts

La red ha sido el mejor medio para establecer el sistema globalizado que hoy nos rige, aunque lo importante es que su constante evolución ha permitido que cualquiera pueda sacar lo mejor de sus características para establecer relaciones laborales, cualquier otro tipo de contacto o de trabajo colaborativo en cuestión de segundos.

Como muestra, las videoconferencias y las reuniones online tan útiles y sencillas de armar con las debidas herramientas. Existen muchísimas aplicaciones para realizar este tipo de actividades como lo son Adobe Connect, AnyMeeting, GoToMeeting, Google Hangouts, Join.me, Mikogo, Skype, entre otras.

google hangoutsAhora bien, favorecido con la velocidad, estabilidad, servidores y demás características que sólo Google puede potenciar, tan llamativa la herramienta de Hangouts coloca a disposición (de forma gratuita) videoconferencias con decenas de contactos, la posibilidad de trabajar colaborativamente con Google Docs o compartiendo la pantalla, compartir archivos y notas, chatear, conectarse desde sus aplicaciones para móviles, entre otros.

Siguiendo el mismo orden de ideas, Hangouts es una aplicación multiplataforma de mensajería instantánea desarrollada por Google Inc. Se creó para sustituir los servicios Google Talk, Google+ Messenger y Google+ Hangouts, unificando todos estos servicios en una única aplicación.

Hangouts permite mantener conversaciones entre dos o más usuarios, así como, al igual que en los Google+ Hangouts, es posible realizar videollamadas con hasta 15 personas en la web y 10 personas desde un smartphone. Las conversaciones realizadas se archivan en la nube permitiendo con esto sincronizarlas entre diferentes dispositivos. Durante las conversaciones se pueden enviar caracteres emoji y compartir fotografías, imágenes gif, la ubicación las cuales son almacenadas automáticamente en un álbum privado del servicio de fotos en el perfil de Google+ de cada usuario.

Por otra parte, Google Voice ya ha sido integrado en Hangouts, lo que permite en algunos países hacer llamadas internacionales. Además desde el propio programa se pueden realizar llamadas y enviar SMS a teléfonos sin Hangouts, pero con la tarifa contratada por cada usuario con su operadora de telefonía.

Es posible también ver cuando un contacto se encuentra disponible dentro de la conversación, apareciendo una imagen o avatar de tamaño más reducido debajo del avatar normal del contacto, cuando está en línea se muestra normal; por el contrario si la persona está desconectada, la imagen del avatar pequeño aparece con una marca de agua. El mismo avatar se va posicionando hasta el mensaje que ha sido leído, permitiendo con esto saber hasta qué punto ha leído los mensajes la persona con la que se está conversando. Hangouts utiliza un protocolo de comunicación propietario completamente nuevo, dejando de lado al XMPP utilizado por Google Talk.


Referencias

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Robótica e Inteligencia Artificial Empresarial

inteligencia artificial

El mundo está avanzando y durante el camino hacen falta nuevos profesionales. Existen ramas que aumentaron y otras que prácticamente desaparecieron. Lo que tenga relación con el universo de la informática, las tecnologías de la comunicación y el desarrollo de software y aplicaciones pareciera no tener límites. Mientras los teléfonos móviles, internet y la tecno-vida sigan su curso, estos profesionales harán falta en todos lados.

Las innovaciones tecnológicas que se avecinan en el horizonte de los próximos años modificarán de tal manera las vidas de las personas, hay estudios que anticipan estas innovaciones en los diferentes campos. Para dibujar estos escenarios han consultado a expertos de diversos campos de todo el mundo. Con ellos han perfilado un consenso, respecto a qué tecnologías tienen más posibilidades de emerger en los próximos años, en qué momento harán incursión en la sociedad y qué impacto social puede esperarse de ellas.

Existen muchas especialidades de tecnologías que estarán vigentes en el año 2020, unas de ellas es la robótica y la inteligencia artificial, gracias a su desarrollo lo que antes se consideraba ciencia ficción ahora es posible. La Inteligencia Artificial y la Robótica han ido evolucionando en gran medida a lo largo de los últimos años, de tal manera que actualmente existen varios campos que afrontan el futuro de éstas.

En relación a la robótica, el término procede de la palabra robot. La robótica es, por lo tanto, la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y aplicaciones de los robots, ha estado unida a la construcción de artefactos con la idea de asemejarse al ser humano y de ahorrarle trabajo. El objetivo es crear robots inteligentes y autónomos, la nueva generación, capaces de estar situados en su entorno, adoptar comportamientos, razonar, evolucionar y actuar como seres vivos.

Existen muchos robots de industria que ayudan en las labores de construcción y creación de máquinas en empresas. Estos dispositivos ayudan a las labores de las personas. Se está muy cerca de que estos robots pasen a ser robots de servicios, que puedan ayudar a realizar acciones diarias como cargar maletas y limpiar. También existen ya robots que asisten a personas con necesidades o a mayores.

Por otra parte, la inteligencia artificial, trata de conseguir que los ordenadores simulen en cierta manera la inteligencia humana. Se acude a sus técnicas cuando es necesario incorporar en un sistema informático, conocimiento o características propias del ser humano.

En el momento actual la inteligencia artificial se aplica a numerosas actividades humanas, y como líneas de investigación más explotadas destacan el razonamiento lógico, la traducción automática y comprensión del lenguaje natural, la robótica, la visión artificial y, especialmente, las técnicas de aprendizaje y de ingeniería del conocimiento. Estas dos últimas ramas son las más directamente aplicables al campo de las finanzas pues, desde el punto de vista de los negocios, lo que interesa es construir sistemas que incorporen conocimiento y, de esta manera, sirvan de ayuda a los procesos de toma de decisiones en el ámbito de la gestión empresarial.

Para finalizar es importante destacar que las personas que trabajen con tecnología y tengan destrezas dentro de estas áreas, podrán tener muchas oportunidades y más protagonismo en donde se pueda aplicar la Inteligencia Artificial y la Robótica.

robotica


Referencias

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

BeFunky

be funky logoCada vez se pueden encontrar una variedad de herramientas, incluyendo las de edición de fotos, esto con el fin de sacar provecho al cien por ciento del internet, una de estas opciones es BeFunky, que es un sitio web el cual cuenta con la principal funcionalidad de proporcionar las herramientas adecuadas para editar fotografías en línea.

Ahora bien, Befunky es un sitio muy completo y profesional que pone a disposición de todos los usuarios herramientas para la edición de fotos en línea. Si se quieren utilizar los servicios de esta web no es necesario registrarse, tomando en cuenta que la opción también se encuentra disponible para tener un mejor control de los archivos, este detalle es en verdad un toque que los desarrolladores han añadido a este sitio.

El sitio permite editar las las fotos, agregarles color, brillo, contraste, cortar y otras opciones. También se puede aplicarle efectos de colores, aplicar efectos de artística, agregarle marcos y bordes, formas y gráficos y por ultimo agregarle textos. Todo de forma muy gráfica e intuitiva, lo que facilita su utilización.

Befunky es de uso sencillo, dentro de la pantalla de inicio solamente hay que presionar el botón “Upload” para dar inicio y cargar una fotografía. Hay algo que se debe saber y es que el sitio permite cargar fotografías desde la PC, Flickr, webcam, Facebook, Picassa, Photobucket o cualquiera que se haya añadido anteriormente desde la cuenta de Befunky. Casi no hay restricciones, la capacidad de manejo de fotografías en esta web es sorprendente.

Cuando se tenga bien claro desde dónde se quiera añadir la foto, solamente hay que seleccionarla y se cargará de inmediato a la página, desde ahí ya se puede comenzar a trabajar. En la parte lateral izquierda de la pantalla se tiene una serie de herramientas que permiten aplicar efectos a fotos en colores, brillos, marcos, recortes, rotación, colores, pinceles, eliminación de ojo rojo, entre otros.

Befunky funciona muy bien para cuando se desee cambiar el tamaño, efectos y colores a una o varias fotografías, además desde la aplicación se puede crear la foto de portada para Facebook. Si se quiere trabajar con un editor más completo este sitio da la oportunidad de pagar por un mejor servicio. Y ofrece más herramientas en gran cantidad, su costo es muy económico. Befunky es muy interesante, puedes descargar tus imágenes en formato JPG, JXR y PNG.

be funky


Referencias

Consultado el día 20 de noviembre de 2015 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

LibreCad

librecad

Los programas de CAD han evolucionado mucho desde que empezaron a popularizarse a principios de los 80. Para el estudiante que se enfrenta por primera vez a este tipo de software, la complejidad de programas profesionales como Autocad. Afortunadamente existen soluciones más sencillas para iniciarse en el complejo mundo del CAD, como DraftSight, FreeCad, Librecad, entre otros.

Ahora bien, LibreCAD es una aplicación informática de código libre de diseño asistido por computadora (CAD) para diseño 2D. Funciona en los sistemas operativos MacOS X, Microsoft Windows y algunas de las principales distribuciones de GNU/Linux (Debian, Ubuntu, Fedora, Mandriva, Suse, entre otras).

librecad 2Este programa fue desarrollado a partir de un fork de QCad Community Edition. El desarrollo de LibreCAD está basado en las bibliotecas Qt4, pudiendo ser ejecutado en varias plataformas de manera idéntica.

Algunas de sus ventajas: Panel de herramientas dinámico. Ayuda integrada. Soporte para capas. Paleta de herramientas muy completa, por otra parte sus desventajas: Sin soporte para 3D. Sólo compatible con DXF y CXF.

Es importante mencionar que LibreCAD cuenta con una interfaz de usuario sencilla basada en las librerías Qt4. Dispone de un panel de herramientas dinámico muy completo, que esconde muchas más funciones de las que pueden apreciarse a simple vista.

LibreCAD tiene soporte para capas, funcionalidad esencial en este tipo de software, buena parte de la interfaz y de los conceptos sobre cómo utilizarlo son similares a los de AutoCAD, haciendo el uso de este más cómodo para usuarios con experiencia en ese tipo de programas CAD comerciales.

LibreCAD utiliza el formato del archivo de AutoCAD DXF internamente y para guardar e importar archivos, así como también permite la exportación de estos en varios formatos.

LibreCAD puede leer archivos DWG, también puede exportar SVG, JPG, PNG, PDF y otros archivos. Tiene capas, bloques, splines, polilíneas, herramientas elipse, línea tangente, círculo, herramientas avanzadas, herramientas de transformación, sistema de rotura avanzada y mucho más. Debido a que LibreCAD se centra en geometría 2D es rápido, ligero y se puede utilizar un instalador de menos de 30mb.

Gracias a esta práctica herramienta, se pueden abrir archivos en diversos programas de CAD. Sin duda alguna, se trata de una excelente opción para aquellos que necesiten un editor de ficheros CAD y no puedan disponer de software de pago.


Referencias

Consultado el día 20 de octubre de 2015 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

Comercialización y Crecimiento

wwwCuando se piensa en Internet y en su evolución en los últimos años las personas imaginan descomunales, hay que recordar que Internet fue creada en 1960 y puesta a disposición del público en los años 90. Por ende, es fácil inferir que el crecimiento de esta red fue en aumento a medida que pasaron los años y, en estos último, ha alcanzado cifras impresionantes.  Ahora bien, la cantidad de usuarios de Internet en esta última década aumentó un 444,8%. Actualmente, en todo el mundo hay más de mil novecientos sesenta millones de usuarios (la cifra exacta es 1.966.514.816 usuarios) y en Europa hay más de cuatrocientos setenta y cinco millones (475.069.448 exactamente). Un 24,2% de los habitantes del mundo conectados a la red pertenecen a Europa. En nuestro continente, el crecimiento de usuarios de Internet en esta década es de un 352%, pero en África la cifra es mucho más impresionante: hubo un aumento en los usuarios de Internet de un 2357,3%. En Latinoamérica, la población con Internet aumentó un 1032,8%, y en Medio Oriente, un 1825,3%.

Es importante señalar, que Internet se expande constantemente. Nuevos sitios Web son desarrollados y se añaden mas y mas elementos de hardware (físicos) para dar soporte a los nuevos Sitios Web que son realizados por motivos diversos, desde comerciales hasta simplemente una expresión o entretenimiento de sus creadores. Asimismo, aumenta la amplia cantidad de usuarios activos, que día a día se suman Internet por resultarles algo interesante o útil.

El crecimiento de internet se debe a que en primer lugar mucha información. Desde textos a imágenes y videos, e incluso material multimedia informativo. Desde catálogos hasta comentarios de usuarios que adquirieron un producto en cuestión, y comentan como les fue. Asimismo Internet es como una gran Biblioteca moderna, al alcance de la mano, con multitud de temas disponibles. También, hay muchos Sitios Web dedicados a la información y las noticias actuales. Luego, además brinda: Capacidad de comunicación entre usuarios; entretenimientos y juegos online, incluyendo archivos multimedia tales como música y videos. Internet es una herramienta de trabajo y un medio donde hacer negocios. Se pueden hacer algunos trámites, compras, y utilizar distintos servicios. El amplio surtido de contenidos hace que Internet sea interesante y útil para un público muy extenso. Por ello crece.

Por otra parte, la comercialización de Internet no solo implicó el desarrollo de servicios de redes competitivos y privados sino también el desarrollo de productos comerciales para implementar la tecnología de Internet. A principios de los 80, docenas de vendedores estaban incorporando TCP/IP en sus productos porque veían compradores para este tipo de enfoque a la interconexión. Desafortunadamente, no tenían información real sobre cómo se suponía que funcionaba la tecnología y cómo planeaban los clientes usar este enfoque a la interconexión.

En 1985, reconociendo esta falta de disponibilidad de información y entrenamiento apropiado, Dan Lynch en cooperación con la IAB organizó un taller de tres días para que todos los vendedores aprendiesen cómo TCP/IP funcionaba y lo que aún no podía hacer bien. Los conferenciantes provenían casi todos de la comunidad de investigación de DARPA, gente que había desarrollado esos protocolos y los usaba diariamente. Unos 250 vendedores fueron a escuchar a 50 inventores y experimentadores. Los resultados fueron sorpresas en ambas partes: los vendedores se sorprendieron al darse cuenta que los inventores eran tan abiertos sobre el funcionamiento de las cosas (y sobre lo que aún no funcionaba) y a los inventores les gustó escuchar sobre nuevos problemas que no habían considerado, pero que los vendedores de campo estaban descubriendo. De modo que se formó una discusión a dos vías que ha durado más de una década.

Después de dos años de conferencias, tutoriales, reuniones de diseño y talleres, se organizó un evento especial y se invitó a los vendedores cuyos productos ejecutaban TCP/IP bien para que se juntasen en una sala durante tres días para demostrar lo bien que trabajaban todos juntos con Internet. En septiembre de 1988 nació la primera feria de muestras Interop. 50 compañías consiguieron asistir. 5.000 ingenieros de organizaciones de clientes potenciales fueron a ver si funcionaba como prometían. Funcionaba. ¿Por qué? Porque los vendedores trabajaron duro para asegurarse que todos los productos interoperaban con el resto de los productos; incluso con los productos de los competidores. La feria de muestras Interop ha crecido muchísimo desde entonces y hoy en día se celebra en 7 ubicaciones en todo el mundo durante el año, y más de 250.000 personas vienen a aprender sobre qué productos funcionan con que productos sin problemas, aprender más sobre los últimos productos y discutir la tecnología más puntera.

En paralelo con los esfuerzos de comercialización que se resaltaban en las actividades de Interop, los vendedores empezaron a asistir a las reuniones de la IETF, que se celebraban 3 o 4 veces al año para discutir nuevas ideas sobre ampliaciones del conjunto de protocolos TCP/IP. Empezando con unos pocos cientos de asistentes, mayoritariamente de académicos y pagados por el gobierno, hoy en día, estas reuniones tienen una asistencia de miles de personas, mayoritariamente de la comunidad de vendedores y pagados por los asistentes mismo. Este grupo autoseleccionado evoluciona el conjunto TCP/IP de manera cooperativa. La razón por la que es tan útil es porque está compuesto por todos los interesados: investigadores, usuarios finales y vendedores.

Conforme se hizo más grande la red, quedó claro que los procedimientos usados para gestionar la red no escalarían. La configuración manual de las tablas fue sustituida por algoritmos automáticos distribuidos, y se diseñaron mejores herramientas para aislar fallos. En 1987, quedó claro que era necesario un protocolo que permitiese gestionar los elementos de una red, como los enrutadores, remotamente de manera uniforme. Se propusieron varios protocolos con este objetivo, incluyendo el Protocolo Simple de Administración de Red o SNMP (diseñado, como sugiere su nombre, para ser sencillo, y derivado de una propuesta anterior llamada SGMP), HEMS (un diseño más complejo de la comunidad investigadora) y CMIP (de la comunidad OSI). Tras una serie de reuniones se decidió retirar HEMS como candidato para la estandarización, para ayudar a resolver la contención, pero que se continuaría trabajando en SNMP y CMIP, con la idea que SNMP sería una solución a corto plazo y CMIP una solución a largo plazo. El mercado podía elegir el que le pareciese más adecuado. Hoy en día se usa SNMP casi universalmente para la gestión basada en la red.

En los últimos años, hemos visto una nueva fase de comercialización. Originalmente, los esfuerzos de comercialización comprendían principalmente vendedores ofreciendo los productos básicos de redes y los proveedores de servicios ofreciendo los servicios de conectividad y básicos de Internet. Internet casi se ha convertido en un servicio de mercancías, y se ha prestado mucha atención en esta infraestructura global de información para soportar otros servicios comerciales. Esto se ha visto acelerado increíblemente por la adopción generalizada y rápida de navegadores y la tecnología World Wide Web, lo que permite a los usuarios tener un fácil acceso a la información enlazada de todo el mundo. Hay productos disponibles para facilitar el aprovisionamiento de esta información y muchos de los últimos desarrollos en la tecnología se han centrado en proveer servicios de información cada vez más sofisticados por encima de los servicios de comunicación básicos de datos de Internet.


Referencias

Consultado el día 23 de septiembre de 2015 de la WWW:

Tarjeta Rocha

Banner De todo un Poco (1) 600 px

A %d blogueros les gusta esto: