Archivo de la categoría: Inteligencia Artificial

Sistemas basados en Conocimientos

08 Sistemas Basados en conocimiento

Sistemas basados en conocimientosCuando se define un sistema basado en el conocimiento inmediatamente se asocia el término con los sistemas de información y la representación de funciones propias de un ser humano a través de ellos; este tipo de asociación tiene su origen en una rama de la Inteligencia Artificial, en donde se busca automatizar a  través de lo que se conoce sistemas expertos el análisis de situaciones, la toma de decisiones en esa situación y la búsqueda de solución de un problema; todo ello aplicado a un campo especifico.

Según el  autor Peña (2006), un Sistema Experto es un sistema computacional que adquiere conocimiento especializado en un campo específico para explotarlo mediante métodos de razonamiento que emulan el desempeño del experto humano en la solución de problemas.  Generalmente un Sistema Experto puede comprender:

  • Amplio conocimiento específico a partir del campo de interés.
  • Aplicación de técnicas de búsqueda y heurísticas.
  • Habilidad para inferir nuevos conocimientos a partir de los actuales y de las experiencias obtenidas durante su operación.
  • Procesamiento simbólico.
  • Capacidad para explicar su propio razonamiento y
  • Empleo de diversas técnicas de solución de problemas

Según Morales Montejo citado por Mora, C (2009); los sistemas de información son procedimientos organizados que dan soporte a la toma de decisiones. El desarrollo de dicho sistema debe dar las pautas para planear y administrar la información dentro de la organización, ayudando a la integración de todos los subsistemas que se generan en ésta; por tanto; cuando los mismos son mecanizados como instrumentos para procesar información deben:

  • Apoyar la toma de decisiones,
  • Contener “conocimiento técnico”,
  • Reducir a un grado mínimo el error humano,
  • Automatizar las operaciones,
  • Transmitir información dentro de la organización,
  • Reducir el tiempo de realización de las operaciones,
  • Bajar costos,
  • Facilitar la tarea del usuario,
  • Manipular grandes volúmenes de información y
  • Satisfacer las necesidades del usuario.

Por tanto, puede inferirse que los sistemas basados en conocimiento deben contener un mecanismo de aprendizaje, una base de conocimientos, un motor de razonamiento y los medios de comunicación hombre-máquina; por tanto, estos sistemas capturan el conocimiento y luego emulan el mecanismo de raciocinio de un experto humano; es decir; analizan no solo lo que un experto sabe sino además la manera en que se puede resolver el problema, solo que artificialmente.

componentes sbc

Referencias:

Ordoñez Barbara

Robótica

07 Robotica

¿Qué es la Robótica?

RobotinaCuando escuchamos hablar de robótica, no podemos dejar de pensar en películas de ciencia ficción. Porque hasta no hace mucho tiempo, los robots pertenecían sólo a la ciencia ficción. Hoy en día, los robots han salido de las películas, series y novelas, para integrarse al mundo real.

Para los más avanzados de edad (eufemismo para no llamarlos viejo), seguro que le traerá muchos recuerdos hablar sobre el Robot de “Perdidos en el Espacio”, aquel que decía “¿Peligro, Will Robinson, Peligro!” o sencillamente hablar sobre Robotina, la eficiente ama de llaves de los Supersónicos.

 

La Robótica es la ciencia que trata acerca del diseño y la implementación de maquinas capaces de emular el comportamiento de un ser vivo. Se sirve de otras áreas como la inteligencia artificial, la mecánica, electrónica, la lógica, el álgebra, para poder hacer la complicada tarea de resolver problemas de la mejor manera posible.

Wikibooks

Pero la robótica es más que un mero proveedor de personajes de ciencia ficción. La robótica es una ciencia seria. Realmente la robótica es una rama de la Inteligencia Artificial.

Hoy en día podemos ver como la gente de Google nos muestra un carro que se conduce sin necesidad de chofer, vemos que por todos lados van volando los “drones” y tomando fotos y videos, en condiciones peligrosas para el ser humano, podemos ver restaurantes servidos por mesoneros robots, y tantos otros ejemplos que ya son cotidianos.

El término “Robot” tiene su origen en la palabra checa “robota” que quiere decir “trabajo forzado”

Los primeros robots eran máquinas muy simples, que requerían la presencia y acción de un operador, quien le indicaba lo que debía hacer, o en todo caso, vigilaba que hiciera lo que se le indicaba. Luego, los robots fueron memorizando funciones, y ya no necesitaba de ese operador para que le indicara lo que debía hacer. Actualmente, los robots pueden actuar por sí mismos, dejando al ser humano necesario (por los momentos) para detectar fallas o problemas en los sistemas de funcionamiento.

asimovLas 3 Leyes de la Robótica de Asimov:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Clasificación de los Robots

Los Robots pueden ser clasificados de acuerdo a los siguientes parámetros:

  • Manipuladores
  • De repetición
  • Controlados por computadora
  • Inteligentes
  • De Servicio
  • Paralelos

Componentes básicos de los Robots

Los componentes básicos de un robot son los siguientes:

  • Estructura Mecánica.- Un robot está formado por eslabones que van unidos entre sí por actuadores. De esta forma se puede dar el movimiento entre dos eslabones consecutivos. Comúnmente, los robots industriales se parecen a un brazo humano, motivo por el cual se usan palabras como brazo, codo, y muñeca.
  • Transmisiones.- Son los que transmiten el movimiento del actuador hasta la articulación.
  • Actuadores.- Generan el movimiento del robot, estos pueden ser: neumáticos, hidráulicos o eléctricos.
  • Sistema Sensorial.- Es el encargado de darle información al robot de su propio estado (sensores internos) y el de su entorno (sensores externos).
  • Sistema de Control.- Es el encargado de regular el comportamiento del robot para obtener los resultados deseados.
  • Efectores Finales.- Son los que interactúan directamente con el entorno, generalmente son diseñados específicamente para cada tipo de trabajo.

Aplicaciones reales de la Robótica

carro google

El carro de Google ya lleva 700.000 millas (1,13 millones de Kms) de manejo autónomo y sin accidentes, y ya está “aprendiendo a manejar” en ciudades populosas. Aún está en desarrollo, ya que sólo puede resolver hasta ahora a un 95% de las situaciones que se pueden presentar en la vida real. Cuando pueda resolver el 5% restante, empezaremos a verlos en las calles.

asimo

ASIMO es la culminación de dos décadas de investigación en Robótica Humanoide, por parte de los ingenieros de Honda. ASIMO puede caminar, puede correr, puede subir o bajar escaleras, caminar en superficies irregulares, y alcanzar objetos para tomarlos. ASIMO también puede comprender y responder ante comandos de voz sencillos. Tiene de igual manera la habilidad de reconocer facialmente a algunos individuos. Usando sus cámaras incorporadas, puede registrar el ambiente donde se encuentra, y registrar objetos estacionarios. También puede evitar obstáculos en movimiento, mientras se desplaza. (ASIMO fue nombrado en honor a Isaac Asimov).

Ver también:

Los puestos de trabajo más amenazados por el avance de la robótica

Referencias

Castellanos Luis

Redes Neuronales

06 Redes Neuronales

La inteligencia artificial es la rama de la informática que desarrolla procesos que imitan a la inteligencia de los seres vivos, la principal aplicación de esta ciencia es la creación de máquinas para la automatización de tareas que requieran un comportamiento inteligente. Esta trabaja conjuntamente con otras disciplinas como: Ingeniería, computación, psicología, física, robótica, medicina, filosofía y  teología.

Historia

Alan TuringLos primeros desarrollos en inteligencia artificial, comenzaron a mediados de los años 50 con el trabajo de Alan Turing, el cual formuló el siguiente planteamiento “existirá inteligencia artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas”. Los filósofos aportaron mucho acerca del desarrollo de esta ciencia, sin embargo como toda ciencia nueva necesitaba una formalización matemática en tres tareas principales: computación, lógica y probabilidad.

Redes NeuronalesDesde el punto de vista científico, podríamos englobar a esta ciencia como la encargada de imitar a una persona por dentro, la estructura de un cerebro en todas las funciones posibles existentes en el ser humano o inventadas sobre el desarrollo de la máquina inteligente. Se piensa en dispositivos inteligentes capaces de concluir miles de premisas a partir de otras premisas sin que ningún tipo de emoción tenga opción de sobrevivir.

NeuronasUn campo de la inteligencia artificial son las redes neuronales artificiales (RNA), la idea que inspiró este modelo fue la de imitar el sistema de computación más complejo que existe que es el cerebro, el cerebro está formado por miles de células llamadas neuronas, estas neuronas son unos procesadores de información muy sencillos con un canal de entrada de información dendritas, un órgano de cómputo soma o núcleo y un canal de salida de información Axón.

redes neuronales 2Las RNA imitan de cierto modo la estructura y el modo de operación de un cerebro y debido a que el cerebro presenta cualidades de procesamiento paralelo, procesamiento instruido y adaptabilidad un sistema RNA también posee estas características, se dice que es paralelo porque está formado por unidades elementales de procesamiento llamadas neuronas, cada neurona realiza un tipo de procesamiento muy simple. El sistema es instruido, debido a que no se almacena localmente la información sino que se haya presente por toda la RNA y la sinapsis entre neuronas.

redes neuronales 3Una red neuronal presenta además un grado de adaptabilidad que se concreta en las capacidades de aprendizaje y generalización, por aprendizaje entendemos la capacidad para recoger información de las experiencias y poder utilizarlas ante situaciones futuras. Alan Turing en 1936 fue el primero en estudiar el cerebro como una forma de ver el mundo de la computación.

Referencias:

Pernia Mariana

Procesamiento de Lenguaje Natural

05 Procesamiento de Lenguaje Natural

PLNAntes de profundizar en el desarrollo de aplicaciones en lenguaje natural es necesario entender que un lenguaje y el lenguaje natural.

Un lenguaje se considera como un conjunto de oraciones, que usualmente es infinito y se forma con combinaciones de palabras del diccionario. Es necesario que esas combinaciones sean correctas  y tengan sentido y el Lenguaje Natural es el medio que utilizamos de manera cotidiana para establecer nuestra comunicación con las demás personas, este tipo de lenguaje es el que nos permite el designar las cosas actuales y razonar a cerca de ellas, fue desarrollado y organizado a partir de la experiencia humana y puede ser utilizado para analizar situaciones altamente complejas y razonar muy sutilmente.

El Procesamiento Computacional del Lenguaje Natural es una meta fundamental de la Inteligencia Artificial, es la manipulación de lenguajes naturales usando herramientas de computación, en esta, los lenguajes de programación juegan un papel importante, ya que forman el enlace necesario entre los lenguajes naturales y su manipulación por una máquina.

Para entender lo que es la programación en lenguaje natural, es importante el que estudiemos el concepto de lo que es un lenguaje de programación que son un conjunto de normas lingüísticas que permiten escribir un programa y que éste sea entendido por el computador y pueda ser trasladado a computadores similares para su funcionamiento en otros sistemas. Un programa es una serie de instrucciones ordenadas correctamente que permiten realizar una tarea o trabajo específico.

El uso del lenguaje natural en la comunicación hombre-máquina es a la vez una ventaja y un obstáculo con respecto a otros medios de comunicación. Por un lado es una ventaja, en la medida en que el locutor no tiene que esforzarse para aprender el medio de comunicación a diferencia de otros medios de interacción como lo son los lenguajes de comando o las interfaces gráficas. Su uso también es a la vez un obstáculo por que la computadora tiene una limitada comprensión del lenguaje. Por ejemplo, el usuario no puede hablar sobrentendidos, ni introducir nuevas palabras, ni construir sentidos derivados, tareas que se realizan espontáneamente cuando se utiliza el lenguaje natural.

Las aplicaciones del Procesamiento de Lenguajes Naturales son muy variadas, ya que su alcance es muy grande.

Para continuar con el tema de los lenguajes naturales, es necesario que conozcamos los niveles del lenguaje, los cuales serán utilizados para la explicación en la Arquitectura de un sistema de PLN. Los niveles de lenguaje que daremos a conocer son los siguientes: fonológico, morfológico, sintáctico, semántico, y pragmático.

  • Nivel Fonológico: trata de cómo las palabras se relacionan con los sonidos que representan.
    • Rápida + Mente == Rápidamente
  • Nivel Morfológico: trata de cómo las palabras se construyen a partir de unas unidades de significado más pequeñas llamadas morfemas.
  • Nivel Sintáctico: trata de cómo las palabras pueden unirse para formar oraciones, fijando el papel estructural que cada palabra juega en la oración y qué sintagmas son parte de otros sintagmas.
  • Nivel Semántico: trata del significado de las palabras y de cómo los significados se unen para dar significado a una oración, también se refiere al significado independiente del contexto, es decir de la oración aislada.
  • Nivel Pragmático: trata de cómo las oraciones se usan en distintas situaciones y de cómo el uso afecta al significado de las oraciones. Se suele reconocer un subnivel recursivo: discursivo, que trata de cómo el significado de una oración se ve afectado por las oraciones inmediatamente anteriores.

En conclusión el lenguaje natural se entiende como el lenguaje hablado y escrito con el objetivo de que exista comunicación entre una o varias personas. La interpretación del lenguaje natural lo hace el cerebro, empieza a interpretar determinadas entradas sensoriales, tal como ver u oír alguna señal de alarma; el cerebro convierte la información codificada en un conjunto simbólico o lenguaje. La razón principal del procesamiento del lenguaje natural es construir sistemas y mecanismos que permitan la comunicación entre personas y máquinas por medio de lenguajes naturales.

Referencias

Henriquez Owen

Minería de Datos

04 Mineria de Datos

Antes de hablar de minería de datos, es conveniente definir cada uno de los términos de manera independiente; se entiende por minería a la extracción de los minerales y otros materiales de la corteza terrestre de los cuales se puede obtener un beneficio económico.

Por otro lado, según Davenport y Prusak (1999)  define datos como la mínima unidad de información. Ahora bien al hablar de minería de datos se podrá decir que es un conjunto de técnicas y tecnologías que permiten explorar grandes  bases de datos de manera automática y semiautomática con el fin de obtener patrones repetitivos, tendencias o reglas que expliquen el comportamiento de los datos en un determinado contexto.

De igual manera el datamining, también conocido como minería de datos; surge de la necesidad de entender y comprender grandes cantidades de datos, a través del uso de práctica de estadísticas y algoritmos de búsquedas guardando cierta relación con la inteligencia artificial y las redes neuronales.

Tomando en consideración lo antes expuesto en los párrafos anteriores, el datamining está  integrado por cuatro etapas fundamentales para su aplicación o desarrollo; estas fases se mencionaran a continuación: Determinación de los objetivos, preprocesamiento de los datos, determinación del modelo y análisis de los resultados.

De igual modo, cada una de las fases antes mencionada tienen su aplicabilidad en cada parte o fragmento de las tomas de decisiones antes de establecer el modelo a seguir; al referirse a la determinación de los objetivos en esta se debe de identificar cada una de las metas o pasos a seguir para alcanzar lo antes planteado; luego en la fase del preprocesamineto de datos en la mismas se ejecutan y controlan  los datos para depurarlos por completo y así alcanzar la información necesaria  estableciendo el modelo a seguir y de esta forma realizar el análisis  de los resultados.

data-mining

En referencia al auge que ha tomado la minería de datos en los últimos años autores como  Han y Kamber (2001), consideran que es debido a las  grandes cantidades de datos y con la necesidad de transformarlos en información útil; se dice que sin la minería de datos somos ricos en datos pero pobres en información.

En consecuencia  Molina y García (2004), establecen que la minería de datos  ha tomado una gran perspectiva orientada a su uso debido a que la mayoría de los trabajos en el datamining, están enfocados en el Data  Warehouse, referido esto a la arquitectura, algoritmos, herramientas y técnicas utilizadas para agrupar datos provenientes de múltiples bases de datos, los cuales se encuentran almacenados, permitiendo  realizar consulta y análisis de los mismos.

Por otro lado, se presenta la visión de los autores Castañeda y Rodríguez (2003), haciendo referencia al uso de la minería de datos como soporte a las toma de decisiones en cuanto a las actividades de negocio, lo cual requiere más que el uso de sofisticada técnicas como redes neuronales como árboles de decisión sobre las tablas de datos.

Finalmente, después de haber comprendido la importancia y utilización de la minería de datos (Datamining),  y observar, analizar, comprender  e interpretar el puntos de vistas de los autores mencionados en los párrafos anteriores, la minería de datos bien empleada se convierte en una herramienta estratégica que eleva los niveles de competencia en el cambiante mundo de los negocios y las tomas de decisiones efectivas a su vez irán a depender  de la manera como se identifica y análisis la información importante, lo cual permitirá el desarrollo de modelos efectivos incrementando el número de clientes en las organizaciones.

Referencias

  • CASTAÑEDA, J. y RODRÍGUEZ, M. 2003. “La Minería de Datos como herramienta de Marketing: Delimitación y Medidas de Evaluación del resultado. España. Universidad de Granada, Dpto de Comercialización e investigación de mercados.
  • HAN, J. y KAMBER, M. 2001. Data Mining, Concepts and Techniques. Morgan Kaufmann Publishers.
  • MOLINA J. y GARCÍA, J. 2004. “Técnicas de análisis de datos.
  • http://www.sinnexus.com/business_intelligence/datamining.aspx

Valdeblanquez Gustavo

Lógica Difusa

03 Logica Difusa

Recientemente, la cantidad y variedad de aplicaciones de la lógica difusa han crecido considerablemente. Esta pretende ser una alternativa a la lógica clásica que pretende introducir un grado de vaguedad en las cosas que evalúa. En el mundo en que vivimos existe mucho conocimiento ambiguo e impreciso por naturaleza. El razonamiento humano con frecuencia actúa con este tipo de información. La lógica difusa fue diseñada precisamente para imitar el comportamiento del ser humano.

La lógica difusa se inició en 1965 por Lotfi A. Zadeh, profesor de la Universidad de California en Berkeley. Surgió como una herramienta importante para el control de sistemas y procesos industriales complejos, así como también para la electrónica de entretenimiento y hogar, sistemas de diagnóstico y otros sistemas expertos.

En comparación con la lógica convencional permite trabajar con información que no es exacta para poder definir evaluaciones convencionales, contrario con la lógica tradicional que permite trabajar con información definida y precisa.

¿En qué situaciones es útil aplicar la lógica difusa?

La lógica difusa se puede aplicar en procesos demasiado complejos, cuando no existe un modelo de solución simple o un modelo matemático preciso. Es útil también cuando se necesite usar el conocimiento de un experto que utiliza conceptos ambiguos o imprecisos. De la misma manera se puede aplicar cuando ciertas partes de un sistema a controlar son desconocidas y no pueden medirse de forma confiable y cuando el ajuste de una variable puede producir el desajuste de otras. No es recomendable utilizar la lógica difusa cuando algún modelo matemático ya soluciona eficientemente el problema, cuando los problemas son lineales o cuando no tienen solución.

Teoría de conjuntos difusos

La lógica difusa permite tratar con información que no es exacta o con un alto grado de imprecisión a diferencia de la lógica convencional la cual trabaja con información precisa. El problema principal surge de la poca capacidad de expresión de la lógica clásica. Esta se divide en Conjuntos Clásicos y Conjuntos Difusos

Funciones de Pertenencia

Aun cuando cualquier función puede ser válida para definir un conjunto difuso, existen ciertas funciones que son más comúnmente utilizadas por su simplicidad matemática, entre éstas se encuentran las funciones de tipo triangular, mostrado en la figura que se muestra en la siguiente página.

El Controlador Difuso

La lógica difusa se aplica principalmente en sistemas de control difuso que utilizan expresiones ambiguas para formular reglas que controlen el sistema. Un sistema de control difuso trabaja de manera muy diferente a los sistemas de control convencionales. Estos usan el conocimiento experto para generar una base de conocimientos que dará al sistema la capacidad de tomar decisiones sobre ciertas acciones que se presentan en su funcionamiento. Los sistemas de control difuso permiten describir un conjunto de reglas que utilizaría una persona para controlar un proceso y a partir de estas reglas generar acciones de control. El control difuso puede aplicarse tanto en sistemas muy sencillos como en sistemas cuyos modelos matemáticos sean muy complejos.

Este comprende múltiples procesos, los cuales son; Fusificación, Base de Conocimiento, Inferencia y Defusificación.

estructura modelo logica difusa

Estructura de un Modelo de Lógica Difusa

Algunas aplicaciones de la lógica difusa

La lógica difusa se ha desarrollado en diferentes áreas y a continuación se mencionan algunas:

  • semaforoControl de sistemas: Control de tráfico, control de vehículos, control de compuertas en plantas hidroeléctricas, centrales térmicas, control en máquinas lavadoras, control de metros (mejora de su conducción, precisión en las paradas y ahorro de energía), ascensores, etc.
  • Predicción de terremotos, optimización de horarios.
  • Reconocimiento de patrones y Visión por ordenador: Seguimiento de objetos con cámara, reconocimiento de escritura manuscrita, reconocimiento de objetos, compensación de vibraciones en la cámara, sistemas de enfoque automático.
  • Sistemas de información o conocimiento: Bases de datos, sistemas expertos.

Referencias:

Semprun Viviana

BioInformática

02 BioInformatica

Devolverle la vista a los ciegos ya no es ciencia ficción, una empresa israelí ha descubierto un  novedoso implante de una retina biónica, para aquellas personas que padecen de enfermedades de deterioro de la vista tales como trastornos visuales asociados a la edad como retinosis pigmentaria y degeneración macular. Y en un futuro se espera que el dispositivo sea útil para tratar en casos de foto-receptores atrofiados o en retinopatía diabética.

La biónica es la aplicación del estudio de los fenómenos biológicos a la técnica de los sistemas electrónicos.  DRAE (2001)

Este dispositivo incluye un chip de computadora que se introduce detrás del ojo humano y que está vinculado a una cámara de mini-video puesta en los lentes de la persona. Las imágenes capturadas por la cámara son emitidas a través del sofisticado sistema del microchip, que las traduce a impulsos que el cerebro puede interpretar como imágenes. Aunque las imágenes producidas por el ojo biónico no son perfectas, son lo suficientemente claras y definidas para permitirle a una persona no vidente reconocer, por ejemplo, rostros y lugares.

Cómo funciona

El dispositivo consiste en un minúsculo implante retinal diseñado para sustituir las células sensibles a la luz de la retina o fotorreceptores dañados. La Bioretina transforma la luz que recibe en una señal eléctrica que estimula a las neuronas o células cerebrales. Estas, a su vez, envían al cerebro las imágenes captadas por la Bioretina. El microchip funciona en armonía con los procesos corrientes del ojo, como la dilatación de la pupila o el movimiento del globo ocular, lo que hace más facial poder mirar de lado a lado sin tener que girar la cabeza.

Del mismo modo este mecanismo cuenta con una fuente de alimentación (batería) que se recarga inalámbricamente mediante un minilaser colocado en unos lentes. Este se efectúa en tan solo 30 minutos, y con anestesia local.

La visión que obtendrá el paciente le permitirá ver la televisión e identificar rostros gracias a una resolución de 600 pixeles (el modelo más sofisticado), pues los creadores han estudiado que 260 pixeles es el mínimo para tener un nivel de visión aceptable. No obstante, ésta será en blanco y negro, y a los que se les haya implantado el dispositivo no podrán conducir o leer letras que no sean de grandes dimensiones.

retina bionica

Pero los responsables de la retina biónica prevén que en el futuro se abrirá el terreno al tratamiento de enfermedades como la retinopatía diabética, o aquellas en las que el foto-receptor se atrofia y no puede funcionar otra vez debido a que no hay células que puedan traducir la luz que llega a la retina en una visión útil. Se calcula que el precio para la paciente, incluida la intervención, rondará los 2.000 dólares, y los creadores obtendrán beneficios a través de las agencias aseguradoras médicas.

Referencias:

Rodriguez Javier

Inteligencia Artificial: ¿Ciencia o Ficción?

01 Ciencia o Ficcion

Una de las razones por las cuales me gusta escribir para esta revista es porque la segunda parte de su nombre, “Otras Cosas”, permite tratar temas “De Tecnología” con un mayor grado de flexibilidad.  En esta oportunidad hablaremos de inteligencia artificial.

Como amante del cine y la televisión, lo primero que me viene a la mente al pensar en el tema son tres películas. El Hombre Bicentenario  (1999) protagonizada por el recordado Robin Williams, Inteligencia Artificial (2000) dirigida Steven Spielberg  y Battlestar Galáctica (2004) con Edward James Olmos, una serie de televisión de ciencia y ficción.  En la primera, un androide desarrollado para realizar funciones humanas, que requieren de inteligencia pero no emociones,  busca emular conductas tales como el amor y la libertad. En la segunda, otro androide es creado por el hombre, pero esta vez con un protocolo para desarrollar sentimientos de amor hacia una madre que ha perdido a su hijo. En Galáctica  nos encontramos con toda una raza de robots, modelados por el hombre, que se reinventaron, que fueron capaces de hacer otras maquinas, esclavizarlas y lograron ser tan o más inteligentes que su creador al punto que deciden dominar a la humanidad para garantizar su supervivencia.

peliculas

En 1955, John McCarthy, a quien se le atribuye el término, definió la inteligencia artificial (IA) como la ciencia e ingeniería de hacer maquinas inteligentes. Aunque algunos autores le atribuyen un componente artístico, usaremos esa definición como referencia. Pero ¿no es la inteligencia un atributo propio de los seres humanos? Si es así ¿qué significa hacer maquinas inteligentes? ¿Estamos jugando a ser Dios?

Ray Kurzweil, futurista e inventor, asegura que la IA a nivel humano estará entre nosotros en un par de décadas. Sin embargo otros aseveran que los esfuerzos para modelar el cerebro humano aun están en estado primitivo y pasarán más de dos décadas, quizás cuatro para ver resultados interesantes. Al parecer, por algún tiempo mas, los seres humanos mantendremos el dominio sobre las habilidades para razonar, resolver problemas y aprender. En todos caso, dos o cuatro décadas es mucho menos tiempo que los 100.000 años que pasaron entre el Homo habilis y el Homo erectus.

Lo que si debemos tener claro es que la inteligencia artificial está por donde quiera y día a día define cada vez más nuestro futuro.  La producción masiva de maquinas inteligentes es una realidad.  Cuando jugamos un video juego o buscamos información en Internet estamos haciendo uso de IA.  Debemos trasladarnos del punto A al B y le pedimos a nuestro GPS que nos guie, estamos haciendo uso de IA.  La semana pasada, en el Estado de California, EEUU, autorizaron un programa piloto con carros que no necesitan de las habilidades de un conductor, ellos se manejan solos y ya están en las calles. Otro ejemplo: Romeo es un robot humanoide de 13,8 millones de dólares. Fue desarrollado por la fabricante francesa Aldebaran y programado para cuidar y ayudar a personas mayores en las tareas de la casa.

Algo muy en nuestras manos son los teléfonos móviles. A finales de 2014 se estima que 1.75 millardos de personas posean teléfonos inteligentes, 24,4% de la población mundial.  Estos aparatos, entre otras cosas, ya han aprendido como su dueño escribe y se anticipan a lo que el usuario está pensando escribir. No hablemos de las múltiples aplicaciones que podemos bajar en estas computadoras móviles, cada vez más pequeñas, livianas y de gran capacidad de procesamiento y almacenamiento de data. Ya los requisitos de acceso a nuestra data es casi que obligatoria para poder instalar algunas de ellas. Imagínense la cantidad de data que se está acumulando acerca de nuestras vidas sin nosotros saberlo.

Expertos en el campo de IA creen firmemente que algún día las maquinas tomarán el poder. Esperemos que nuestro futuro no sea como el de Galáctica. Aunque debo reconocer que la serie tuvo un final feliz, pues para preservarse ambas razas deciden cohabitar y crecer juntas. En la actualidad, esta última idea se maneja en laboratorios tanto académicos como industriales de los EEUU. Dentro de poco los robots dejaran de parecerse a robots y se parecerán mas a nosotros. Los nuevos estándares de diseño y desarrollo así lo sugieren.

Pero ¿a que nos dedicaremos los seres humanos cuando todo esto suceda?  La respuesta queda pendiente. Esas maquinas podrán trabajar 24 horas 7 días a la semana sin necesidad de comer o dormir. ¿Será que no haremos nada en la mañana, descansaremos en la tarde y dormiremos de noche? ¿Desapareceremos? Pensar que poseemos la mejor y más compleja computadora que existe, solo pesa 1,4 Kg, y en vez de estudiar como explotar toda su potencialidad hacemos esfuerzos para desarrollar otras.

 En tres películas diferentes pasamos de un androide que quiere amar y se auto programa para ello, otro que es programado para amar logrando su objetivo con éxito y terminamos con toda una generación de robots que odia a sus creadores al punto de querer dominarlos. Muy cercanas a la realidad, las películas nos dan ejemplos de los éxitos y fracasos que ha tenido la humanidad en su deseo de hacer máquinas inteligentes.  A una velocidad asombrosa, casi mágica para algunos, la inteligencia artificial ha logrado hacer realidad todo aquello que pensamos era pura ciencia ficción.

Queda para su reflexión responderse la pregunta sobre si estamos jugando a ser Dios. El nos hizo a su imagen y semejanza…

Contreras Oswaldo

Inteligencia Artificial: Tema de Portada

0 Banner Portada

Inteligencia Artificial 01Una aproximación puede ser: la Inteligencia Artificial es un área de la ciencia, ayudada hoy en día por la informática, la lógica y la filosofía, que se encarga de estudiar la creación y diseño de entidades capaces de razones por sí mismas, basándose en el desarrollo de algoritmos que tratan de reproducir el razonamiento humano.

Actualmente hay muchos ejemplos de aplicación de la Inteligencia Artificial en diversas áreas de la investigación, de la medicina, de la ingeniería, de la rama militar, y hasta en video juegos.

Hay teóricos que establecen cuatro categorías de Inteligencia Artificial:

categorias de IA

Cuando escuchamos hablar del tema, generalmente lo asociamos a Robots y Computadoras que hablan, pero nos daremos cuenta que el término engloba mucho más que eso. La Inteligencia Artificial abarca diversas ramas, como son: algoritmos genéticos, bioingeniería, biomedicina, lingüística computacional, lógica difusa, mecatrónica, minería de datos, mundos virtuales, procesamiento de lenguaje natural, reconocimiento óptico de caracteres, robótica, sistemas basados en conocimientos (anteriormente conocidos como Sistemas Expertos), sistemas para la toma de decisiones, videojuegos, entre tantas otras. Algo tan cotidiano, como lo es efectuar una marcación de un número de teléfono por voz en nuestro teléfono celular, hasta robots que pueden llevar a cabo cirugías en el cuerpo humano, es parte de la Inteligencia Artificial. Y a veces hasta en nuestra lavadora o en alguna que otra consulta que hagamos en internet o en nuestra empresa, usa también la Inteligencia Artificial.

En este número de la edición aniversaria, se van a reseñar los siguientes temas:

  • Inteligencia Artificial: ¿Ciencia o Ficción?
  • BioInformática
  • Lógica Difusa
  • Minería de Datos
  • Procesamiento de Lenguaje Natural
  • Redes Neuronales
  • Robótica
  • Sistemas basados en Conocimiento

Año 02 Número 01: Inteligencia Artificial

Portada DTyOC 02 01

Editorial

Luis CastellanosNormalmente trato de ser muy breve y conciso en la Editorial, para introducir a los lectores al contenido de cada edición de la Revista Digital “DTyOC”. Sin embargo, quiero extenderme un poco más en la edición de octubre, porque representa nuestra primera edición Aniversaria. Hace un año salió publicada en línea el primer número de la Revista, y viendo hacia atrás parece mentira todo el esfuerzo que nuestro equipo todo ha llevado a cabo en las pasadas doce (12) ediciones. Por doce (12) meses se ha reunido a un selecto grupo de docentes e investigadores, para poder ofrecer al lector un producto de calidad, con información concisa y precisa.

Una de las características de esta publicación es precisamente que los artículos de portada no tienen más de dos (2) páginas, y las columnas son de una (1) página.  Corto y preciso. Para que los lectores tengan una idea del tema que se está presentando.

Se trató de hacer una selección bien amplia de temas relacionados con la Tecnología, y con la Tecnología de Información, agrupando normalmente siete (7) subtemas o productos en cada tema de portada. Siempre recuerdo cuando me decían en clases de Teoría de Sistemas que siete es el número máximo de cosas que podemos memorizar y visualizar, sin mucho esfuerzo.

Quiero aprovechar para expresar mis más sentidas palabras de gratitud a todos aquellos que de una u otra manera hicieron lo posible por colaborar con la revista, y aportar un poco de su conocimiento, esfuerzo y trabajo, para poder llevar hacia adelante este proyecto.  No puedo dejar pasar la oportunidad de rendirle tributo a Germán Añez, quien falleció el año pasado, y que llevaba la columna de “Cocinando Ando”, con unas deliciosas recetas de cocina zuliana. Paz a sus restos.

Como tema aniversario, nos pareció adecuado un tema profundo e importante, como lo es la Inteligencia Artificial.

Como de costumbre, se presentan las columnas habituales, donde se podrá leer acerca de la vida de Isaac Asimov en “Quién es Quién”, Econometría en “Economía para Principiantes”, acerca del Vino en “Ensalada de Ideas”, Consejos al compartir en las Redes fotos de tus hijos en “Seguridad Informática”, Bibliotecas Escolares y las TICs en el “Rincón de las TICs”, el Juego de la Oca del Futuro en la columna “Y otras cosas”, de la Ciudad y sus Texturas en “Merodeando desde la Arquitectura”, “Vía Saludable” acerca de los beneficios de la corteza de la naranja, y muchas novedades en “Simplemente Tecnología”.

Coordinación General y Edición: Luis Castellanos H.

Tabla de Contenidos: Tema de Portada

0 Banner Portada

Tabla de Contenidos: Columnas Fijas

DTyOC en ISSUU (2)(Haga click en el banner para leer la Revista)

Complementos:

¿Deberíamos temer la llegada de la Inteligencia Artificial?

¿Puede realmente el Test de Turing distinguir un robot de un humano?

Saldrá a la venta robot ‘con corazón’ en Japón

Gmail: Redes neuronales artificiales filtran mejor el spam

Investigando sobre los riesgos de la Inteligencia Artificial

Este guante ayuda a la gente a recuperar sus habilidades motoras tras un derrame cerebral

Inteligencia artificial para medir la felicidad y mejorar el desempeño laboral


 La primera “muñeca para adultos” con inteligencia artificial



Banner De todo un Poco (1) 600 px

A %d blogueros les gusta esto: