martes, 25 de agosto de 2015

Inteligencia artificial

Inteligencia Sintética (SI) es un término alterno de inteligencia artificial el cual enfatiza que la inteligencia de las máquinas no tiene que ser una imitación o de cualquier manera artificial; puede ser una forma de inteligencia auténtica.1 2 John Haugeland propuso una analogía con diamantes de imitación y Diamante de imitación, solo el diamante sintético es un diamante de verdad.1 Sintético se refiere a lo que es producido por síntesis; combinando partes para formar un todo, coloquialmente, una versión hecha por el hombre la cual ha surgido de forma natural. Tal como se define, la "inteligencia sintética" sería hecha por el hombre, pero no una simulación.
El término fue usado por Haugeland en 1986 para describir la investigación hasta ese punto de la inteligencia artificial,1 la cual llamó"inteligencia artificial simbólica" o "IAS"(GOFAI, por sus siglas en inglés). La primera generación de investigadores de inteligencia artificial creyeron firmemente que sus técnicas podrían llegar a lo real, inteligencia humana en máquinas.3 Después del invierno IA, muchos investigadores decidieron enfocarse en buscar soluciones para problemas específicos individuales, como Aprendizaje automático, en vez de IA Fuerte. Este enfoque a la IA es mencionado por algunas fuentes populares como "IA débil" o "IA aplicado".4 El término "inteligencia sintética" es usada por investigadores en este campo para separar su trabajo usando subsimbólicaTeoría Psicoanalítica, u otros métodos relativamente nuevos para definir y crear "verdadera" inteligencia de intentos previos, particularmente de IAS o IA débil5 6
Varias fuentes están en desacuerdo sobre exactamente que constituye la inteligencia "real" en oposición a la inteligencia “simulada” y por lo tanto, si hay una diferencia significativa entre la inteligencia artificial y la inteligencia sintética, Russel y Norvig nos presentan este ejemplo: 7
  1. "¿Las máquinas pueden volar?" La respuesta es sí, porque los aviones vuelan.
  2. "¿Las máquinas pueden nadar?" Las respuesta es no, porque los submarinos no nadan.
  3. "¿Las máquinas pueden pensar?" Esta pregunta es como la primera, o como la segunda?
Drew McDermott creía firmemente que "pensar" deberia ser interpretado como "volar". Mientras al discutír del campeón de ajedrez Deep Blue, el argumentaba que "Si dijeramos que Deep Blue realmente no piensa sobre el ajedrez es como decir que una avión realmente no vuelva por que no aletea sus alas."8 Edsger Dijkstra concuerda que muchos encuentran la pregunta de si las máquinas pueden pensar, como relevante o como la pregunta de si los submarinos pueden nadar.9
John Searle, en otra parte, sugiere que una máquina pensante es, a lo mucho, una simulación, y él escribe que "ninguno supone que 5 simulaciones por computadora de unas alarmas de incendio van a quemar el vecindario o que la simpulación de una tormenta nos dejara empapados."10 La diferencia esencial entre una mente simulada y una real es una de los puntos clave de su argumento de la Habitación China.
Daniel Dennett creía que esto es básicamente un desacuerdo sobre semántica y que es periférico a las preguntas centrales de Filosofía de la inteligencia Artificial.Él nota que aun cuando se crea una imitación química perfecta de Chateau Latour, aun es falsa, pero que cualquier Vodka es real, no importa quien lo creó.11 Similarmente, una perfecta recreación de Picasso podría ser considerada como "Falso", pero que cualquier imagen del logo de Coca-Cola es completammente real y and sujeto a marcar registradas. Russell y Norvig comentaron "nosotros podemos concluir en algunos casos, el comportamiento de un artefacto es importante, mientras en otros lo que importa es el pedigrí del artefacto. Pero para mentes artificiales, no hay convención".



La expresión “inteligencia artificial” (abreviada IA) suele aplicarse a la reproducción de los complejos procesos cognitivos que caracterizan al comportamiento del hombre, con el fin de volver más útiles a los sistemas informáticos. 

Pero, a pesar de que esta disciplina ha sido capaz de imitar eficientemente algunas de las funciones “superiores” de la inteligencia humana como el razonamiento, la resolución de problemas, la toma de decisiones y la manipulación y el almacenamiento de enormes cantidades de datos; todavía no pudo duplicar el sentido común de un niño de corta edad ni la capacidad sensomotora de un vulgar insecto. 

Y es justamente la ausencia de esta última habilidad lo que limita su capacidad de desarrollo. De la misma forma que la mente de un niño seguramente se atrofiaría de modo irreversible si fuese encerrado en una celda sin contacto con el mundo, la ausencia de comunicación directa con la realidad exterior de los sistemas de IA -hasta ahora- no les ha permitido desarrollar todo su potencial. 

Lo deseable y lo posible 

A fin de que participen activamente del “mundo humano”, se necesitaría que las máquinas puedan reconocer su entorno, aceptando información en formatos muy variados y no sólo estandarizados. 

En el caso de los animales -y fundamentalmente en el homo sapiens- la entrada de información se verifica a través de sus sentidos; por este motivo, habría que conferirles a las máquinas sistemas sensoriales equivalentes y potenciar su interacción con el hombre. 

Aunque todavía en una situación incipiente, los dispositivos análogos a los sentidos humanos comienzan a estar presentes en las máquinas, tornándolas mucho más efectivas. De esta manera, las “computadoras inteligentes” ya pueden conversar con personas en lenguaje natural y reconocer la escritura manual o las imágenes, aunque dentro de un entorno muy restringido, acotado, específico, limitado. 

Por ejemplo, estas máquinas pueden reconocer la voz humana, pero es necesario hablarles con una entonación correcta; también pueden sintetizar voces en varios idiomas, con diferentes entonaciones fonéticas (hombre o mujer, niño o viejo), y en diferentes estados psicológicos (irritación, ansiedad, o miedo, entre otros), aunque sus registros sonoros carecen de la calidez típicamente humana. 

Incluso, son capaces de traducir frases simples, pero se descarrilan por modismos, metáforas o expresiones no gramaticales. Asimismo logran distinguir imágenes y reconocer objetos diseñados, siempre y cuando estén claramente resaltados del fondo. 

La comprensión 

La comprensión tiene lugar por referencia al mundo; es mucho más fácil saber de qué se habla o qué se ve si se tienen incorporados conocimientos generales de sentido común y conocimientos específicos propios del dominio que se encara. 

Por ejemplo, si alguien dice: “Jorge va al supermercado. Hoy es el cumpleaños de Luis”, es muy difícil deducir de manera lógica -si no se cuenta con un conocimiento general acerca del mundo- que normalmente se le hace un regalo a la persona que cumple años y que los regalos pueden comprarse en los supermercados. 

Estas respuestas no están explícitas en la frase, ni siquiera en forma implícita. Igualmente, el sistema debería ser capaz de establecer algunas referencias temporales, deduciendo que primero hay que ir al supermercado y sólo después al cumpleaños; así como inferir que Jorge y Luis mantienen una estrecha relación de amistad. 

De manera análoga, oraciones tales como “el cuaderno está dentro del cajón” y “el cajón está dentro del cuaderno”, que un traductor mecánico literal confundiría completamente, se traducen con suma facilidad por una persona que tiene incorporado un modelo de mundo en el cual, obviamente, los cuadernos se guardan dentro de los cajones. 

O, en el caso del reconocimiento de imágenes, por ejemplo en una fotografía satelital, un pequeño rectángulo puede interpretarse como una vivienda, pero también como un automóvil. 

Sin embargo, un conocimiento más global de la situación permite inferir que un rectangulito que se encuentra ubicado en un área relativamente estrecha y larga tiene muchas chances de ser un automóvil. 

El conocimiento es poder 

El empleo de sensores supone una ventaja considerable para las inteligencias artificiales, ya que tienen mayor sensibilidad y precisión que los sistemas sensoriales del hombre. Incluso pueden medir variables extrañas a éste, como las radiaciones energéticas o concentraciones de sustancias químicas. No obstante, para interactuar adecuadamente con el mundo real en general, y con el ser humano en particular, se necesita algo más que simples sensores. 

Las personas nacen con sistemas sensoriales apropiados para recibir señales, con un cerebro adecuado para procesarlas y adquieren rápidamente el conocimiento necesario para comprenderlas. Pero nacen sabiendo muy poco y sólo después de bastante tiempo logran aprender a construir una casa, a diseñar un automóvil o a diagnosticar una enfermedad; para ello se precisa acumular suficientes conocimientos durante muchos años. 

Aparentemente la destreza (o la inteligencia, si se quiere) no depende tanto de los métodos de razonamiento, como se creía antes, sino fundamentalmente de la capacidad de utilizar -en formas diferentes- grandes cantidades de conocimientos, de varios tipos. Pero la mera acumulación de información no sirve; lo verdaderamente útil es la competencia para actuar, para saber aplicar ese conocimiento. Pero para eso, uno debe “interiorizarlo”, a fin de que pase a formar parte de uno mismo. 

Inconvenientes 

El problema del conocimiento humano es que es -en gran parte- implícito, tácito e intuitivo, fruto de la integración de las percepciones, de la cultura y de la información contenida en su material genético. Guardarlo no es lo difícil; lo complicado es poder adquirirlo, representarlo y organizarlo adecuadamente. 

Otro problema adicional es que no es estático, ya que se modifica con el transcurso del tiempo. En efecto, la experiencia directa transforma a la persona, moldeando su estructura de conocimientos y sus esquemas de pensamiento. Es necesario encontrar formas adecuadas para actualizar todo el “saber”, para que la nueva pieza de información “fluya en cascada” a lo largo de la vasta red de conocimientos interconectados. 

Para que un sistema artificial sea considerado inteligente tendría que ser capaz de mejorar su comportamiento de forma incremental, tanto aceptando consejos del usuario como aprendiendo a partir de su propia experiencia. 

Por último, está el problema de la extracción de la información pertinente; es decir, distinguir lo crucial de lo trivial. La red de conocimientos debe estar organizada de manera tal que el sistema no sólo pueda encontrar cada elemento de información con facilidad, sino también que tenga alguna forma de saber qué hechos pueden ser concernientes para ayudar a resolver el problema en cuestión. 

Experiencias personales 

Para algunos investigadores, en vez de tener un modelo del mundo programado dentro de la máquina, es mejor que ésta lo pueda adquirir a través de su propia “experiencia perceptiva”. 

Según el filósofo americano Hubert Dreyfus, sin un cuerpo material no se puede hablar de inteligencia general. En el ser humano, ésta se asienta sobre un organismo, un cuerpo que es extremadamente complejo: tiene percepciones, sentimientos y emociones desarrolladas a lo largo de millones de años de evolución. 

Sin embargo, el acercamiento que predominó -hasta ahora- fue el de una inteligencia artificial descorporizada; es decir, máquinas sin cuerpo, aunque quizás puedan llegar a alcanzar la capacidad de razonamiento humana… o aun sobrepasarla holgadamente. 

Nuevo enfoque 

El enfoque basado en agentes considera que una inteligencia auténtica y genuina sólo es posible si el agente físico a) “está corporizado” (tiene un cuerpo y experimenta el entorno de manera directa), b) “está situado” (está inmerso dentro de un entorno tanto físico como social) y c) “desarrolla un proceso epigenético” (va desarrollando complejas estructuras cognitivas que emergen como resultado de su interacción dentro de un entorno físico y social). 

Para interactuar con el medio ambiente el agente debe ser capaz de percibir, razonar y actuar. En otras palabras, debe poseer adecuados sensores que le permitan recolectar información (percibir); tiene que ser capaz de convertir esa información en conocimiento y poder utilizarlo para alcanzar sus objetivos (razonar); y debe disponer de apropiados efectores que le permitan modificar el entorno (actuar). 

Sin embargo, existe la posibilidad de que estas entidades emprendan el camino hacia una “evolución artificial”, tomando a su cargo su propia evolución. Sin duda, sería mucho más rápida que la biológica, ya que las nuevas generaciones de máquinas surgen muy deprisa. En consecuencia, habría que ir pensando en los mecanismos adecuados para evitar que escapen completamente del control humano… 











Action description language (ADL), en el campo de la inteligencia artificial, es un lenguaje de planificación automática, particularmente diseñado para robots. Se considerá una mejora de STRIPS. Pednault propuso este idioma en 1987.- ............................................:https://es.wikipedia.org/w/index.php?title=Action_description_language&printable=yes



Un agente inteligente, es una entidad capaz de percibir su entorno, procesar tales percepciones y responder o actuar en su entorno de manera racional, es decir, de manera correcta y tendiendo a maximizar un resultado esperado. Es capaz de percibir su medioambiente con la ayuda de sensores y actuar en ese medio utilizando actuadores (elementos que reaccionan a un estímulo realizando una acción).- ...........................................................:https://es.wikipedia.org/w/index.php?title=Agente_inteligente_(inteligencia_artificial)&printable=yes

Agentes Inteligentes

Para Russell y Norvig un agente es cualquier cosa capaz de percibir su medioambiente mediante sensores y actuar en ese medio mediante actuadores. Todo agente tiene una función u objetivo. Por ejemplo, un agente humano de bolsa tiene el objetivo de comprar y vender acciones respondiendo a los estímulos iniciados por su cliente y captados por sus sentidos. Una aspiradora tiene la función de aspirar cuando capta que ha sido encendida y no aspirar cuando es apagada.
Un agente inteligente ó racional trata de maximizar el valor de una medida de rendimiento, dada la secuencia de percepciones que ha observado hasta el momento.
Repitamos lo dicho ejemplificándolo. Un agente inteligente tiene un objetivo abstracto (ej: "ofrecer a un usuario información interesante"), tiene una forma de evaluar si esa información es interesante (ej: "el usuario lee la información sugerida"), tiene unos actuadores (ej: "una caja html donde presenta enlaces interesantes") y tiene unos sensores (ej: "un conjunto de sitios web para recoger información y filtrar la que sea interesante y el conjunto de clicks que puede hacer ó no el usuario de todos esos sitios web"). La pregunta ahora es ¿cómo mejorar ese rendimiento?.
Para Peter Norvig la programación estructurada tiene asociadas las aplicaciones basadas en entrada/salida, la programación orientada a objetos las aplicaciones basadas en eventos y la programación adaptativa las aplicaciones basadas en agentes inteligentes. Es decir, la respuesta a nuestra pregunta es usamos aprendizaje automático para mejorar el rendimiento.
No obstante, el deseo de desarrollar software adaptativo no es la única razón para utilizar una metodología de programación orientada a agentes. Los agentes tienen su campo de cultivo en la Inteligencia Artificial Distribuida (IAD) que, como su nombre indica, es la rama de la Inteligencia Artificial que trata de resolver de manera distribuida sus problemas, aprovechando así las ventajas propias de la programación distribuida: robustez, paralelismo y escalabilidad.
Desde un punto de vista de ingeniería de software este paradigma también supone una evolución a las necesidades de reutilización y encapsulamiento del código. Partiendo de la programación orientada a objetos, el mundo está compuesto por elementos llamados objetos que tienen atributos a los que es posible aplicarles métodos y estos pueden abstraerse a clases y estas clases pueden abstraerse en otras clases de las que heredan métodos y/o atributos ó de las que se componen. Sin embargo, este modelo del mundo es incompleto, pues en el mundo también existen agentes con capacidades de aprendizaje y autonomía.
También podemos usar agentes inteligentes para entender mejor el conocimiento ó para poder hacer simulación.

Pantallazo de jade en ejecución
Hay bastante software denominado como software de agentes para gnu/linux, sin embargo, no siempre se entiende la filosofía de agentes que subyace. La herramienta para desarrollar agentes más extendida y utilizada es JADE gracias a sus buenas herramientas gráficas, documentación, soporte, licencia LGPL, ... por desgracia para quienes no queremos caer en la "Trampa de Java" requiere JDK 1.4 ó posteriores.
Para ampliar información acerca de teoría de agentes recomiendo: Multiagent Systems: A Survey from a Machine Learning Perspective. Aunque leer Adaptive Software es un excelente complemento que aclara muchas ideas.
Tal vez este apartado no debería estar en este artículo, ya que no hay una aplicación práctica a los agentes inteligentes, debido a que es una cuestión más metodológica que facilita, entre otras cosas, poder hacer adaptación.

No hay comentarios:

Publicar un comentario