Interacción humano-robot [ editar ]
El estado del arte en inteligencia sensorial para robots tendrá que progresar en varios órdenes de magnitud si queremos que los robots que trabajan en nuestros hogares vayan más allá de la limpieza con aspiradora de los pisos. Si los robots deben trabajar de manera efectiva en los hogares y otros entornos no industriales, la forma en que se les instruye para que realicen su trabajo y, especialmente, cómo se les pedirá que paren tendrá una importancia crítica. Las personas que interactúan con ellos pueden tener poca o ninguna capacitación en robótica, por lo que cualquier interfaz deberá ser extremadamente intuitiva. Los autores de ciencia ficción también suelen asumir que los robots serán capaces de comunicarse con los humanos a través del habla , los gestos y las expresiones faciales , en lugar de una interfaz de línea de comandos.. Aunque el habla sería la forma más natural para que el humano se comunique, no es natural para el robot. Probablemente pasará mucho tiempo antes de que los robots interactúen tan naturalmente como el C-3PO ficticio , o Data of Star Trek, Next Generation .
Reconocimiento de voz [ editar ]
Interpretar el flujo continuo de sonidos provenientes de un humano, en tiempo real , es una tarea difícil para una computadora, principalmente debido a la gran variabilidad del habla . [115] La misma palabra , pronunciada por la misma persona puede sonar diferente según la acústica local , el volumen , la palabra anterior, si el orador tiene un resfriado , etc. Se vuelve aún más difícil cuando el hablante tiene un acento diferente . [116]Sin embargo, se han logrado grandes avances en el campo desde que Davis, Biddulph y Balashek diseñaron el primer "sistema de entrada de voz" que reconoció "diez dígitos hablados por un solo usuario con el 100% de precisión" en 1952. [117] Actualmente, el mejor Los sistemas pueden reconocer el habla continua y natural, hasta 160 palabras por minuto, con una precisión del 95%. [118] Con la ayuda de la inteligencia artificial, las máquinas de hoy en día pueden usar la voz de las personas para identificar sus emociones, como satisfecho o enojado [119]
Voz robótica [ editar ]
Existen otros obstáculos cuando se permite que el robot use la voz para interactuar con los humanos. Por razones sociales, la voz sintética resulta subóptima como medio de comunicación, [120] por lo que es necesario desarrollar el componente emocional de la voz robótica a través de varias técnicas. [121] [122] Una ventaja de la ramificación difónica es la emoción que el robot está programado para proyectar, se puede llevar en la cinta de voz o fonema, ya preprogramado en los medios de voz. Uno de los primeros ejemplos es un robot de enseñanza llamado leachim desarrollado en 1974 por Michael J. Freeman . [123] [124] Leachim pudo convertir la memoria digital a un discurso verbal rudimentario en discos de computadora pregrabados.[125] Estaba programado para enseñar a estudiantes en el Bronx, Nueva York . [125]
Gestos [ editar ]
Uno puede imaginar, en el futuro, explicarle a un chef de robots cómo hacer una pasta, o pedirle instrucciones a un oficial de policía de robots. En ambos casos, hacer gestos con las manos ayudaría a las descripciones verbales. En el primer caso, el robot reconocería los gestos realizados por el humano y tal vez los repitiera para confirmarlos. En el segundo caso, el oficial de policía del robot haría un gesto para indicar "en el camino, luego gire a la derecha". Es probable que los gestos formen parte de la interacción entre humanos y robots. [126] Se han desarrollado una gran cantidad de sistemas para reconocer los gestos de las manos humanas. [127]
Expresión facial [ editar ]
Las expresiones faciales pueden proporcionar una retroalimentación rápida sobre el progreso de un diálogo entre dos humanos, y pronto podrán hacer lo mismo para humanos y robots. Hanson Robotics ha construido caras robóticas con su polímero elástico llamado Frubber , que permite un gran número de expresiones faciales debido a la elasticidad del recubrimiento facial de goma y los motores subsuperficiales integrados ( servos ). [128] El recubrimiento y los servos están construidos sobre un cráneo de metal . Un robot debe saber cómo acercarse a un humano, a juzgar por su expresión facial y su lenguaje corporal . Si la persona está feliz, asustada o de aspecto loco, afecta el tipo de interacción que se espera del robot. Igualmente, a los robots les gusta.Kismet y la adición más reciente, Nexi [129] pueden producir una variedad de expresiones faciales, lo que le permite tener intercambios sociales significativos con los humanos. [130]
Emociones artificiales [ editar ]
También se pueden generar emociones artificiales, compuestas por una secuencia de expresiones faciales y / o gestos. Como puede verse en la película Final Fantasy: The Spirits Within , la programación de estas emociones artificiales es compleja y requiere una gran cantidad de observación humana. Para simplificar esta programación en la película, los ajustes preestablecidos se crearon junto con un programa de software especial. Esto disminuyó la cantidad de tiempo necesario para hacer la película. Estos ajustes preestablecidos podrían transferirse para su uso en robots de la vida real.
Personalidad [ editar ]
Muchos de los robots de la ciencia ficción tienen una personalidad , algo que puede o no ser deseable en los robots comerciales del futuro. [131] Sin embargo, los investigadores están intentando crear robots que parecen tener una personalidad: [132] [133] es decir, usan sonidos, expresiones faciales y lenguaje corporal para tratar de transmitir un estado interno, que puede ser alegría, tristeza, o miedo Un ejemplo comercial es Pleo , un dinosaurio robot de juguete, que puede exhibir varias emociones aparentes. [134]
Inteligencia social [ editar ]
El Laboratorio de Máquinas Socialmente Inteligentes del Instituto de Tecnología de Georgia investiga nuevos conceptos de interacción de enseñanza guiada con robots. El objetivo de los proyectos es un robot social que aprende tareas y objetivos de demostraciones humanas sin conocimiento previo de conceptos de alto nivel. Estos nuevos conceptos se basan en datos de sensores continuos de bajo nivel a través de aprendizaje no supervisado , y los objetivos de la tarea se aprenden posteriormente utilizando un enfoque bayesiano. Estos conceptos se pueden utilizar para transferir conocimientos a tareas futuras, lo que resulta en un aprendizaje más rápido de esas tareas. Los resultados son demostrados por el robot Curi, que puede recoger un poco de pasta de una olla en un plato y servir la salsa encima. [135]
Control [ editar ]
Esta sección no cita ninguna fuente . ( Julio de 2009 ) ( Aprenda cómo y cuándo eliminar este mensaje de plantilla )
|
La estructura mecánica de un robot debe ser controlada para realizar tareas. El control de un robot implica tres fases distintas: percepción, procesamiento y acción ( paradigmas robóticos ). Los sensoresproporcionan información sobre el entorno o el propio robot (por ejemplo, la posición de sus uniones o su efector final). Esta información luego se procesa para ser almacenada o transmitida y para calcular las señales apropiadas a los actuadores ( motores ) que mueven el mecánico.
La fase de procesamiento puede variar en complejidad. A un nivel reactivo, puede traducir la información sin procesar del sensor directamente a los comandos del actuador. La fusión del sensor sepuede usar primero para estimar los parámetros de interés (por ejemplo, la posición de la pinza del robot) a partir de datos ruidosos del sensor. Una tarea inmediata (como mover la pinza en una dirección determinada) se deduce de estas estimaciones. Las técnicas de la teoría de control convierten la tarea en comandos que impulsan los actuadores.
En escalas de tiempo más largas o con tareas más sofisticadas, el robot puede necesitar construir y razonar con un modelo "cognitivo". Los modelos cognitivos intentan representar al robot, al mundo y cómo interactúan. El reconocimiento de patrones y la visión por computadora se pueden usar para rastrear objetos. Las técnicas de mapeo se pueden utilizar para construir mapas del mundo. Finalmente, la planificación del movimiento y otras técnicas de inteligencia artificial pueden usarse para descubrir cómo actuar. Por ejemplo, un planificador puede descubrir cómo lograr una tarea sin golpear obstáculos, caerse, etc.
Niveles de autonomía [ editar ]
Los sistemas de control también pueden tener diferentes niveles de autonomía.
- La interacción directa se utiliza para dispositivos hápticos o teleoperados, y el humano tiene un control casi completo sobre el movimiento del robot.
- Los modos de asistencia al operador tienen al operador al mando de tareas de nivel medio a alto, con el robot descubriendo automáticamente cómo lograrlas.
- Un robot autónomo puede ir sin interacción humana durante largos períodos de tiempo. Los niveles más altos de autonomía no necesariamente requieren capacidades cognitivas más complejas. Por ejemplo, los robots en las plantas de ensamblaje son completamente autónomos pero operan en un patrón fijo.
Otra clasificación tiene en cuenta la interacción entre el control humano y los movimientos de la máquina.
- Teleoperación . Un humano controla cada movimiento, cada cambio de actuador de la máquina está especificado por el operador.
- De supervisor. Un humano especifica movimientos generales o cambios de posición y la máquina decide movimientos específicos de sus actuadores.
- Autonomía a nivel de tarea. El operador especifica solo la tarea y el robot se las arregla para completarla.
- Plena autonomía. La máquina creará y completará todas sus tareas sin interacción humana.
Investigación [ editar ]
Gran parte de la investigación en robótica no se centra en tareas industriales específicas, sino en investigaciones sobre nuevos tipos de robots , formas alternativas de pensar o diseñar robots y nuevas formas de fabricarlos. Otras investigaciones, como el proyecto cyberflora del MIT , son casi totalmente académicas.
Una primera innovación nueva en el diseño de robots es el suministro abierto de proyectos de robots. Para describir el nivel de avance de un robot, se puede utilizar el término "Robots de generación". Este término es acuñado por el profesor Hans Moravec , científico investigador principal del Instituto de Robótica de la Universidad Carnegie Mellon, que describe la evolución futura de la tecnología robótica. Los robots de primera generación , predijo Moravec en 1997, deberían tener una capacidad intelectual comparable a la de un lagarto y deberían estar disponibles para 2010. Como el robot de primera generación sería incapaz de aprender , Moravec predice que la segunda generaciónEl robot sería una mejora con respecto al primero y estaría disponible para 2020, con la inteligencia tal vez comparable a la de un mouse . El robot de tercera generación debe tener la inteligencia comparable a la de un mono . Aunque los robots de cuarta generación , robots con inteligencia humana , predice el profesor Moravec, no lo harán antes de 2040 o 2050. [137]
El segundo es robots evolutivos . Esta es una metodología que utiliza la computación evolutiva para ayudar a diseñar robots, especialmente la forma del cuerpo o los controladores de movimiento y comportamiento . De manera similar a la evolución natural , una gran cantidad de robots puede competir de alguna manera, o su capacidad para realizar una tarea se mide utilizando una función de aptitud. Los que tienen peor desempeño son removidos de la población y reemplazados por un nuevo conjunto, que tiene nuevos comportamientos basados en los de los ganadores. Con el tiempo, la población mejora, y eventualmente puede aparecer un robot satisfactorio. Esto sucede sin ninguna programación directa de los robots por los investigadores. Los investigadores utilizan este método para crear mejores robots [138] y para explorar la naturaleza de la evolución. [139] Debido a que el proceso a menudo requiere la simulación de muchas generaciones de robots, [140] esta técnica puede ejecutarse en su totalidad o principalmente en simulación , utilizando un paquete de software de simulador de robot , y luego probarse en robots reales una vez que los algoritmos evolucionados sean lo suficientemente buenos. [141]Actualmente, hay alrededor de 10 millones de robots industriales que trabajan en todo el mundo, y Japón es el país con mayor densidad de robots en su industria manufacturera. [ cita requerida ]
La dinámica y la cinemática [ editar ]
Cómo funciona el juguete de esfero BB-8 |
El estudio del movimiento se puede dividir en cinemática y dinámica . [142] La cinemática directa se refiere al cálculo de la posición, la orientación, la velocidad y la aceleración del efector final cuando se conocen los valores conjuntos correspondientes. La cinemática inversa se refiere al caso opuesto en el que los valores de unión requeridos se calculan para los valores del efector final dado, como se hace en la planificación de la trayectoria. Algunos aspectos especiales de la cinemática incluyen el manejo de la redundancia (diferentes posibilidades de realizar el mismo movimiento), evitar colisiones y evitar la singularidad . Una vez que todas las posiciones, velocidades y aceleraciones relevantes se han calculado utilizandoLa cinemática , los métodos del campo de la dinámica se utilizan para estudiar el efecto de las fuerzas sobre estos movimientos. La dinámica directa se refiere al cálculo de las aceleraciones en el robot una vez que se conocen las fuerzas aplicadas. La dinámica directa se utiliza en simulaciones por ordenador del robot. La dinámica inversa se refiere al cálculo de las fuerzas del actuador necesarias para crear una aceleración prescrita del efector final. Esta información se puede utilizar para mejorar los algoritmos de control de un robot.
En cada área mencionada anteriormente, los investigadores se esfuerzan por desarrollar nuevos conceptos y estrategias, mejorar los existentes y mejorar la interacción entre estas áreas. Para hacer esto, se deben desarrollar e implementar criterios para un rendimiento "óptimo" y formas de optimizar el diseño, la estructura y el control de los robots.
Biónica y la biomimética [ editar ]
La biónica y la biomimética aplican la fisiología y los métodos de locomoción de los animales al diseño de robots. Por ejemplo, el diseño de BionicKangaroo se basó en la forma en que saltan los canguros.
La computación cuántica [ editar ]
Se ha investigado si los algoritmos de robótica se pueden ejecutar más rápidamente en computadoras cuánticasque en computadoras digitales . Esta área ha sido referida como robótica cuántica.
No hay comentarios:
Publicar un comentario