La inteligencia artificial mmc
¿Quieres reaccionar a este mensaje? Regístrate en el foro con unos pocos clics o inicia sesión para continuar.

Ir abajo
avatar
Admin
Admin
Mensajes : 14
Fecha de inscripción : 27/10/2017
https://medinacm.activo.mx

¿Pueden los robots interpretar nuestras emociones? Empty ¿Pueden los robots interpretar nuestras emociones?

Lun Nov 06, 2017 7:51 pm
Algunos robots cuentan con cámaras capaces de captar nuestros gestos y algoritmos de aprendizaje que les permiten intuir nuestro estado de ánimo.
Interpretar las emociones de una persona a partir de sus gestos, su postura, su entonación o su expresión es difícil hasta para los humanos, evolucionados para captar los menores detalles y microexpresiones durante una charla. Suponer que un robot puede hacer lo mismo con nuestro nivel tecnológico actual es osado. Pero damos pasos en esa dirección.

En 2015, la firma japonesa SoftBank Robotics lanzó Pepper, un androide que intuye por el tono de voz si quien le habla está enfadado, triste o alegre. No solo detecta estas emociones y el significado de ciertas posturas, sino que también las emula combinando la voz, el movimiento ocular y determinados giros de cabeza. Pese a su precio –además de un pago inicial de casi 2.000 euros, es necesario abonar 200 más durante 36 meses para cubrir el seguro, actualizaciones y el servicio técnico–, el robot se agotó al minuto de salir a la venta.

Pepper habla varios idiomas y está siendo usado, sobre todo, como reclamo en los comercios japoneses, donde habla con los clientes o les indica dónde está lo que buscan. Y entretiene a los niños: cuenta cuentos y muestra juegos educativos en su pantalla.

Aunque limitado, Pepper es un atisbo de los robots que vendrán en unos años gracias a los avances en inteligencia artificial y los sistemas de visión en tres dimensiones. Estas tecnologías han simplificado el análisis de emociones a partir de los gestos o el volumen y entonación de las frases. Dado que con estas máquinas interactuaremos sobre todo con la voz y la comunicación no verbal, es vital que aprendan a entendernos como lo hace un humano.

Las aplicaciones de estas técnicas van más allá de la robótica. Los asistentes conversacionales que usamos en móviles y ordenadores, como Siri y Alexa, podrían detectar pronto nuestro estado de ánimo al hablar con ellos, y evaluar si cambian o no el sentido de sus mensajes. Darán respuestas más efectivas o notarán si perdemos la paciencia porque los resultados que ofrecen no nos convencen.
Volver arriba
Permisos de este foro:
No puedes responder a temas en este foro.