Inicio Scientia Una computadora que me conozca y me entienda

Una computadora que me conozca y me entienda

Compartir
[ Publicidad ]

Investigadores por el mundo se han dado a la tarea de integrar emociones en nuestras máquinas, y no sólo que la expresen sino que también las reconozcan. La idea es que su ordenador también sea su amigo. ¿Se ha usted devuelto alguna vez porque olvidó su celular?, ¿ha pasado más de una semana sin encender su computadora?,

¿cuándo fue la última vez que envió un correo electrónico; hace un día, una hora, un minuto? Nos hemos acostumbrado a vivir con las máquinas; hace 20 años ninguna de estas preguntas hubieran tenido sentido, hoy, la mayoría puede contestarlas.

Desde que esta era digital dio sus primeros pasos, el concepto central ha sido producir tecnología fácil de usar, “amigable”, que tanto la abuelita como el nieto la comprendan. Evidentemente, es una meta que ha sido alcanzada. Los próximos pasos es proveer a todas estas herramientas con más inteligencia, (Google quiere conocerlo mejor, saber sus gustos particulares y personalizar así su búsqueda), y proveer a las computadoras con un dominio sofisticado sobre cómo pensamos y reaccionamos los seres humanos.

Computadoras inteligentes3“La idea ahora es programar el ordenador de acuerdo a lo que desea el usuario y no el programador. No sólo hacer su uso más fácil sino más personalizado. La computadora puede interactuar con el usuario, anticipar lo que desee de acuerdo a señales que capturará mediante cámaras y sensores. Nadie imaginó en 1970 que niños y jubilados iban a ser tomados en cuenta al momento de programar o producir computadoras, me hubiera reído”, expresa el profesor John Carroll de Virginia Tech quien fue otorgado, en el 2003, con un reconocimiento por ayudar a integrar las computadoras en nuestras vidas.

Varios equipos de científicos están hoy centrados en dotar a nuestras computadoras con un poco más de inteligencia emocional. El investigador Lijun Yin, de la Universidad de Binghampton en Nueva York, por ejemplo, desea dotar a las computadoras con más formas de percibir que tan sólo el teclado, el ratón y los paneles de tacto, él quiere que las computadoras comprendan mejor los estímulos externos expresados todo el tiempo por los humanos, que nos vean y nos escuchen. Que nos comprendan mejor.

Yin y colegas han iniciado sus experimentos con ojos artificiales. Para que su computadora lo conozca mejor, tendrá que mirarlo. Para ello, los investigadores están trabajando para darle una mejor “visión” a su equipo y han desarrollado formas para que acumule información basada en tres puntos principales: dónde (el usuario) está mirando, es decir, dónde se posan nuestros ojos cuando buscamos y leemos, el segundo punto se concentra en los gestos que presenta el rostro del usuario y el tercer punto se basa en las palabras, lo que dice la persona. La división de estos puntos permite que individuos con discapacidades, como ciegos o sordomudos, también tengan acceso rápido, manejable y amigable con su computador. No sólo es visión sino también audición. De esta forma, aseguran, personas con problemas motores o impedimentos varios, tendrán una mayor facilidad para usarlos.

“Nuestra investigación en gráficos y en visión computacional desea conseguir que las computadoras sean mucho más fáciles de usar. ¿Será posible encontrar una forma más inteligente, intuitiva y cómoda de usar un ordenador? Pues debería de sentirse como si estuvieses hablando con un amigo”, explica Yin.

Computadoras inteligentes8Algunas de las habilidades que desea desarrollar Yin ya están en uso. Uno de sus estudiantes, por ejemplo, impartió una presentación en PowerPoint donde a través del uso de sus ojos resaltaba (highlighted) contenido en algunas de sus diapositivas. El programa que usó el joven utiliza cámaras y sensores que detectan el movimiento de los ojos. Así, la tecnología es tan asombrosa que se asemeja a la magia, parafraseando al autor de ciencia ficción Arthur C. Clarke.

Para Yin, uno de los próximos pasos es conseguir que la computadora reconozca el estado emocional del usuario. Su equipo trabaja con los seis estados básicos de la emoción que ya están muy bien establecidos: rabia, asco, miedo, alegría, tristeza y sorpresa. El investigador sigue las huellas de científicos en el Instituto Tecnológico de Massachussets, donde nació Kismet, el robot social que ha sido programado para simular y reconocer las emociones básicas antes mencionadas. El proyecto nació en 1997 como una forma de ayudar a niños con problemas de desarrollo, pero que se ha convertido en algo más.

Computadoras inteligentes10“La gente tiene miedo de que el uso de la tecnología nos está haciendo menos humanos. Kismet demuestra que no es así ya que realmente celebra nuestra humanidad. Este es un robot que se deleita con la interacción humana. Más aún, es un robot que te deja ver, con sus gestos faciales, cómo él se siente con lo que has dicho o hecho”, explica Cynthia Breazeal, líder del equipo Kismet en MIT.

Actualmente, el equipo de Yin también está experimentando con las diferentes formas posibles de que su computadora, así como Kismet, distinga cómo se siente cuando la enciende al comenzar el día o cómo anda su ánimo a media tarde. Por ejemplo, el equipo de científicos se pregunta ¿podría basarse en cambios de las líneas alrededor de los ojos?, ¿sería mejor que enfocara su atención en la boca? o ¿qué ocurriría si el rostro de la persona estuviese parcialmente cubierto, quizá mirando hacia un lado?

“Las computadoras sólo entienden ceros y unos. Para ellas, todo tiene que ver con patrones. Queremos encontrar la forma de cómo reconocer cada emoción utilizando sólo las características más importantes”, explica Yin.

El equipo ha hecho una importante alianza con psicólogos de la misma universidad para explorar formas de ayudar a niños autistas con estas máquinas expresivas. “Es posible la creación de avatares emotivos que puedan interactuar con pacientes que padecen de distintos impedimentos para enseñarlos a reconocer las intenciones y el humor de los demás”, explica Peter Gerhardstein, uno de los psicólogos colaboradores.

De hecho, Yin y Gerhardstein ya han trabajado juntos. Ambos investigadores crearon una base de datos de expresiones faciales en tercera dimensión que incluye a 100 sujetos con 2.500 modelos de expresiones faciales. Esta impresionante base de datos está disponible de forma gratuita para la comunidad de investigadores y se ha convertido en una herramienta muy utilizada en distintos campos de la ciencia como la Biomedicina, la computación y en las fuerzas del orden como en investigaciones criminales.

“No sólo deseamos crear un modelo de una persona virtual sino que queremos entender las emociones y sentimientos de una persona real. Queremos que la computadora sea capaz de entender cómo te sientes, si sientes dolor o asco; si estás triste a media mañana a lo mejor te interesaría ver un chiste y no las noticias internacionales. Por otro lado, si te sientes enfermo y no puedes llamar a un médico, programarlas para que lo hagan por ti. Y eso es difícil, es mucho más difícil que todos mis otros trabajos”, explica Yin.