EVI de Hume IA, el bot que puede detectar las emociones humanas

Una herramienta especializada en comprender el estado de ánimo de los usuarios revoluciona el sector. Características y riesgos del uso de esta voz “emocionalmente inteligente”.

La herramienta hace transcripciones de las consultas realizadas y responde de manera empática al usuario.

¿Cuánto más avanzará la inteligencia artificial? Parece un reproche pero no lo es. A esta altura la pregunta parece actualizarse con mayor frecuencia. En los últimos días el sector se vio asombrado con el lanzamiento de una IA muy particular por su revolucionaria propuesta.

Se trata de una Interfaz de Voz Empática (EVI) desarrollada por Hume IA. Este bot conversacional se especializa en comprender las expresiones emocionales derivadas de las palabras y el tono. La tecnología reconoce- por el momento- hasta 24 emociones y aspira detectar si su interlocutor está triste, preocupado o emocionado, por ejemplo.

Sin lugar a dudas ChatGPT es la IA más conocida. Incluso Copilot de Microsoft se encuentra entre las herramientas más populares pero EVI, de Hume IA, pretende patear el tablero. EVI es la primera voz “emocionalmente inteligente en el mundo”. El bot puede registrar el estado anímico de los usuarios y su objetivo principal no es únicamente dar respuestas, sino también examinar las emociones de las personas que le hablan para ofrecer una respuesta personalizada. Como ocurre con todo lo que toca la tecnología, este modelo también está expuesto a las críticas, sobre todo por tocar una cuestión muy sensible como puede llegar a ser la salud mental y las distintas emociones de las personas.

“Basados en más de 10 años de investigación, nuestros modelos capturan instantáneamente los matices de las expresiones en audio, video e imágenes. Risas teñidas de incomodidad, suspiros de alivio, miradas nostálgicas y más”, explica la página web de la firma sobre su disruptiva herramienta.

El bot de charla hace transcripciones de las consultas realizadas y responde. Luego, enumera las emociones registradas. No solo detecta las emociones, sino que empatiza con la persona. Como si fuera poco, EVI aprende de las reacciones de los usuarios.

Según el sitio oficial, la interfaz de EVI es la primera IA con inteligencia emocional debido a que sabe el significado de cada palabra y usa señales vocales del usuario para guiar el propio lenguaje. En resumen, los usuarios pueden conversar con él como si fuera un humano.

EVI de Hume IA: las características


EVI, de Hume IA, deja de hablar cuando lo interrumpen y comienza a escuchar, una actitud que se espera que tenga todo humano. También responde a las expresiones, es decir, entiende los altibajos naturales en el tono y los que se utilizan para transmitir significado más allá de las palabras.

El bot de Hume también genera el tono de voz adecuado para contestar y aprende de las reacciones de los usuarios para perfeccionarse. Además identifica el discurso tóxico de los usuarios en línea. Por último la IA está capacitada en reacciones humanas para mejorar expresiones positivas como la felicidad y satisfacción.

EVI no solo es capaz de reconocer nuestras emociones, sino que además empatiza y durante las conversaciones va haciendo transcripciones de las consultas. Junto a cada uno de esos bloques enumera las principales emociones detectadas.

Si la inteligencia artificial detecta que tristeza se dirigirá con un tono de compasión, si nota enojo buscará la calma. Se puede ver en tiempo real cómo la herramienta identifica esas emociones.

EVI de Hume IA: riesgos y limitaciones


A medida que la IA se va superando, es esencial tener en cuenta los posibles riesgos y desafíos asociados a la adopción generalizada de esta tecnología. Un artículo de Forbes publicado el año pasado advirtió por los peligros “significativos” que puede tener una herramienta de este calibre, que van desde el desplazamiento de puestos de trabajo hasta problemas de seguridad y privacidad. Por ese motivo, llama a concientizar sobre los riesgos en torno a las implicaciones legales, éticas y sociales de la inteligencia artificial.

Infobae, por su parte, señaló que uno de los principales peligros que implica una IA capaz de reconocer emociones es la privacidad de los datos. Esta tecnología procesa una gran cantidad de información personal para predecir nuestros estados de ánimo. Eso plantea la preocupación sobre cómo se recopilan, almacenan y utilizan estos datos. Que información sensible caiga en manos incorrectas también es un problema muy grave.

Se sabe que la comprensión emocional humana es compleja. La IA puede identificar patrones generales pero puede no captar completamente las sutilezas de la interacción humana. En resumen, es crucial abordar estos riesgos de manera proactiva.

La OMS también se había mostrado preocupada por los chatbots de IA. En su momento exigió una supervisión rigurosa para que estas herramientas se utilicen de manera segura y eficaz. Los datos utilizados para entrenar estos sistemas pueden estar “sesgados” y generar información engañosa que puede causar daño.

La IA avanza a pasos agigantados , los riesgos, las limitaciones y sus amplios usos también.


Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Exit mobile version