Chatear con Sócrates, Taylor Swift, Shakespeare o la Reina Isabel es posible y los usuarios ya pasan dos horas al día con estos bots

Character.ai es la nueva aplicación fundada por ex empleados de Google que ya tiene 4 millones de usuarios activos mensuales y ha recaudado 190 millones. El fenómeno, divertido a primera vista, también puede traer consecuencias en la interacción humana.

Chatear con Sócrates, Taylor Swift, Shakespeare o la Reina Isabel es posible y los usuarios ya pasan dos horas al día con estos bots. Crédito: Google Play

Sócrates responde tu duda filosófica más existencial. La Reina Isabel confiesa cómo fue ocupar el cargo de monarca más largo de la historia británica. Taylor Swift reflexiona sobre el fenómeno “Eras Tour”. Shakespeare explica por qué mató a Romeo y Julieta. Y los Beatles cuentan cómo compusieron Let It Be. Sí, todo eso es posible gracias a Character.ai, la nueva aplicación de inteligencia artificial creada por antiguos empleados de Google que fue lanzada en septiembre.

La plataforma permite a los usuarios mantener conversaciones con 18 millones de personajes diferentes basados en personalidades. Además, no se limita a ofrecer chats con personajes reales, como puede ser Napoléon Bonaparte, sino que también se puede hablar con personajes imaginarios. Por ejemplo, con un profesor de inglés, con una psicóloga o con un experto en música. Si aún así los usuarios detectan una necesidad o no logran identificarse con ninguno, pueden crear uno a su gusto. 

¿Cómo se usa? Solo basta con entrar a la página web o descargar la aplicación en un dispositivo, ambas opciones gratuitas. Allí podrás ingresar y hacerte usuario para comenzar a explorar los diferentes personajes. Luego, es fácil: seleccionar con quién querés hablar. Para ello, hay categorías que te van orientando como “gente famosa”, “recomendados” o “asistentes”, “películas y series”, “animé”, entre otros. También podés utilizar el buscador. 

Demostración de cómo funciona la aplicación Character.ai donde podés chatear con diferentes personajes reales, imaginarios o inventados. Crédito: Google Play. 

El fenómeno y sus consecuencias


Según Quartz, la empresa que fue fundada por Noam Shazeer y Daniel De Freitas (dos antiguos empleados de Google) ha recaudado 190 millones de dólares de inversores como Greycroft y Andreessen Horowitz, dos entidades financieras de alta relevancia en el mundo de la inversión. 

Además, Character.ai afirma que el fenómeno de chatear con personajes crece cada día más. Hoy, sus usuarios ya pasan al menos dos horas al día con sus chatbots. Este número demuestra un alto compromiso teniendo en cuenta que hoy la mitad de los usuarios digitales no se detienen a leer una nota más de 30 segundos.

Según la empresa, el tiempo de permanencia en su plataforma se debe a que la gente interactúa con distintos personajes, lo que resulta más atractivo que desplazarse pasivamente por un sitio web. Actualmente, tienen 4 millones de usuarios activos mensuales, según Similarweb (empresa de análisis de datos). 

De acuerdo con TechCrunch, hace dos semanas Character.ai introdujo la nueva función de “chatear en grupo” que está disponible únicamente para sus suscriptores pagos (9.99 dólares mensuales). La nueva función permite a los usuarios crear un chat de grupo con solo sus personajes favoritos de IA o también con una mezcla de humanos y personajes de IA. Así, podrán crear conexiones sociales, compartir ideas y colaborar en tiempo real.

Esta última actualización espera retener y atraer a más usuarios. Sin embargo, el fenómeno de los bots y la estrecha relación que están generando con los humanos no es bienvenida por todos. “Empieza a ser peligroso cuando empiezas a usar estos chatbots para reemplazar tus relaciones en el mundo real, porque son bots que no tienen experiencias humanas», explicó en un podcast Cordilia James, periodista de Wall Street Journal e investigadora del fenómeno.

Asimismo, James comentó que en el mundo real y en nuestras relaciones íntimas generalmente hay cierta fricción a la que nos enfrentemos. Es decir, peleas, discusiones, rechazos que no se obtienen de estos bots. “Si la gente no se siente lo suficientemente incómoda como para exponerse, eso podría llevarla a un mayor aislamiento”, produndizó.


Este contenido fue originalmente publicado en RED/ACCIÓN y se republica como parte del programa «Periodismo Humano», una alianza por el periodismo de calidad entre RÍO NEGRO y RED/ACCIÓN.



Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Exit mobile version