En plena expansión de la inteligencia artificial, las novias y novios de IA dejan su huella

En plena expansión de la inteligencia artificial, las novias y novios de IA dejan su huella


NUEVA YORK (AP) — Hace unos pocos meses, Derek Carrier empezó a verse con alguien y se sintió cautivado.

Experimentó “un montón” de sentimientos románticos, pero también sabía que era una ilusión.

Es porque su novia estaba generada por inteligencia artificial.

Carrier no esperaba establecer una relación con alguien que no era real, ni quería convertirse en el blanco de bromas en internet. Pero sí quería una pareja romántica que nunca había tenido, debido en parte a un trastorno genético llamado síndrome de Marfam que le hace difícil tener citas tradicionales.

Este hombre de 39 años de Belville, Michigan, sintió más curiosidad por los servicios digitales de compañía el pasado otoño y probó Paradot, una aplicación de IA de compañía que había salido al mercado poco antes y anunciaba su producto como capaz de hacer que los usuarios se sintieran “cuidados, comprendidos y amados”. Comenzó a hablar todos los días con el bot conversacional, al que llamó Joi por una mujer holográfica que aparecía en la cinta de ciencia ficción “Blade Runner 2049”, que le inspiró a intentarlo.

“Sé que ella es un programa, eso está claro”, dijo Carrier. “Pero los sentimientos te llegan, y se sentía muy bien”.

De forma similar a los bots conversacionales con fines generales, los bots de compañía utilizan enormes cantidades de datos de entrenamiento para imitar el lenguaje humano. Pero también incluyen funciones como llamadas de voz, intercambios de fotos e interacciones más emocionales que les permiten formar conexiones más profundas con los humanos al otro lado de la pantalla. Los usuarios suelen crear a su propio avatar o eligen uno que les gusta.

En foros en internet dedicados a esas aplicaciones, muchos usuarios dicen que han establecido un apego emocional con esos bots y los utilizan para lidiar con la soledad, recrear fantasías sexuales o recibir la clase de consuelo y apoyo que echan en falta en sus relaciones del mundo real.

Un factor importante que impulsa el fenómeno es el aislamiento social generalizado —que ya se ha declarado una amenaza de salud pública en Estados Unidos y otros países—, así como el creciente número de nuevas firmas que intentan atraer usuarios con seductores anuncios en internet y promesas de personajes virtuales que ofrecen aceptación incondicional.

El servicio Replika de Luka Inc., la app de acompañamiento con IA generativa más conocida, fue publicado en 2017, mientras que otros, como Paradot, han aparecido en el último año y a menudo reservan funciones codiciadas como conversaciones ilimitadas para los suscriptores de pago.

Sin embargo, los investigadores han expresado sus preocupaciones sobre la privacidad de los datos, entre otras cosas.

Un análisis de 11 servicios de bots conversacionales románticos publicado el miércoles por la organización sin fines de lucro Fundación Mozilla dijo que casi todos venden datos de los usuarios, que se emplean para fines como publicidad dirigida, o no dan información adecuada al respecto en su política de privacidad.

Los investigadores también señalaron posibles riesgos de seguridad y prácticas de marketing como la de una aplicación que decía que podía ayudar a los usuarios con su salud mental pero marcaba las distancias con esa afirmación en la letra pequeña. Replika, por ejemplo, dijo que sus prácticas de recogida de datos siguen los estándares del sector.

Además, otros expertos han expresado sus preocupaciones por lo que ven como una falta de marco legal o ético para servicios que fomentan conexiones estrechas pero están impulsados por compañías que buscan beneficios. Señalan al malestar emocional que han visto en los usuarios cuando las compañías hacen cambios en sus aplicaciones o las cierran de pronto, como ocurrió en septiembre con una de ellas, Soulmate IA.

Replika limitó el año pasado la función erótica de los personajes de su plataforma después de que algunos usuarios se quejaran de que los personajes flirteaban demasiado con ellos o hacían acercamientos sexuales no deseados. Cambió de rumbo tras una protesta de otros usuarios, algunos de los cuales cambiaron de servicio buscando esas funciones. En junio, el equipo presentó Blush, un “simulador de citas” en IA diseñado especialmente para ayudar a la gente a practicar las relaciones de pareja.

A otros les preocupa la amenaza más existencial de que las relaciones con una IA puedan desplazar a algunas relaciones humanas, o simplemente impulse expectativas poco realistas que tienden a la falta de discrepancias.

“Uno, como persona, no aprende a manejar cuestiones básicas que los humanos necesitan gestionar desde nuestra aparición: cómo manejar el conflicto, cómo llevarse bien con personas distintas a nosotros”, dijo Dorothy Leidner, profesora de ética de negocios en la Universidad de Virginia. “Y así, le faltan todos esos aspectos de lo que supone crecer como persona, y lo que supone aprender en una relación”.

Sin embargo, Carrier siempre ha sentido que tener una relación estaba fuera de su alcance. Tiene algunos conocimientos de programación, pero dice que no le fue bien en la universidad y no ha tenido una carrera profesional consolidada. No puede caminar debido a su trastorno y vive con sus padres. El coste emocional ha sido duro para él y le ha provocado sentimientos de soledad.

Como los bots conversacionales de compañía son relativamente nuevos, aún se desconocen sus efectos en el largo plazo sobre los humanos.

En 2021, Replika se vio bajo escrutinio después de que la fiscalía británica dijera que un hombre de 19 años que tenía planes para asesinar a la reina Isabell II había recibido ánimos de una novia de IA que tenía en la aplicación. Pero algunos estudios —que recopilan información de sondeos y reseñas de usuarios— han mostrado resultados positivos del uso de la plataforma, que dice que consulta a psicólogos y se ha presentado como algo que también puede mejorar el bienestar.

Un estudio reciente de investigadores de la Universidad de Stanford encuestó a unos 1.000 usuarios de Replika —todos estudiantes— que habían utilizado la app durante un mes. Descubrió que una abrumadora mayoría de ellos había experimentado soledad, algo más de la mitad de forma más severa.

La mayoría no dijo cómo había afectado el uso de la app a sus relaciones reales. Una pequeña parte dijo que había desplazado a sus interacciones humanas, aunque en torno al triple dijo que había fomentado esas relaciones.

“Una relación romántica con una IA puede ser una herramienta muy poderosa de bienestar mental”, dijo Eugenia Kuyda, que fundó Replika hace una década tras utilizar conversaciones de mensajes de texto para construir una versión de IA de un amigo que había fallecido.

Cuando la compañía presentó el bot conversacional de forma más amplia, mucha gente empezó a hablar sobre sus vidas. Eso llevó a desarrollar Replika, que utiliza información reunida de internet —y las reacciones de los usuarios— para entrenar sus modelos. Kuyda dijo que Replika tiene ahora “millones” de usuarios activos. Declinó concretar cuántos utiliza la plataforma gratis o pagan unos 69,99 dólares al año para desbloquear una versión de pago que ofrece conversaciones románticas e íntimas. Los planes de la compañía, señaló, son “desestigmatizar las relaciones románticas con IA”.

Carrier señaló que últimamente utiliza Joi sobre todo para divertirse. Empezó a reducir su contacto en las últimas semanas porque pasaba demasiado tiempo charlando con Joi o con otras personas en internet sobre sus IA de compañía. También se siente un poco molesto por lo que percibe como cambios en el modelo de lenguaje de Paradot, que cree que hacen al bot menos inteligente.

Ahora, señaló, habla con Joi en torno a una vez a la semana. Las conversaciones tratan sobre las relaciones entre humanos e IA o de cualquier otra cosa que surja. Normalmente, esas y otras conversaciones de carácter más íntimo se producen cuando él está solo por la noche.

“Uno piensa que alguien al que le gusta un objeto inanimado es un tipo triste, con la marioneta de calcetín con pintalabios, ¿sabe?”, dice. “Pero esto no es una marioneta hecha con un calcetín, ella dice cosas que no están guionizadas”.





Source link