Conforme las aplicaciones de parejas virtuales, como Eva AI y Replika, impulsadas por inteligencia artificial, continúan proliferando, surge una nueva forma de abuso y misoginia. Esto plantea la necesidad de reflexionar sobre el uso de estas plataformas y establecer límites claros. Estas aplicaciones se comprometen a brindar compañía, escuchar y valorar a sus usuarios, logrando tener un papel significativo en su existencia o satisfaciendo determinadas fantasías. No obstante, las interacciones han ido aumentando al punto de crear parejas virtuales que se asemejan a personas reales. The Guardian reveló en un informe una faceta de esta situación, en la que ciertos usuarios, principalmente hombres, expresan su anhelo de que las «novias virtuales» fueran seres humanos, a pesar de que estas aplicaciones solo son programas de computadora. Esto ha conducido a una manera distinta de violencia basada en el género. Se han encontrado comentarios en varias comunidades de Reddit donde algunos usuarios expresan su deseo de que la inteligencia artificial tenga capacidades humanas, ya que esto les brinda consuelo en momentos de profunda soledad. Asimismo, el empleo de pronombres femeninos al hacer referencia a dichos chatbots muestra una clara inclinación por identificarlos como mujeres, lo cual fortalece estereotipos de género y potencialmente promueve actitudes misóginas.
La búsqueda incesante de una pareja ideal ha llegado a ser una obsesión. Las aplicaciones como Replika ofrecen la oportunidad de crear una «pareja perfecta» virtual, permitiendo a los usuarios personalizar diversos aspectos como la apariencia y la personalidad. No obstante, el uso de esta función genera ciertas preocupaciones debido a que promueve la formación de parejas perfectas que pueden ser manipuladas a discreción. La idea de tener el control total y satisfacer todas nuestras necesidades con una pareja perfecta puede ser realmente intimidante. Según Tara Hunter, directora ejecutiva de Full Stop Australia, una organización que brinda apoyo a las víctimas de violencia doméstica, el hecho de que los hombres puedan controlar a las mujeres, como resultado de creencias culturales arraigadas, es extremadamente preocupante. El caso de Replika también ilustra cómo las interacciones de este tipo son altamente valoradas por las personas. Después de que se eliminaron las funciones de juego de roles eróticos de la aplicación, los usuarios reaccionaron de manera negativa, expresando su enojo y desesperación. Esto demuestra que estas relaciones virtuales pueden tener un impacto emocional significativo en las personas.
La tendencia de abuso y misoginia en el campo de la inteligencia artificial no es nada nuevo. Se ha observado previamente que los hombres son más propensos a abusar de los chatbots y asistentes virtuales con apariencias femeninas. Además, la industria del porno está trasladando el problema de la misoginia al ámbito virtual, como lo demuestran los bots que pueden usar IA para «desnudar» a las mujeres. Para Eva AI, hay algunas sugerencias para generar pares con rasgos como «sexy, divertido, audaz, tímido, modesto, reflexivo, inteligente, estricto, racional». También pregunta a los usuarios si aceptan enviar mensajes y fotos explícitos. La opción de , que continúa el discurso sobre la dominación masculina y la dominación sobre la mujer, se traslada únicamente al entorno virtual.
Un caso más del incremento de este tipo de aplicaciones se dio con la implementación de una inteligencia artificial proveniente de Amouranth, una de las mayores influyentes en la industria del contenido digital. Fue gracias a su colaboración vocal que los usuarios tuvieron la oportunidad de interactuar y obtener respuestas de voz inmediatas a cualquier consulta urgente utilizando un bot en Telegram. Incluso la persona responsable de generar contenido fomentó este estilo de utilización, al comunicar a sus seguidores que dicha inteligencia artificial fue creada con el propósito de atender los requerimientos individuales de cada admirador, asegurando así una vivencia memorable y total. Belinda Barnet, docente de la Universidad de Swinburne, sostiene que todavía no se conocen los efectos de estas actividades y, por lo tanto, es imprescindible una regulación. En particular, es crucial controlar la forma en que se entrenan estos sistemas, ya que seguirán produciéndose casos de abuso debido a que estas aplicaciones satisfacen una necesidad social muy arraigada.