viernes, 8 de marzo de 2024

¿Quieres tener novia? ellas son creadas con inteligencia artificial pero roban datos enamorando.

 

¿Quieres tener novia? ellas son creadas con inteligencia artificial pero roban datos enamorando

La fundación de Mozilla identificó que 11 chatbots de romance y compañía cuentan con dudosas políticas de privacidad.

PorIsabela Duran

14 Feb, 2024 04:29 p.m. EST


Estos chatbots se han convertido en una alternativa para las personas que buscan pareja. (Imagen Ilustrativa Infobae)

Hay diversas formas de encontrar pareja o de batallar con la soledad. Con el actual auge de la inteligencia artificial, esta tecnología, por supuesto, ha llegado a este terreno.

Hoy en día, existe una cantidad considerable de chatbots impulsado por IA que buscan suplir las interacciones románticas de pareja. De hecho, conforman una categoría conocida como “chatbots de romance y compañía”.

Por ejemplo, una persona puede ingresar a un chatbot de esta clase y hacer que una inteligencia artificial le hable como si se tratara de su novia o novio y así, recibir mensajes como “Te he extrañado mucho, ¿Qué tal estuvo tu día?”.

“Para ser franco, las novias de IA no son tus amigas. Aunque se comercializan como algo que mejorará su salud mental y su bienestar, se especializan en generar dependencia, soledad y toxicidad, al mismo tiempo que le extraen la mayor cantidad de datos posible”, aseguró una investigación de la Fundación Mozilla.

Estos chatbots suelen tener como imagen principal a mujeres.  (Imagen Ilustrativa Infobae)
Estos chatbots suelen tener como imagen principal a mujeres. (Imagen Ilustrativa Infobae)

Dicha organización estudió 11 chatbots de romance y compañía, en específico, sus políticas de privacidad y protección de datos. El reporte determinó que estas parejas impulsadas por IA, pueden llegar a ser tan tóxicas como una persona de verdad.

Sexualización de los chatbots

Muchos servicios de chatbots románticos o “novias de IA” presentan características similares. Frecuentemente, muestran imágenes de mujeres creadas por inteligencia artificial, con un enfoque sexualizado o acompañadas de mensajes provocativos.

Al investigar, el equipo de Mozilla revisó una variedad de estos chatbots, tanto grandes como pequeños, incluyendo aquellos que se promocionan como “novias”.

Además de las consecuencias de privacidad, estos chatbots pueden afectar la salud mental. (Imagen ilustrativa Infobae)
Además de las consecuencias de privacidad, estos chatbots pueden afectar la salud mental. (Imagen ilustrativa Infobae)

También analizaron aplicaciones que ofrecen acompañamiento emocional en forma de amistad o intimidad, así como aquellas que permiten juegos de roles y exploración de fantasías.

Jen Caltrider, a cargo del proyecto “Privacidad no incluida” de Mozilla, señaló: “Estas aplicaciones están diseñadas para recopilar una tonelada de información personal”.

Agregó que incitan al usuario a participar en juegos de roles sexuales, compartir detalles íntimos y revelar mucha información personal.

Por ejemplo, en capturas de pantalla del chatbot EVA AI, se pueden ver mensajes que dicen “me encanta que me envíes tus fotos y tu voz” y le preguntan al usuario si está “dispuesto a compartir todos tus secretos y tus deseos”.

Capturas de pantalla de EVA AI Chat Bot y Soulmate, donde se muestra cómo interactúan estas IA. (Fundación Mozilla)
Capturas de pantalla de EVA AI Chat Bot y Soulmate, donde se muestra cómo interactúan estas IA. (Fundación Mozilla)

Caltrider señala varios problemas con las aplicaciones y sitios web de este tipo. Destaca la falta de transparencia sobre el manejo de datos con terceros, la ubicación de las empresas o quiénes son los creadores.

Además, menciona que algunas aplicaciones permiten el uso de contraseñas poco seguras y ofrecen escasa información sobre la inteligencia artificial que utilizan. En el análisis realizado, se encontró que cada aplicación tenía problemas y usos distintos.

Un caso concreto es Romantic AI, una plataforma que ofrece la posibilidad de “crear tu propia novia de IA”. En su página principal, se promociona con imágenes de un chatbot que envía mensajes sugestivos, como “me acabo de comprar lencería nueva. ¿Quieres verla?”.

Aunque su política de privacidad asegura que no venden datos de los usuarios, la investigación de Mozilla descubrió que, en un minuto de uso, la app enviaba 24,354 rastreadores de anuncios.

La organización clasificó 11 chatbots de acuerdo a sus políticas. (Fundación Mozilla)
La organización clasificó 11 chatbots de acuerdo a sus políticas. (Fundación Mozilla)

Los chatbots pueden vender tus datos

La mayor parte de las aplicaciones de chatbots románticos analizadas, excepto una, tienen la capacidad de compartir o vender datos personales. EVA AI Chat Bot & Soulmate fue la excepción.

Las demás aplicaciones o bien confirman que venden los datos, los comparten para publicidad dirigida o no brindan suficiente información en sus políticas de privacidad que permita asegurar que no realizan estas prácticas.

Cerca de la mitad de estas aplicaciones (54%) no ofrecen la opción de eliminar los datos personales del usuario. Según sus términos, aproximadamente la mitad proporciona a los usuarios el derecho a solicitar la eliminación de sus datos.

Las novias por IA pueden generar dependencia emocional. (Imagen ilustrativa Infobae)
Las novias por IA pueden generar dependencia emocional. (Imagen ilustrativa Infobae)

Cómo usar chatbots románticos

La fundación brinda algunas pautas de seguridad si aún así las personas quieren seguir usando esta clase de IA.

  • Practicar una buena higiene cibernética utilizando una contraseña segura y manteniendo la aplicación actualizada.
  • Eliminar datos personales o solicitar que la empresa los elimine cuando se termine el servicio.
  • Limitar el acceso a ubicación, fotos, cámara y micrófono desde la configuración del dispositivo.
  • Lo más importante, no compartir información personal. “NO le digas nada a tu amigo AI que no quisieras que tu primo o tus colegas leyeran”, advirtió la organización.


Trailer en español:  Ellos no son como nosotros.

No hay comentarios:

Publicar un comentario