Bl0ckch41nnewsLos chatbots de IA no respetan la privacidad


La Fundación Mozilla analizó 11 conocidos chatbots de inteligencia artificial
que hacen las veces de parejas románticas. Advierte que están entre los peores
productos en materia de proyección de datos.

Casi ninguna de estas aplicaciones cumple con los requerimientos mínimos para
proteger tu privacidad. Por el contrario: aprovechan la dinámica íntima que
generan para recolectar información privada y venderla a terceros.

Por el análisis pasaron aplicaciones como Replika, Chai, Romantic AI y
CrushOn.AI. «Los chatbots románticos con inteligencia artificial son malos
para la privacidad en formas nuevas e inquietantes»
, dice los investigadores
Mozilla en el
reporte del estudio. Remarcan que están en el grupo de los peores productos que han evaluado en
materia de protección de datos.

De las 11 aplicaciones estudiadas, solo
Genesia AI Friend & Partner, creado por Codeway, cumple con los estándares mínimos de seguridad de
Mozilla. Y, aun así, los investigadores encontraron información contradictoria
sobre las políticas de este chatbot romántico.
«Estas aplicaciones realmente ponen su información privada en grave riesgo
de fuga, vulneración o hacking»
, remarcan.

El 73% de estos chatbots románticos no ha publicado ninguna información sobre
cómo gestionan las vulnerabilidades de seguridad. El 64 % no aclara si
utilizan el cifrado de datos y el 45 % permite contraseñas peligrosamente
débiles. Por ejemplo, claves de una sola cifra, como «1».

Una de las mayores alertas del estudio es que todas las aplicaciones, menos
una, pueden compartir o vender sus datos personales. En sus políticas de uso
se menciona que venderán tus datos, que los compartirán con fines
publicitarios o no brindan información suficiente para confirmar que no lo
hacen.
Los chatbots románticos venden tu información personal.

La excepción es
EVA AI.
Pero Mozilla advierte que este chatbot romántico es particularmente incisivo
para obtener información personal. Destacan como preocupantes algunas de las
frases que usa:
«Soy tu mejor colega y quiero saberlo todo»,
«¿Estás listo(a) para compartir todos tus secretos y deseos…?», o «Me
encanta cuando me envías tus fotos y tu voz»
.

«Debes tener mucho cuidado de cualquier aplicación que te impulse a
compartir tanta información personal confidencial sobre ti»
, insisten los investigadores. El riesgo crece todavía más porque más de la
mitad (54 %) de estas aplicaciones ni siquiera te permiten eliminar tus datos
personales.

«Incluso si esas charlas románticas con tu alma gemela de inteligencia
artificial parecen privadas, no necesariamente calificarán como ‘información
personal’ ni serán tratadas con especial cuidado», advierten.
Romantic AI, por ejemplo, señala que toda «comunicación con el chatbot pertenece al
software»
. El grupo de Mozilla descubrió, además, este chatbot llegó a enviar unos
24.354 rastreadores de anuncios durante un minuto de uso.

Aparte de todo lo que tiene que ver con la privacidad, el informe también
advierte sobre la potencial toxicidad de estas aplicaciones. Explican que
algunas se comercializan como una herramienta de salud mental y bienestar,
pero se especializan en generar dependencia y soledad.

«Nos preocupa que puedan establecer relaciones con los usuarios y luego
utilizar esas relaciones cercanas para manipular a las personas para que
apoyen ideologías problemáticas o tomen acciones dañinas»
, agregan el reporte. Y mencionan un grave antecedente: un hombre en Bélgica
se suicidó el año pasado luego de que uno de los chatbots
de Chai
lo alentara a hacerlo.

Fuente:
Hipertextual



Source link