OpenAI presentó un nuevo modelo de IA
GPT-4o
para impulsar su chatbot ChatGPT. Esta nueva versión tiene la capacidad de
resolver ecuaciones, contar cuentos antes de dormir y afirma identificar
emociones a partir de expresiones faciales.
Los expertos dicen que las capacidades de GPT-4o amplían la cantidad de
información que puede ser potencialmente recopilada por OpenAI, lo que aumenta
las preocupaciones sobre la privacidad.
La firma tiene un historial irregular en el área. Después de su lanzamiento en
2020, un
documento técnico reveló
cómo millones de páginas extraídas de publicaciones de Reddit, libros y la web
en general se utilizaron para crear el sistema de texto de IA generativa,
incluidos los datos personales que comparten en lñinea los usuarios. Esto
llevó a que, por ejemplo,
ChatGPT sufriera una prohibición temporal en Italia
el año pasado.
Poco después del lanzamiento de GPT-4o, una demostración inicial de la
aplicación de escritorio
macOS ChatGPT indicó que el
chatbot potencialmente podía acceder a la pantalla de un usuario. Y en julio, la misma aplicación volvió a ser criticada cuando se reveló que
un
problema de seguridad
preocupante hacía que fuera fácil encontrar chats almacenados en su
computadora y leerlos en texto sin formato.
OpenAI lanzó rápidamente una actualización que cifra los chats, pero con este
nivel de escrutinio sobre la empresa y GPT-4o, es fácil ver por qué
la gente está preocupada por la privacidad. ¿Qué tan privada es la última versión de ChatGPT? ¿Es peor que las
versiones anteriores? ¿Y hay alguna forma de bloquearla?
Política de privacidad de OpenAI
A primera vista,
la
política de privacidad de OpenAI
muestra una gran cantidad de recopilación de datos, incluida información
personal, datos de uso y contenido proporcionado cuando lo usa.
ChatGPT usa los datos que comparte para entrenar sus modelos, a menos que lo
desactive en la configuración o use la versión empresarial.
OpenAI se apresura a decir en su política de privacidad que los datos
individuales están «anonimizados», pero el enfoque en general parece ser
«tomar todo ahora y ordenarlo más tarde», dice Angus Allan, gerente de
productos senior en la consultora digital CreateFuture, que asesora a las
empresas sobre las formas de usar la IA y el análisis de datos.
«Su política de privacidad establece explícitamente que recopilan todos los
datos de entrada de los usuarios y se reservan el derecho de entrenar sus
modelos en esto».
La cláusula general de «contenido del usuario» probablemente también cubra las
imágenes y los datos de voz, dice Allan.
«Es un aspirador de datos con esteroides, y todo está ahí, en blanco y
negro. La política no ha cambiado significativamente con GPT-4o, pero dadas
sus capacidades ampliadas, el alcance de lo que constituye ‘contenido del
usuario’ se ha ampliado drásticamente».
De forma predeterminada,
ChatGPT recopila muchos otros datos sobre el usuarios, dice Jules Love,
fundador de Spark, una consultora que asesora a las empresas sobre cómo
incorporar herramientas de IA que incluyan ChatGPT en sus flujos de trabajo y,
al mismo tiempo, abordar la privacidad de los datos.
«Utiliza todo, desde indicaciones y respuestas hasta direcciones de correo
electrónico, números de teléfono, datos de geolocalización, actividad de red
y qué dispositivo está utilizando».
Open AI dice que estos datos se utilizan para entrenar el modelo de IA y
mejorar sus respuestas, pero los términos permiten a la empresa compartir su
información personal con afiliados, vendedores, proveedores de servicios y
fuerzas de seguridad.
«Por lo tanto, es difícil saber dónde terminarán sus datos», dice Love.
Parte de esta recopilación de datos incluye nombres completos, credenciales de
cuenta, información de tarjetas de pago e historial de transacciones, dice.
«También se puede almacenar información personal, en particular si se suben
imágenes como parte de los mensajes. Del mismo modo, si un usuario decide
conectarse con alguna de las páginas de redes sociales de la empresa, como
Facebook, LinkedIn o Instagram, se puede recopilar información personal si
ha compartido sus datos de contacto».
Controles de privacidad
Desde su lanzamiento en 2020 y en medio de críticas y escándalos de
privacidad, OpenAI ha presentado herramientas y controles que puedes usar para
bloquear tus datos. OpenAI dice que está
«comprometida a proteger la privacidad de las personas».
La empresa afirma que no busca información personal para entrenar a sus
modelos y que no utiliza información pública en Internet para crear perfiles
sobre personas, hacerles publicidad o dirigirse a ellas, ni para vender datos
de los usuarios.
En los últimos años, OpenAI ha mejorado la transparencia sobre la recopilación
y el uso de datos «hasta cierto punto», brindando a los usuarios opciones
claras para administrar su configuración de privacidad, dice Rob Cobley, socio
comercial de la firma de abogados Harper James, que ofrece asesoramiento legal
sobre cuestiones de protección de datos.
«Los usuarios pueden acceder, actualizar y eliminar su información
personal, lo que garantiza que tienen control sobre los datos».
Allan recomienda que todos se tomen unos minutos para cancelar la suscripción
al entrenamiento de modelos lo antes posible.
«Esto no elimina su contenido de su plataforma, pero significa que no se
puede usar para entrenar modelos futuros, donde existe un riesgo teórico de
que sus datos se filtren».
Fuente:
Wired
Los comentarios están cerrados.