Please enter CoinGecko Free Api Key to get this plugin works.

Bl0ckch41nnewsAI TRiSM: gestión de confianza, riesgos y seguridad de IA y chats conversacionales

21


Las plataformas de IA conversacional están diseñadas para facilitar las
interacciones naturales entre humanos y máquinas utilizando tecnologías como
el procesamiento del lenguaje natural (NLP) y el aprendizaje automático (ML).
Estas plataformas permiten que aplicaciones como chatbots y agentes virtuales
participen en conversaciones significativas, lo que las convierte en
herramientas valiosas en diversas industrias.

Resecurity ha observado un aumento en las campañas maliciosas dirigidas a
agentes de IA
y plataformas de IA conversacional que aprovechan los chatbots para
proporcionar interacciones automatizadas y similares a las humanas para los
consumidores.

La IA generativa ha despertado un gran interés en los pilotos de inteligencia
artificial, pero las organizaciones a menudo no consideran los riesgos hasta
que los modelos o aplicaciones de IA ya están en producción o en uso. Un
programa integral de gestión de confianza, riesgo y seguridad (TRiSM) de IA le
ayuda a integrar la gobernanza tan necesaria desde el principio y a garantizar
de forma proactiva que los sistemas de IA cumplan con las normas, sean justos,
confiables y protejan la privacidad de los datos.

Los chatbots son una parte fundamental de las plataformas de IA
conversacional, diseñados para simular conversaciones humanas y mejorar las
experiencias de los usuarios. Las instituciones financieras (IF) están
implementando ampliamente este tipo de tecnologías para acelerar la atención
al cliente y los flujos de trabajo internos, lo que también puede desencadenar
riesgos de cumplimiento y de la cadena de suministro.

El espectro de tácticas y técnicas del adversario contra sistemas
habilitados para Al basado en observaciones de ataques del mundo real se
define en la
Matriz MITRE ATLAS.

Proporciona un marco para identificar y abordar vulnerabilidades en los
sistemas de inteligencia artificial, lo que puede ayudar a prevenir ataques y
proteger datos confidenciales, y permite a los investigadores navegar por el
panorama de amenazas a los sistemas de inteligencia artificial.

Muchos de estos servicios no son totalmente transparentes en cuanto a la
protección y retención de datos existentes, funcionan como una «caja negra»
y los riesgos asociados no son visibles de inmediato.

Eso puede explicar por qué las principales empresas de tecnología restringen
el acceso de los empleados a herramientas de inteligencia artificial
similares, particularmente aquellas proporcionadas por fuentes externas,
debido a la preocupación de que estos servicios puedan aprovechar datos
potencialmente propietarios que se les envían.

A diferencia de los chatbots tradicionales, los chatbots conversacionales de
IA pueden ofrecer consejos y recomendaciones personalizados basados ​​en las
interacciones de los usuarios. Esta capacidad mejora la experiencia del
usuario al proporcionar respuestas personalizadas que satisfacen las
necesidades individuales. Los bots pueden recopilar datos valiosos de las
interacciones de los usuarios, que pueden analizarse para obtener información
sobre las preferencias y comportamientos de los clientes. Esta información
puede informar estrategias comerciales y mejorar la oferta de servicios.

Al mismo tiempo, crea un riesgo importante en términos de protección de datos,
ya que los datos recopilados de los usuarios pueden revelar información
sensible debido a interacciones personalizadas. Otro aspecto importante es si
los datos recopilados del usuario se conservarán para capacitación adicional y
si dichos datos se anonimizarán posteriormente para minimizar la divulgación
de PII (Información de Identificación Personal) y otros datos que puedan
afectar la privacidad del usuario en caso de una infracción.

Una de las categorías clave de las plataformas de IA conversacional es el
software de centro de llamadas y las suites de experiencia del cliente
impulsadas por IA. Estas soluciones utilizan chatbots especialmente diseñados
para interactuar con los consumidores procesando sus comentarios y generando
información significativa. La implementación de soluciones impulsadas por IA
como estas es especialmente significativa en fintech, comercio electrónico y
gobierno electrónico, donde el número de consumidores finales es sustancial y
el volumen de información a procesar hace que la interacción humana manual sea
casi imposible o, al menos, al menos, comercial y prácticamente ineficaz.

Los modelos de IA capacitados optimizan la retroalimentación a los
consumidores y ayudan con solicitudes adicionales, reduciendo los tiempos de
respuesta y los procedimientos intensivos en humanos que la IA podría abordar.

En algún momento, las plataformas de IA conversacional comienzan a reemplazar
los canales de comunicación tradicionales. En lugar de mensajes de correo
electrónico de la «vieja escuela», estas plataformas permiten la interacción a
través de agentes de inteligencia artificial que brindan respuestas rápidas y
navegación multinivel a través de servicios de interés casi en tiempo real.

La evolución de la tecnología también ha llevado a ajustes en las tácticas de
los adversarios que buscan explotar las últimas tendencias y dinámicas en el
mercado global de las TIC para su propio beneficio. Resecurity detectó un
notable interés tanto de la comunidad cibercriminal como de los actores
estatales hacia las plataformas de IA conversacional

debido a la gran cantidad de consumidores y los enormes volúmenes de
información procesada durante las interacciones y sesiones personalizadas
apoyadas por agentes de IA.

El 8 de octubre de 2024,
Resecurity identificó
una
publicación en la Dark Web relacionada con la monetización de datos robados
de una de las soluciones de centros de llamadas en la nube impulsadas por
inteligencia artificial más grandes de Medio Oriente.

El actor de amenazas obtuvo acceso al panel de administración de la
plataforma, que contiene más de 10.210.800 conversaciones entre consumidores y
agentes de IA (bots). Los datos robados podrían utilizarse para orquestar
actividades fraudulentas avanzadas, así como para fines cibercriminales
utilizando IA.

Las filtración de agentes de IA y consumidores también revelaron
información de identificación personal (PII), incluidos documentos de
identificación nacionales y otros detalles confidenciales proporcionados
para abordar solicitudes específicas.

El adversario podría aplicar técnicas de extracción y minería de datos para
adquirir registros de interés y utilizarlos en escenarios avanzados de
phishing y otros fines ciberofensivos.

Como resultado del compromiso, los adversarios podrían acceder a sesiones
específicas de clientes y robar datos y adquirir conocimiento sobre el
contexto de interacción con el agente de IA, lo que luego podría conducir a un
secuestro.

Este vector puede ser especialmente eficaz en campañas fraudulentas y de
ingeniería social cuando el adversario se centra en adquirir información de
pago de la víctima utilizando algún pretexto de verificación KYC o soporte
técnico de una institución financiera o red de pago específica.

Muchas plataformas conversacionales de IA permiten a los usuarios alternar
entre un operador asistido por IA y un humano: el mal actor podría interceptar
la sesión y controlar aún más el diálogo.

Al explotar la confianza de los usuarios, los malos actores podrían solicitar
que las víctimas proporcionen información confidencial o organicen ciertas
acciones (por ejemplo, confirmar una OTP) que podrían usarse en esquemas
fraudulentos. Resecurity pronostica una variedad de esquemas de ingeniería
social que podrían orquestarse abusando y obteniendo acceso a plataformas de
IA conversacionales confiables.

La víctima final (consumidor) permanecerá completamente inconsciente si la
sesión es interceptada por un adversario y continuará interactuando con el
agente de IA, creyendo que la sesión es segura y que el curso de acción
posterior es legítimo. El adversario puede explotar la confianza que la
víctima tiene en la plataforma de IA para obtener información confidencial,
que luego podría usarse para fraude de pagos y robo de identidad.

Además del problema de la PII retenida almacenada en las comunicaciones entre
el agente de IA y los usuarios finales, los delincuentes también pudieron
apuntar a tokens de acceso, que las empresas podrían utilizar para la
implementación del servicio con API de servicios y aplicaciones externos.

Según Resecurity, debido a la importante penetración de sistemas externos de
IA en la infraestructura empresarial y al procesamiento de volúmenes masivos
de datos, su implementación sin una evaluación de riesgos adecuada debería
considerarse un riesgo emergente de ciberseguridad de la cadena de suministro
de TI.

AI Trust, Risk, and Security Management (AI TRiSM)

La implementación de la gestión de confianza, riesgos y seguridad de la IA (AI TRiSM) implica la creación y el mantenimiento de marcos que permitan que las
tecnologías de IA se utilicen de manera responsable, ética y segura. 

Los
expertos describen la necesidad de una gestión de AI, así como de evaluaciones de impacto en la privacidad (PIA), para
identificar y mitigar los impactos potenciales o conocidos que un sistema de
IA puede tener en la privacidad, así como un mayor atención a la
ciberseguridad de la cadena de suministro.

Componentes de AI TRiSM

  • Gobernanza y cumplimiento: establecer estructuras de gobernanza
    claras que definan roles, responsabilidades y procesos para gestionar los
    riesgos relacionados con la IA. El cumplimiento de los requisitos legales y
    reglamentarios es fundamental y requiere que las organizaciones se mantengan
    al tanto de la evolución de las leyes y estándares de IA.
  • Evaluación de riesgos: realizar evaluaciones de riesgos integrales
    para identificar posibles vulnerabilidades en los sistemas de IA, incluidos
    riesgos de privacidad de datos, preocupaciones éticas y amenazas a la
    seguridad. Esto implica evaluar las aplicaciones de IA en busca de sesgos
    algorítmicos, equidad y transparencia para mitigar posibles daños.
  • Medidas de seguridad: implementar medidas de seguridad sólidas
    adaptadas a los sistemas de inteligencia artificial, como cifrado, control
    de acceso y auditorías de seguridad periódicas. Los mecanismos de detección
    de amenazas y las estrategias de respuesta son esenciales para protegerse
    contra las ciberamenazas y salvaguardar los datos confidenciales.
  • Marcos éticos de IA: Desarrollar pautas y principios éticos para el
    uso de la IA que se alineen con los valores organizacionales y las normas
    sociales. Esto incluye la creación de protocolos para la toma de decisiones
    éticas y garantizar que las aplicaciones de IA respeten la privacidad y los
    derechos de los usuarios.
  • Transparencia y explicabilidad: Luchar por la transparencia en
    las operaciones de IA, dejando claro cómo los sistemas de IA toman
    decisiones. La explicabilidad es crucial para generar confianza entre las
    partes interesadas, permitiendo a los usuarios comprender y cuestionar las
    decisiones impulsadas por la IA.
  • Monitoreo y mejora continuos: Los sistemas de IA y su impacto
    deben monitorearse continuamente para identificar y abordar nuevos riesgos
    con prontitud. Las revisiones y actualizaciones periódicas de los marcos AI
    TRiSM garantizan que sigan siendo eficaces y relevantes a lo largo del
    tiempo.
  • Participación de las partes interesadas: Interactuar con todas
    las partes interesadas, incluidos empleados, clientes y socios, para
    fomentar la comprensión de los principios de AI TRiSM. La formación y la
    educación son vitales para garantizar que las partes interesadas sean
    conscientes de los beneficios y riesgos de las tecnologías de IA.
  • Colaboración y evaluación comparativa: colaborar con pares de la
    industria, organismos reguladores e instituciones académicas para compartir
    mejores prácticas y aprender de las experiencias de otros en AI TRiSM. La
    evaluación comparativa con los estándares de la industria puede ayudar a
    identificar áreas de mejora.


Las plataformas de IA conversacional ya se han convertido en un elemento
crítico de la cadena de suministro de TI moderna para grandes empresas y
agencias gubernamentales.

Su protección requerirá un equilibrio entre las medidas tradicionales de
ciberseguridad relevantes para SaaS (software como servicio) y aquellas
especializadas y adaptadas a las particularidades de la IA.

Seis razones por las que necesita integrar AI TRiSM en modelos de IA

1. La mayoría de la gente no puede explicar qué es la IA y qué hace a los
administradores, usuarios y consumidores de los modelos de IA.

Se debe explicar:

  • los términos de la IA, para una audiencia específica;
  • cómo funcionan los modelo;
  • las fortalezas y debilidades del modelo;
  • Su comportamiento probable;
  • Cualquier posible sesgo;

2. Cualquiera puede acceder a ChatGPT y otras herramientas de IA generativa.

La GenAI puede potencialmente transformar la forma en que las empresas
compiten y funcionan, pero también inyecta nuevos riesgos que no pueden
abordarse con los controles convencionales.

En particular, los riesgos asociados con las aplicaciones de IA generativa
alojadas y basadas en la nube son importantes y están evolucionando
rápidamente.

3. Las herramientas de inteligencia artificial de terceros plantean riesgos
para la confidencialidad de los datos.

A medida que la organización integra modelos y herramientas de IA de
proveedores externos, también absorbe los grandes conjuntos de datos
utilizados para entrenar esos modelos de IA.

Los usuarios podrían estar accediendo a datos confidenciales dentro de los
modelos de IA de otros, lo que podría generar consecuencias regulatorias,
comerciales y de reputación para su organización.

Para 2026, los modelos de IA de las organizaciones que ponen en práctica la
transparencia, la confianza y la seguridad de la IA lograrán una mejora del
50% en términos de adopción, objetivos comerciales y aceptación de los
usuarios.

4. Los modelos y aplicaciones de IA requieren un seguimiento constante.

Se deben integrar procesos especializados de gestión de riesgos en las
operaciones del modelo de IA (ModelOps) para mantener la IA conforme, justa y
ética.

No hay muchas herramientas disponibles en el mercado, por lo que probablemente
se necesite desarrollar soluciones personalizadas para su canal de IA.

Los controles deben aplicarse continuamente, por ejemplo, durante el
desarrollo, las pruebas y la implementación de modelos y aplicaciones, y
durante las operaciones en curso.

5. Detectar y detener ataques adversarios a la IA requiere nuevos métodos.

Los ataques maliciosos contra la IA (tanto locales como integrados en modelos
de terceros) provocan diversos tipos de daños y pérdidas organizacionales, por
ejemplo, financieros, reputacionales o relacionados con la propiedad
intelectual, información personal o datos de propiedad exclusiva.

Se deben agregar controles y prácticas especializados para probar, validar y
mejorar la solidez de los flujos de trabajo de IA, más allá de los utilizados
para otros tipos de aplicaciones.

6. Las regulaciones pronto definirán los controles de cumplimiento.

La Ley de IA de la UE y otros marcos regulatorios en América del Norte, China e India ya
están estableciendo regulaciones para gestionar los riesgos de las
aplicaciones de IA, y las empresas deben estar al tanto de estos desarrollos,
añadió la empresa de ciberseguridad.

Por ejemplo, las recientes
Directrices de IA del PDPC en Singapur
ya alientan a las empresas a ser más transparentes al solicitar el
consentimiento para el uso de datos personales mediante la divulgación y
notificaciones. Las empresas deben garantizar que los sistemas de inteligencia
artificial sean confiables, brindando así a los consumidores confianza sobre
cómo se utilizan sus datos personales.

Referencias



Source link

Los comentarios están cerrados.