La tecnología deepfake utilizada por los defraudadores para eludir la
verificación Know Your Customer (KYC) en los exchanges de criptomonedas y
bancos sólo va a ser más avanzada, ha advertido el jefe de seguridad de
Binance.
Los deepfake se realizan con herramientas de inteligencia artificial que
utilizan el aprendizaje automático para crear audio, imágenes o vídeos
convincentes con la imagen de una persona. Aunque esta tecnología tiene
usos legítimos, también puede
utilizarse para estafas y engaños.

La IA deepfake representa una grave amenaza para la humanidad, y ya no es sólo
una idea descabellada. Hace poco me topé con un vídeo que muestra un
deepfake de @cz_binance, y es aterradoramente convincente.
Deep fake AI poses a serious threat to humankind, and it’s no longer just
a far-fetched idea. I recently came across a video featuring a deep fake
of
@cz_binance
, and it’s scarily convincing.
pic.twitter.com/BRCN7KaDgq— DigitalMicropreneur.eth (@rbkasr)
February 24, 2023
En
declaraciones a Cointelegraph, el jefe de seguridad de Binance, Jimmy Su, dijo que había habido un aumento
de los estafadores que utilizan la tecnología para tratar de pasar los
procesos de verificación de clientes del exchange.
«El delincuente busca una foto normal de la víctima en algún lugar de
Internet. A partir de ahí, y utilizando herramientas de deepfake, son
capaces de producir vídeos para burlar el proceso.»
Su dijo que las herramientas se han vuelto tan avanzadas que incluso pueden
responder correctamente a instrucciones de audio diseñadas para comprobar si
el solicitante es un humano y pueden hacerlo en tiempo real.
«Algunas de las verificaciones requieren que el usuario, por ejemplo,
parpadee con el ojo izquierdo o mire a la izquierda o a la derecha, mire
hacia arriba o hacia abajo. Los deepfakes están hoy lo suficientemente
avanzados como para poder ejecutar esas órdenes», explicó.
Sin embargo, Su cree que los deepfakes aún no han alcanzado el nivel necesario
para engañar a un trader humano.«Cuando vemos esos vídeos, hay ciertas partes que podemos detectar con el
ojo humano», por ejemplo, cuando el usuario debe girar la cabeza hacia un lado, explica
Su.
«La IA las irá superando con el tiempo. Así que no es algo en lo que
podamos confiar siempre.»
En agosto de 2022, el jefe de comunicaciones de Binance, Patrick Hillmann,
advirtió
que un
«sofisticado equipo de hackers estaba utilizando sus anteriores entrevistas
de noticias y apariciones en televisión para crear una versión deepfake de
él». La versión deepfake de Hillmann se desplegó entonces para llevar a cabo
reuniones de Zoom con varios equipos de proyectos de criptomonedas,
prometiendo una oportunidad para enlistar sus activos en Binance, por un
precio, por supuesto.
«Ese es un problema muy difícil de resolver», dijo Su, cuando se le
preguntó sobre cómo combatir este tipo de ataques.
«Aunque podamos controlar nuestros propios vídeos, hay vídeos ahí fuera que
no son de nuestra propiedad. Así que una cosa, de nuevo, es la educación del
usuario».
En un
post del blog de Binance se incluye una sección sobre ciberseguridad. Binance dijo que utiliza algoritmos de IA y aprendizaje automático para sus
propios fines, incluida la detección de patrones inusuales de inicio de sesión
y patrones de transacción y otra «actividad anormal en la plataforma».
Fuente:
CoinTelegraph
Los comentarios están cerrados.