
Nota publicada: 2025-03-31
La inteligencia artificial (IA) está matando al KYC, el proceso tradicional de Conoce a tu Cliente, en el mundo de Bitcoin y las criptomonedas. Gracias a avances vertiginosos, generar documentos falsos en segundos es una realidad que golpea desde bancos tradicionales hasta exchanges de bitcoin (BTC), forzando al sector a repensar cómo proteger a los usuarios sin comprometer su esencia en un entorno digital cada vez más vulnerable.
Un hilo del 29 de marzo en X, publicado por godofprompt, incluye un ejemplo contundente: un correo falso de la cadena de gimnasios de origen estadounidense LA Fitness, generado por IA, con número de confirmación y un diseño impecable. El autor advierte que estas falsificaciones son tan fáciles de producir que los sistemas que usan fotos como prueba de verificación están quedando expuestos como frágiles e insuficientes.
«La era de ‘ver es creer’ ha terminado oficialmente en la documentación digital, y la capacidad de la IA para crear pruebas falsas crece a un ritmo que los sistemas actuales no pueden seguir», sentencia el usuario de X. Y ante ello, los exchanges de bitcoin serían los primeros en sentir el golpe.
Para los exchanges de Bitcoin, que usan el KYC como pilar para cumplir regulaciones contra el lavado de dinero y garantizar la seguridad, esta evolución es un desafío monumental. Porque si bien la mayoría ha solicitado fotos, selfies o comprobantes para verificar la identidad de sus usuarios, la facilidad con que la IA genera estos documentos hace que se derrumbe la confianza en esos métodos.
El auge de la inteligencia artificial dispara el riesgo de cuentas falsas, con estafadores fabricando identificaciones en segundos para burlar controles. Las disputas legales podrían multiplicarse, con usuarios que presenten documentos falsos para «probar» cancelaciones o retiros, dejando a los exchanges en jaque. Y no termina ahí: reguladores alarmados podrían exigir autenticaciones más estrictas, elevando costos en un mercado ya competitivo.
El método no es nuevo, ya que el año pasado CriptoNoticias reportó una investigación del periodista estadounidense Joseph Cox, que reveló que el sitio web llamado OnlyFake se dedica a producir pasaportes, licencias de conducir y otros tipos de identificación personal de al menos 26 países del mundo. Para ello, se apoyan en herramientas basadas en IA y cobran USD 15 por cada falsificación.
Sin embargo, con el avance de herramientas como ChatGPT-4, lo que antes dependía de terceros ahora está al alcance de cualquiera, permitiendo fabricar identificaciones en segundos y agravando la crisis de los exchanges.
¿Qué sigue? Soluciones ante la crisis de autenticidad
El colapso del KYC tradicional podría liberar a los usuarios de compartir fotos y selfies, una práctica que la comunidad Bitcoin rechaza por invasiva. Pero la solución exige medidas drásticas: verificación cruzada con bases de datos gubernamentales, biometría dinámica como huellas o reconocimiento facial en vivo, e incluso escaneo de iris, al estilo de Worldcoin, vinculado a los creadores de ChatGPT.
No obstante, estos sistemas demandan más datos —huellas, patrones de comportamiento— centralizando información sensible en manos de plataformas o gobiernos. Así, aunque la IA desnuda las fallas del viejo KYC, su reemplazo podría enterrar aún más el pseudoanonimato de Bitcoin bajo una vigilancia implacable, dejando a los usuarios en una encrucijada en la que tendrían que adaptarse o resistir.