🎃 ¡Rebajas de Halloween! ¡Office 2021 para siempre por sólo 29,11€/PC! [ Saber más ]
Para quienes han navegado por internet durante años, los CAPTCHA se han vuelto una parte cotidiana de la experiencia online. Estas pruebas, que suelen pedirnos identificar objetos en imágenes de calles como bicicletas o semáforos, han sido el método estándar para distinguir entre humanos y bots.
Sin embargo, investigaciones recientes han revelado que bots entrenados con modelos avanzados de reconocimiento de imágenes están alcanzando niveles de éxito comparables a los humanos, logrando incluso una tasa de aciertos del 100% en los CAPTCHA.
El declive del reCAPTCHA v2
El estudio, realizado por Andreas Plesner, un estudiante de doctorado en ETH Zurich, se enfoca en la versión 2 de reCAPTCHA de Google, que desafía a los usuarios a identificar objetos en imágenes.
Aunque Google ha estado sustituyendo este sistema con el reCAPTCHA v3, que analiza interacciones en lugar de plantear desafíos explícitos, millones de sitios web aún utilizan el sistema anterior. Incluso los sitios que implementan el reCAPTCHA v3 a veces recurren a la versión 2 cuando no están seguros de si el usuario es un ser humano.
Para derrotar al reCAPTCHA v2, los investigadores usaron una versión ajustada del modelo de reconocimiento de objetos YOLO (You Only Look Once), el cual es famoso por su capacidad para detectar objetos en tiempo real y operar en dispositivos con poder computacional limitado.
Este modelo fue entrenado con 14.000 imágenes etiquetadas de tráfico, permitiendo que el sistema identificara con precisión las categorías de objetos que reCAPTCHA v2 presenta, como bicicletas, cruces peatonales y señales de tráfico.
Además de utilizar el modelo de reconocimiento de imágenes, los investigadores tomaron otras medidas para engañar al sistema de CAPTCHA. Por ejemplo, emplearon una VPN para evitar que Google detectara múltiples intentos desde la misma dirección IP, y crearon un modelo de movimiento de ratón que imitaba los patrones de comportamiento humano. También utilizaron información falsa de navegadores y cookies para hacer que el bot pareciera una persona real.
Resultados del estudio
Dependiendo del tipo de objeto que el CAPTCHA solicitaba identificar, el modelo YOLO logró tasas de acierto que oscilaban entre el 69% (para motocicletas) y el 100% (para bocas de riego). Al combinar estos resultados con las otras técnicas implementadas, el bot pudo superar los desafíos de CAPTCHA en cada intento, a veces necesitando menos intentos que un humano promedio.
Este avance representa un hito importante en el desarrollo de la inteligencia artificial, ya que estudios anteriores solo habían logrado tasas de éxito del 68% al 71%. Según los autores del estudio, este incremento al 100% de éxito marca el inicio de una nueva era en la que los CAPTCHA ya no son efectivos para diferenciar entre humanos y bots.
El futuro de los CAPTCHA
El problema de los CAPTCHA no es nuevo. Ya en 2008, investigadores demostraron que los bots podían romper los CAPTCHA de audio diseñados para usuarios con discapacidad visual. En 2017, redes neuronales empezaron a superar los CAPTCHA basados en texto, lo que dejó obsoleto ese tipo de verificación.
Ahora que los bots también pueden resolver fácilmente los CAPTCHA basados en imágenes, los métodos para verificar que un usuario es humano se están desplazando hacia enfoques más sutiles, como el «fingerprinting» de dispositivos. Un portavoz de Google Cloud explicó que están trabajando en mejorar la protección sin necesidad de mostrar desafíos visuales, lo que fue la razón detrás del lanzamiento de reCAPTCHA v3 en 2018.
A medida que los sistemas de inteligencia artificial continúan cerrando la brecha con las capacidades humanas, encontrar métodos efectivos para distinguir entre bots y personas se vuelve cada vez más difícil. Como señalan los autores del estudio, “un buen CAPTCHA marca la frontera exacta entre la máquina más inteligente y el humano menos inteligente”. Sin embargo, con los avances en aprendizaje automático, esa frontera se está volviendo más difícil de trazar.
Ver comentarios (1)
Estudiar como romper la seguridad, que detestables.