hCaptcha: detección de modelos lingüísticos a gran escala
La empresa afirma que sus sistemas pueden detectar automatizaciones avanzadas, incluso a medida que la IA se vuelve más inteligente.
hCaptcha responde a preguntas sobre el despliegue de un enfoque sencillo y directo para la identificación de modelos lingüísticos a gran escala (Large Lenguage Models LLMs) y otras formas de automatización. Estas preguntas profundizan en cómo los LLMs pueden afectar a servicios como hCaptcha y abordan la preocupación de que el crecimiento y el avance de la Inteligencia Artificial conduzcan a verificaciones humanas más desafiantes.
¿Cómo afectan los LLMs a servicios como hCaptcha?
Es importante entender que la Inteligencia Artificial y el Aprendizaje Automático no son un debate nuevo. hCaptcha lleva años desarrollando sistemas para detectar automatizaciones de todo tipo utilizando muchos enfoques diferentes.
Sin embargo, los servicios que ofrecemos son cada vez más urgentes y desafiantes a medida que mejoran las técnicas de Inteligencia Artificial y Aprendizaje Automático. Los proveedores heredados que no han sabido mantener el nivel de I+D necesario tendrán dificultades para seguir el ritmo. Por eso siempre nos hemos centrado en la investigación y evolucionamos continuamente en nuestras estrategias y métodos para mantenernos a la vanguardia.
¿Cómo detecta hCaptcha los LLMs y otras automatizaciones?
Aunque a menudo publicamos nuestras investigaciones en conferencias académicas sobre Aprendizaje Automático, generalmente no compartimos públicamente detalles específicos o estrategias de nuestras medidas de seguridad para proteger a nuestros usuarios.
A continuación, hacemos una excepción a esta práctica para ayudar a disipar parte de la confusión en torno a las verdaderas capacidades de los LLMs. Hoy en día, no tenemos ninguna dificultad para detectarlos y no esperamos que esto cambie pronto. A medida que la Inteligencia Artificial y el Aprendizaje Automático mejoran, los adversarios pueden adaptarse más rápidamente, pero del mismo modo nosotros también. Se trata de una carrera armamentística continua, pero no nueva.
¿Serán más difíciles las preguntas de verificación de la humanidad a medida que la IA sea más inteligente?
No necesariamente. Para entender por qué, necesitamos una idea clave. Los sistemas de IA y ML cometen diferentes tipos de errores que las personas. Los fallos individuales de los sistemas de Inteligencia Artificial y Aprendizaje Automático pueden corregirse, pero emular exactamente la cognición humana no está en el horizonte a corto plazo, incluso cuando los sistemas de IA empiecen a acercarse o superar la capacidad humana de resolución de problemas en otros aspectos.
Esta es una limitación fundamental de las redes neuronales artificiales. Son herramientas útiles, pero no reproducen especialmente bien la cognición humana. Comprender estas diferencias nos ofrece muchas formas de detectar los LLMs y otros modelos a través de retos.
hCaptcha ya es capaz de utilizar técnicas como estas para detectar de forma fiable los LLM e identificar qué LLM se está utilizando para producir la respuesta, especialmente porque cada LLMs comete errores identificables de forma consistente en una fila.
Como habrás adivinado, este no es nuestro único método de detección; lo hemos elegido para escribir porque es uno de los enfoques más sencillos de explicar. Esperamos que este ejemplo sea pronto parcheado debido a la publicación de nuestros resultados, pero la diferencia subyacente que permite la detección es fundamental para estos sistemas.
¿Necesita detectar automatizaciones avanzadas usted mismo?
Echa un vistazo a hCaptcha Enterprise para encontrar y detener el fraude y el abuso en línea, ya sea automatizado o humano.