"No soy un robot. Escriba lo que ve en la imagen", ya parece ser una prueba de seguridad caduca para los avances de la Inteligencia Artificial (IA). 

Las pruebas Captcha suelen requerir a los usuarios introducir un conjunto de caracteres que se muestran en una imagen generalmente distorsionada para poder acceder al contenido, y evitar así que lo hagan robots.

Pero si bien parecía un método seguro, ahora  Dileep George, cofundador de la empresa de inteligencia artificial californiana Vicarious, explicó que el modelo de IA con el que están trabajando logra resolver la prueba al aprender y generalizar de una forma parecida a la de los humanos.

Lo han logrado “entrenando” al robot con conocimientos de neurociencia. Según Science, el modelo desarrollado por los científicos puesto a prueba logró resolver el 57,4 % de test de Yahoo, el 57,1 % de PayPal o el 67 % de test reCaptcha -otro modelo de estas pruebas- de Google.

Estos test, que el ser humano resuelve en el 87 % de ocasiones, se consideran inservibles si las máquinas los superan en más del uno por ciento.

“El objetivo a largo plazo es construir una inteligencia que trabaje como la humana. Los Captcha tan solo han sido un test natural para nosotros, porque es un test en el que puedes comprobar si tu modelo puede trabajar como un cerebro”, dijo George en declaraciones a la red estadounidense de radios públicas NPR.

EFE