A mediados de 2016, antes de la elección presidencial en Estados Unidos, John Seymour y Philip Tully, dos investigadores de ZeroFOX, una empresa de seguridad en Baltimore, develaron un nuevo tipo de bot de Twitter. Analizando los patrones de actividad en la plataforma, el bot aprendió a engañar a los usuarios para que dieran clic en enlaces de tuits que llevaban a sitios potencialmente peligrosos.
El bot, llamado SNAP_R, era un sistema automatizado de fraude por suplantación de identidad (phishing), capaz de aprovechar los gustos de cada persona con el fin de convencerlos de descargar sin saberlo programas espía en sus máquinas. “Los arqueólogos creen haber encontrado la tumba de Alejandro Magno está en Estados Unidos por primera vez: goo.gl/KjdQYT”, le tuiteó el bot a un usuario desprevenido.
Incluso con esos errores gramaticales, SNAP_R logró que los usuarios dieran clic hasta en un 66 por ciento de las veces, al igual que los hackers humanos que crean mensajes electrónicos fraudulentos para robar datos.
El bot estaba desarmado: solo era una demostración. Sin embargo, tras la elección y la ola de preocupación por el ciberataque político, las noticias falsas y el lado oscuro de las redes sociales, ilustró por qué el panorama de la falsificación solo se volverá más lúgubre.
EXPLORA NYTIMES.COM/ES
La sorpresa de las mujeres de La Paz
Ambos investigadores construyeron lo que se llama red neuronal, un complejo sistema matemático que puede aprender tareas analizando grandes cantidades de datos.
Una red neuronal puede aprender a reconocer a un perro mediante el procesamiento de patrones de miles de fotografías de perros. Puede aprender a identificar palabras habladas a partir de la revisión de viejas llamadas de soporte técnico.
Además, tal como lo demostraron los dos investigadores, una red neuronal puede aprender a escribir mensajes electrónicos fraudulentos inspeccionando tuits, publicaciones de Reddit y ciberataques en línea previos.
Actualmente, la misma técnica matemática está inyectándoles a las máquinas un amplio rango de capacidades similares a las humanas, desde el reconocimiento de voz hasta la traducción de lenguas. En muchos casos, esta nueva especie de inteligencia artificial (IA) también es una manera ideal para engañar a muchas personas en internet. La manipulación en masa está a punto de volverse mucho más sencilla.
“Sería muy sorprendente que las cosas no fueran en esa dirección”, dijo Shahar Avin, investigador en el Centro para el Estudio de Riesgos Existenciales en la Universidad de Cambridge. “Todas las tendencias apuntan en esa dirección”.
Muchos observadores tecnológicos han expresado preocupación por el ascenso de la IA que genera deepfakes, es decir, imágenes falsas que parecen reales. Lo que comenzó como una manera de poner la cabeza de quien sea en el cuerpo de una estrella porno se ha convertido en una herramienta para poner cualquier imagen o audio en cualquier video de manera imperceptible.
En abril, BuzzFeed y el comediante Jordan Peele publicaron un video que ponía ciertas palabras, entre ellas la frase “necesitamos estar más alertas respecto de las cosas en las que confiamos en internet”, en boca del expresidente estadounidense Barack Obama.
La amenaza solo se hará más grande conforme los investigadores desarrollen sistemas que puedan metabolizar y aprender de repositorios de datos cada vez más grandes. Las redes neuronales pueden generar sonidos e imágenes creíbles. Esto es lo que permite que los asistentes digitales como Siri de Apple suenen más humanos que lo que sonaban hace unos años.
Google ha construido un sistema llamado Duplex que puede llamar a un restaurante local, hacer reservaciones y hacer pensar a la persona que está del otro lado del teléfono que quien llama es una persona real. Se espera que el servicio llegue a los teléfonos inteligentes antes de que termine el año.
Los expertos desde hace mucho han tenido el poder de editar audios y videos. No obstante, a medida que estos sistemas de IA mejoren, se volverá más fácil y más barato que cualquiera genere contenido digital —imágenes, videos, interacciones sociales— que se vea y suene como si fueran real.
Inspirados por la cultura académica, los principales laboratorios de IA e incluso empresas públicas gigantes como Google publican abiertamente sus investigaciones y, en muchos casos, su código de software.
Con estas técnicas, las máquinas también están aprendiendo a leer y escribir. Durante años, los expertos cuestionaron si las redes neuronales podrían descifrar el código del lenguaje natural. Sin embargo, la situación ha cambiado en meses recientes.
Organizaciones como Google y OpenAI, un laboratorio independiente en San Francisco, han construido sistemas que aprenden las minucias de la lengua a gran escala —analizando todo, desde artículos de Wikipedia hasta novelas de romance de publicación independiente— antes de aplicar este conocimiento a tareas específicas. Los sistemas pueden leer un párrafo y responder preguntas al respecto. Pueden juzgar si la reseña de una película es positiva o negativa.
Esta tecnología podría mejorar los bots que se utilizan para mensajes fraudulentos por internet como SNAP_R. Actualmente, la mayoría de los bots de Twitter parecen bots, sobre todo cuando comienzas a responderles. En el futuro, ellos responderán también.
La tecnología también podría llevar a la creación de bots de voz que puedan mantener una conversación adecuada y, sin duda, uno de estos días te llamarán y te convencerán de proporcionar la información de tu tarjeta de crédito.
Estos sistemas de lenguaje están impulsados por una nueva ola de poder informático. Los ingenieros de Google han diseñado microprocesadores específicamente para entrenar redes neuronales. Otras empresas están construyendo microprocesadores similares y, conforme lleguen al mercado, acelerarán la investigación en torno a la IA aún más.
Jack Clark, director de políticas en OpenAI, puede ver un futuro no muy distante en el que los gobiernos creen sistemas de aprendizaje automatizado que intenten radicalizar a las poblaciones de otros países, o impongan ideas a su propio pueblo.
“Este es un nuevo tipo de control o propaganda social”, comentó. “Los gobiernos pueden comenzar a crear campañas dirigidas a individuos pero, al mismo tiempo, operar a través de muchas personas de manera paralela, con un objetivo más grande”.
Idealmente, la inteligencia artificial también podría proporcionar maneras de identificar y detener este tipo de manipulación masiva. A Mark Zuckerberg le gusta hablar de las posibilidades. Sin embargo, para el futuro previsible, enfrentamos una carrera armamentista de aprendizaje automático.
Por ejemplo, consideremos las redes generativas antagónicas (GAN): son un par de sistemas de redes neuronales que pueden generar automáticamente imágenes convincentes o manipular las existentes. Lo hacen jugando una suerte de dinámica del gato y el ratón: la primera red hace millones de cambios pequeños a una imagen ⎯se añade nieve a las escenas veraniegas de una calle, los osos pardos se transforman en pandas, los rostros falsos lucen tan convincentes que los espectadores los confunden con celebridades⎯ en un esfuerzo para engañar a la segunda red.
La segunda red hace lo mejor que puede para evitar que la engañen. Mientras ambas compiten, la imagen se vuelve más convincente y la IA que trata de detectar el contenido falso siempre pierde.
Detectar las noticias falsas es aún más difícil. Los humanos apenas pueden ponerse de acuerdo con respecto a qué cuenta como noticias falsas, ¿cómo podemos esperar que lo haga una máquina? Y si pudiera, ¿querríamos que lo hiciera?
Quizá la única manera de detener la desinformación es enseñarle a la gente de alguna manera a considerar con desconfianza extrema lo que ven en línea. No obstante, esa podría ser la solución más difícil de todas.
“Podemos utilizar la tecnología para reparar nuestros sistemas computacionales”, dijo Avin. “Pero no podemos reparar la mente de las personas”.