La inteligencia artificial (IA), al igual que los ‘chatbots’, está acelerando y democratizando la investigación para proporcionar información comprensible y experiencia en muchos campos diferentes. Sin embargo, estos modelos también pueden brindar un acceso fácil a tecnologías de doble uso capaces de causar un gran daño: así, la IA podría ayudar a alguien sin conocimientos científicos e intenciones maliciosas a diseñar y ordenar un virus capaz de atar una pandemia.

Lo apunta un artículo preimpreso publicado en la web arXiv En su autor, Kevin Esvelt, afirma que los sistemas de IA pronto podrían permitir que personas sin formación científica diseñen armas biológicas tan amenazadoras como las nucleares.

Esvelt, experto en bioseguridad del Instituto de Tecnología de Massachusetts (EE.UU.), Encargó tiene un grupo de estudiantes que no cursaban la rama de ciencias un investigador si los chatbots podrían ayudar a personas no expertas a causar una pandemia.

Y, en apenas una hora, los chatbots sugirieron cuatro posibles agentes patógenos pandémicos, empresas que podrían ayudar a sintetizar el código genético de los patógenos y empresas de investigación contratadas que podrían juntar las piezas.

Los chatbots sugirieron cuatro virus: el virus de la gripe H1N1 de 1918, un virus de la gripe aviar H5N1 modificado en 2012 para ser más transmisible en los mamíferos, el virus viruela variola major y la cepa de Nipah de Bangladesh. Aunque una búsqueda en Google muestra tal lista, en algunos casos, los chatbots incluso señalaron genéticamente identificados que podrían aumentar la transmisión.

Estos resultados sugieren que los ‘chatbots’ harán que los agentes de clase pandémica sean ampliamente accesibles tan pronto como sean identificados de manera creíble, incluso para personas con poca o ninguna capacitación de laboratorio.

Hasta la fecha, llevar a cabo este tipo de bioterrorismo ha requerido un conocimiento especializado considerable. No solo el posible terrorista tendrá que identificar un virus candidato como punto de partida, sino que también necesitará sintetizar el material genético viral, ensamblar el genoma y mezclarlo con otros reactivos para “activar” un virus capaz de infectar células y reproducirse.

Pero ahora, tal y como se explica en «Ciencia» Jaime Yasif, director de Programa Iniciativa Contra la Amenaza Nuclear, todos estos pasos se están volviendo más fáciles. Por ejemplo, las impresoras de ADN ya disponibles podrían a los investigadores evitar las comprobaciones que la mayoría de las empresas de biología sintética realizan actualmente para garantizar que ningún pedido incluya material genético para posibles armas biológicas.

Además, la IA también ha descrito técnicas que se pueden utilizar para ensamblar un virus a partir de su secuencia genética, así como los suministros de laboratorio necesarios y las empresas que podrían proporcionarlos.

Finalmente, los chatbots incluso sugieren empresas que podrían estar dispuestas a imprimir material genético sin someterlo a cribado, y laboratorios contratados que podrían ayudar a juntar las piezas.

Asumiendo que Esvelt duda de que las sugerencias específicas hechas por los chatbots representan una gran amenaza pandémica, sin embargo, crea que el experimento pone de manifiesto como la IA y otras herramientas podrían facilitar que los posibles terroristas desaten nuevas amenazas.

¿Qué hacer? Esvelt señala en «Ciencia» que limite la información que los chatbots y otros motores de IA pueden usar como datos de entrenamiento podría ayudar.