Por Fidel Moisés Sánchez Garrido
Es ampliamente reconocido que la inteligencia artificial (IA/AI) ha influido mucho en el panorama que conocíamos previo al término de la pandemia de Covid-19. En la actualidad, la IA se emplea en una amplia gama de áreas que abarcan desde las comunicaciones hasta la medicina y los conflictos bélicos.
Como se era de esperar a raíz de estos avances en la tecnología actualmente existente, se han originado nuevos desafíos y requerimientos; al mismo tiempo que nos planteamos importantes preguntas sobre cómo salvaguardar y supervisar las aplicaciones de la inteligencia artificial para garantizar que sus ventajas no se conviertan en amenaza a nuestra propia existencia.
Es ampliamente reconocido que la inteligencia artificial tiene la capacidad de crear y difundir contenido de manera rápida y en grandes cantidades como nunca antes había sido visto. Además de esto, sabemos que existen herramientas de IA que pueden generar no solo textos, sino también imágenes, audios y videos que aparentan ser auténticos pero que son completamente falsos, como los conocidos “deep fakes”.
Estas tecnologías facilitan la creación de noticias falsas tan precisas y detalladas que resultará difícil distinguirlas de las verdaderas. En una era de posverdad donde las emociones y la percepción predominan sobre los hechos verídicos a la hora de formar opiniones públicas, no sería descabellado considerar que la inteligencia artificial pueda ser utilizada para elaborar estrategias de desinformación mediante algoritmos que detecten y aprovechen las debilidades cognitivas para influir en la opinión del público y crear divisiones dentro de comunidades enteras.
La regulación legal de la inteligencia artificial es un campo innovador que plantea preguntas difíciles sobre cómo controlar estas tecnologías con autonomía para evolucionar y aprender, cuan si se tratase de seres humanos superdotados.
Actualmente, no hay legislaciones preparadas en ningún país para abordar los desafíos derivados de la intersección entre inteligencia artificial y el fenómeno de la posverdad. Es vital que los entes de supervisión y los legisladores colaboren estrechaemente para garantizar un uso ético de esta tecnología y respetando los derechos básicos a la privacidad personal y la libertad de expresión así como el honor individual. Las normativas se enfrentan a un desafío importante al buscar equilibrar la promoción de la creatividad y la protección de los derechos personales.
La era de la posverdad planteada un desafío para nuestra capacidad de adaptarnos en un mundo donde la inteligencia artificial puede ser tanto una aliada como una enemiga potencial. La contrainteligencia artificial se presenta como un recurso potente para proteger la integridad de la información y garantizar que en un entorno lleno de contenido la verdad no solo persistirá sino que también se reforzará. Si las personas no alimentan la capacidad crítica de analizar y verificar la información que consumen ninguna solución técnica o legal podrá ser completamente efectiva.
La contrainteligencia artificial (CIA / CAI) vela para que el uso de la IA no nos dañe. Esta lucha necesita una participación activamente colaborativa de todos los actores sociales, considerándose como uno de los retos más significativos de los que hemos enfrentado desde que aprendimos a controlar el fuego.