Inteligencia artificial y elecciones en 2024
Los años electorales siempre son desafiantes, por distintas razones. Si nos concentramos en la comunicación, los medios y la tecnología, encontramos cerca de un siglo de discusiones sobre los modos en que estas se relacionan con la política, desde las investigaciones de Harold Lasswell sobre la propaganda política en la década de 1920, o de Paul Lazarsfeld sobre campañas electorales y líderes de opinión en los años 30, hasta las preocupaciones de nuestros tiempos en torno a las plataformas digitales, la gestión de los datos, los algoritmos y la inteligencia artificial.
Aclaro que, aunque en esta ocasión me voy a enfocar principalmente en algunos riesgos, no considero que la inteligencia artificial o cualquier otra tecnología sean negativas en sí mismas. Pueden ser de mucho beneficio si se emplean de manera inteligente, creativa y ética. Ya en otro momento hablaré de iniciativas interesantes que están haciendo contribuciones en esta línea.
Hablemos de los otros casos, los no éticos. Tenemos el antecedente de Cambridge Analytica, que recopiló datos sin el consentimiento de los usuarios a través de una aplicación en Facebook y después los usó para las campañas electorales de Donald Trump y Ted Cruz en Estados Unidos 2016. Básicamente, recopilaron datos de perfiles psicológicos de los usuarios; eso sirvió para crear mensajes con temas y tonos específicos para persuadir a las y los votantes en función de sus modos de pensar; además de que generó noticias falsas y las diseminó a través de redes sociodigitales.
Hace un par de días se publicó en la MIT Technology Review un texto sobre las perspectivas de la inteligencia artificial en 2024. Sus autores, Melissa Heikkilä y Will Douglas Heaven, exploran los chatbots personalizados, la segunda ola de la inteligencia artificial generativa de vídeo, los robots que realizan múltiples tareas, pero también —y aquí es donde debemos poner mucha atención— la expansión de la desinformación electoral generada por inteligencia artificial. Para este pronóstico, los autores toman como punto de partida lo que ya ocurrió en Argentina —donde los dos candidatos a la presidencia usaron imágenes y vídeos generados por inteligencia artificial para atacar a sus oponentes—, en Eslovaquia —donde se hicieron virales los deepfakes de un líder del partido liberal proeuropeo amenazando con aumentar el precio de la cerveza y haciendo bromas sobre la pornografía infantil—, así como en Estados Unidos —donde Donald Trump aplaude a un grupo que se autonombra Trump’s Online War Machine y usa inteligencia artificial para hacer memes racistas y sexistas—. Los tres casos son preocupantes porque se trata de usos no éticos de la inteligencia artificial, para desinformar, poner en circulación información falsa y discursos de odio, en momentos electorales.
El escenario es preocupante en México, porque se cruzan una cultura política muy débil, una alfabetización mediática informacional más débil aún, con la ausencia de regulaciones específicas. Aquí es donde entra en juego la responsabilidad de las grandes corporaciones tecnológicas para desarrollar mecanismos de identificación de información falsa; de los medios periodísticos para verificar la información; de iniciativas como Verificado; de los órganos electorales, las organizaciones civiles y las iniciativas académicas, para desarrollar programas de cultura política y alfabetización mediática informacional; así como de la ciudadanía para cuestionar la información que recibe.
Las ideas aquí expresadas pertenecen solo a su autor, binoticias.com las incluye en apoyo a la libertad de expresión