por Sunita Sohrabji
Ethnic Media Services
La orden ejecutiva de la Administración Biden sobre IA impone muchos estándares a la tecnología emergente, pero los expertos dicen que se necesita mucho más para salvaguardar el proceso electoral.
La inteligencia artificial generativa tiene el potencial de alterar drásticamente el resultado de las elecciones estadounidenses de 2024, dijeron expertos en una sesión informativa el 27 de noviembre, organizada por el Centro Brennan para la Justicia.
La IA, que alguna vez estuvo estrictamente confinada a la ciencia ficción, ahora está en todas partes. Las capacidades de la IA generativa para manipular datos, hacerse pasar por expertos, candidatos y líderes políticos y arrojar información errónea en las redes sociales llegan en un momento en que los votantes ya enfrentan el desafío de separar los hechos de las falsedades.
En un momento sorpresa durante la sesión informativa, la moderadora Zoe Schiffer, editora en jefe de Platformer News, presentó un clip que utilizó IA generativa para crear una versión clonada del orador Lawrence Norden, director senior del Programa de Elecciones y Gobierno del Centro Brennan para la Justicia en Facultad de Derecho de la Universidad de Nueva York. El Norden generado por IA pudo replicar con precisión las preocupaciones de Norden sobre la IA en las próximas elecciones, pero agregó desinformación adicional e hipérbole sobre la supuesta interferencia de China, Irán y Rusia.
Falsificaciones Profundas
El verdadero Norden dividió sus preocupaciones en cuatro categorías: amenaza de imitación, también conocida como deep fakes, en la que Chat GPT se utiliza para generar artículos que parecen provenir de oficinas electorales o candidatos.
La IA también se puede utilizar para acosar a los funcionarios electorales, dijo Norden, y los correos electrónicos generados por IA inundan las oficinas electorales con solicitudes de registros frívolos. “Se podría imaginar que las oficinas se vean inundadas con miles y miles de solicitudes que impiden que los funcionarios electorales hagan su trabajo”, dijo.
Una tercera amenaza son los ciberataques, potencialmente contra oficinas electorales, dijo Norden, añadiendo que su cuarta preocupación era el miedo público a la IA. «Se ha escrito tanto al respecto y ya se ha socavado tanto la confianza en nuestras elecciones que la propia IA y las afirmaciones sobre lo que puede hacer pueden contribuir a socavar la confianza en las elecciones», dijo.
La autenticación multifactorial (que requiere que las personas ingresen una contraseña enviada a sus teléfonos) puede frenar algunos de los problemas con el material generado por IA, dijo Norden. Las máquinas de votación y los libros electorales electrónicos deben tener copias de seguridad en papel, dijo.
Orden Ejecutiva de Biden
«Necesitamos asegurarnos de que los funcionarios electorales y los medios de comunicación brinden al público información precisa sobre las elecciones», dijo Norden.
En octubre, la Administración Biden anunció una orden ejecutiva que intentaba establecer salvaguardias y supervisión del uso de la IA. Mia Hoffman, investigadora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, dijo que la acción era un buen comienzo.
“A un alto nivel, hace muchas cosas bien. Creo que están tratando de abordar muchas preocupaciones diferentes con una sola directiva y eso es difícil de lograr”, dijo.
En el contexto de las elecciones, la orden ejecutiva aborda la desinformación con técnicas de marcas de agua: se incorporarán patrones ocultos en el contenido generado por IA para que sea detectable e identificable. «De hecho, podemos saber qué información y qué medios son reales y cuáles son falsos», dijo Hoffman. Añadió que también estaba entusiasmada con las inversiones en investigación sobre tecnología de autenticación.
Evaluación de Riesgos
“Ser capaz de saber que cierta información no ha sido manipulada podría en realidad llegar a ser más valioso que poder saber si algo ha sido generado por IA o no, porque solo requiere emisores de noticias confiables para poder cumplir con esta autenticación en lugar de hacerlo. en lugar de hacer que todos los que generan algo con IA usen marcas de agua”, dijo.
El hardware y el software electoral estarán sujetos a una evaluación de riesgos anual cuando se utilice IA”, dijo Hoffman, señalando que se utilizará el marco de los Institutos Nacionales de Seguridad y Tecnología, el estándar de oro para la evaluación de riesgos.
Mekela Panditharatne, asesora del programa de democracia del Centro Brennan para la Justicia, dijo que el Congreso debía hacer más para salvaguardar no sólo las elecciones, sino también el uso general de la IA.
Supresión de Votantes
“A falta de acción del Congreso, el gobierno federal puede hacer una cantidad modesta y hacerla cumplir, y en cierto modo lo vimos con esta orden. Entonces, dadas esas limitaciones. Creo que es un esfuerzo admirable”.
Panditharatne dijo que la orden invoca la Ley de Producción de Defensa, una ley de seguridad nacional. “Pero cuando nos fijamos en lo que se puede hacer cumplir, se trata de una porción muy pequeña de los elementos. Elementos como la supresión de votantes, el uso de IA en la administración electoral y la seguridad electoral no se reconocen expresamente. Entonces, a medida que se implementa la orden, ciertamente es necesario tomar medidas importantes para garantizar que esos elementos estén suficientemente protegidos, pero el Congreso también necesita mucho más”, dijo.
Falsas Narrativas
Después de las elecciones, Panditharatne dijo que espera que se utilice la IA para generar desconfianza en los resultados, como ocurrió en las elecciones de 2020. “Podríamos ver una especie de amplificación de narrativas falsas sobre el proceso electoral, potencialmente falsificaciones de funcionarios electorales que manipulan el recuento de votos o impiden que la gente vote. Eso es algo que debería preocuparnos de ver potencialmente”, dijo.
Todos los expertos alentaron a los votantes a examinar en profundidad las fuentes de las que reciben contenido relacionado con las elecciones.