Cómo podría una IA avanzada alterar unas elecciones y socavar la democracia
¿Podrían los candidatos a unas elecciones utilizar IA avanzadas como ChatGPT para inducir a los votantes a comportarse de formas específicas?
El senador estadounidense Josh Hawley hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia sobre IA celebrada el 16 de mayo de 2023 en el Senado. Altman respondió que, efectivamente, le preocupaba que algunas personas pudieran utilizar modelos lingüísticos para manipular, persuadir y entablar interacciones individuales con los votantes.
Altman no dio más detalles, pero puede que tuviera en mente algo parecido a este escenario. Imaginemos que, dentro de poco, los tecnólogos políticos desarrollan una IA capaz de lanzar una campaña política.
Esta IA perseguiría sin descanso un único objetivo: maximizar las posibilidades de que su candidato — la campaña que compra los servicios del desarrollador — se imponga en unas elecciones.
Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de IA para conseguir que los usuarios pasen más tiempo en sus sitios, esta IA tendría un objetivo diferente: cambiar el comportamiento de voto de la gente.
Cómo podría funcionar una IA para alterar el voto
El blog Govtech cree que una IA podría utilizar la automatización para aumentar drásticamente la escala y potencialmente la eficacia de las técnicas de manipulación del comportamiento y microtargeting que utilizan las campañas políticas.
Al igual que ahora los anunciantes utilizan tu historial de navegación y de redes sociales para dirigir individualmente la publicidad, esta IA te prestaría atención a ti — y a cientos de millones de otros votantes — individualmente.
Ofrecería tres avances sobre el estado actual de la manipulación algorítmica del comportamiento. En primer lugar, su modelo lingüístico generaría mensajes — textos, redes sociales y correo electrónico, que podrían incluir imágenes y vídeos- – adaptados a cada persona.
Mientras que los anunciantes colocan estratégicamente un número relativamente pequeño de anuncios, los modelos lingüísticos como ChatGPT pueden generar innumerables mensajes únicos para cada votante a lo largo de una campaña.
En segundo lugar, la IA utilizaría una técnica llamada aprendizaje por refuerzo para generar una sucesión de mensajes con cada vez más probabilidades de cambiar su voto. El aprendizaje por refuerzo es un método de aprendizaje automático por ensayo y error en el que el ordenador realiza acciones y recibe información sobre cuáles funcionan mejor para aprender a lograr un objetivo.
En tercer lugar, a lo largo de una campaña, los mensajes de la IA podrían evolucionar para tener en cuenta tus respuestas a los mensajes anteriores de la máquina y lo que ha aprendido sobre cómo hacer cambiar de opinión a los demás.
Podría mantener «conversaciones» dinámicas contigo — y con millones de personas — a lo largo del tiempo. Los mensajes serían similares a los anuncios que te siguen a través de distintos sitios web y redes sociales.
La IA podría recurrir al engaño y manipulación
Los mensajes que enviaría esta IA pueden ser o no de contenido político. El único objetivo de la máquina es maximizar la cuota de votos, y es probable que idee estrategias para lograr este objetivo que a ningún humano se le habrían ocurrido.
Una posibilidad es enviar a los probables votantes contrarios información sobre pasiones no políticas que tengan en el deporte o el entretenimiento para ocultar los mensajes políticos que reciben. Otra posibilidad es enviar mensajes ofensivos — por ejemplo, anuncios de incontinencia — que coincidan con los mensajes de los adversarios. Y otra es manipular los grupos de amigos de los votantes en las redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.
En segundo lugar, la IA no tiene en cuenta la verdad. De hecho, no tiene forma de saber lo que es verdad o mentira. Las «alucinaciones» del modelo lingüístico no son un problema para esta máquina porque su objetivo es cambiar tu voto, no proporcionar información precisa.