NUEVA YORK (AP) — Las advertencias se han hecho más fuertes y urgentes a medida que se acerca 2024: el rápido avance de las herramientas de inteligencia artificial amenaza con amplificar la desinformación en las elecciones presidenciales del próximo año a una escala nunca antes vista.
La mayoría de los adultos en Estados Unidos piensan lo mismo, de acuerdo con una nueva encuesta de The Associated Press-NORC Center for Public Affairs Research y de la Escuela Harris de Políticas Públicas de la Universidad de Chicago.
La encuesta reveló que casi 6 de 10 adultos (58%) creen que las herramientas de IA —que pueden dirigirse a audiencias políticas, producir mensajes persuasivos masivos y generar imágenes y videos muy realistas pero falsos en cuestión de segundos— aumentarán la difusión de información falsa o engañosa durante las elecciones del próximo año.
En contraste, sólo el 6% cree que la IA reducirá la difusión de desinformación, mientras que un tercio dijo que no hará mucha diferencia.
“Mira lo que pasó en 2020, y eso sólo fue con las redes sociales”, señaló Rosa Rangel, una mujer de 66 años de Fort Worth, Texas.
Rangel, una demócrata que dijo haber visto muchas “mentiras” en las redes sociales en 2020, manifestó que piensa que la IA empeorará las cosas en 2024, como una olla hirviendo que se desborda.
Sólo el 30% de los adultos estadunidenses ha usado los chatbots o los generadores de imágenes de inteligencia artificial, y menos de la mitad (46%) ha oído o leído al menos algo acerca de las herramientas de IA. Aun así, existe un amplio consenso en que los candidatos no deberían utilizar la IA.
A la pregunta de si sería bueno o malo que los candidatos presidenciales de 2024 usaran la inteligencia artificial de alguna manera, la gran mayoría dijo que sería malo que crearan contenidos falsos o engañosos para anuncios políticos (83%), que editaran o retocaran fotos o videos para anuncios políticos (el 66%), que adaptaran los anuncios políticos a los votantes individuales (62%), y que respondieran a las preguntas de los votantes a través de chatbots (56%).
Estos sentimientos son respaldados por mayorías de republicanos y demócratas, que coinciden en que sería negativo que los candidatos presidenciales crearan imágenes o videos falsos (85% de los republicanos, y 90% de los demócratas) o respondieran a las preguntas de los votantes con IA (56% de los republicanos, y 63% de los demócratas).
No obstante, la IA ya se ha utilizado en las primarias presidenciales republicanas.
El Comité Nacional Republicano publicó en abril un anuncio generado completamente por IA que pretendía enseñar el futuro del país si el presidente Joe Biden era reelegido. Usaba fotos falsas pero de apariencia realistas que mostraban comercios tapiados, patrullas militares con vehículos blindados en las calles, y oleadas de migrantes que sembraban el pánico. El anuncio decía en letra pequeña que había sido generado por IA.
Ron DeSantis, gobernador de Florida, también utilizó la IA en su campaña por la nominación del Partido Republicano. Promovió un anuncio que empleaba imágenes generadas por IA para que pareciera que el expresidente Donald Trump estaba abrazando al doctor Anthony Fauci, el experto en enfermedades infecciosas que supervisó la respuesta nacional ante la pandemia de COVID-19.
Never Back Down, un comité de promoción política que respalda a DeSantis, usó una herramienta de IA para imitar la voz de Trump e hizo parecer que leía un post de las redes sociales.
“Creo que deberían hacer campaña por sus méritos, no por su habilidad de infundir miedo en los corazones de los votantes”, dijo Andie Near, una mujer de 42 años de Holland, Michigan, que normalmente vota por demócratas.
Near ha utilizado herramientas de IA para retocar imágenes en su trabajo en un museo, pero dijo que piensa que los políticos que usan la tecnología para confundir pueden “agravar y empeorar el efecto que hasta los mensajes convencionales pueden causar”.
El estudiante universitario Thomas Besgen, de tendencia republicana, tampoco aprueba las campañas que usan sonidos o imágenes manipulados digitalmente para hacer creer que un candidato ha dicho algo que nunca dijo.
“Moralmente, eso está mal”, dijo el joven de 21 años de Connecticut.
Besgen, estudiante de ingeniería mecánica en la Universidad de Dayton, Ohio, dijo estar de acuerdo con prohibir los anuncios deepfake o, si eso no es posible, exigir que se etiqueten como generados por IA.
La Comisión de Elecciones Federales de Estados Unidos está considerando presentar una petición para regular los deepfakes generados por IA en los anuncios políticos de cara a las elecciones de 2024.
Aunque escéptico hacia el uso de la IA en la política, Besgen se dijo entusiasta con respecto a su potencial para la economía y la sociedad. Utiliza habitualmente herramientas de IA como ChatGPT para entender mejor temas de historia que le interesan o para hacer lluvias de ideas. También usa los generadores de imágenes para divertirse; por ejemplo, para imaginar cómo se verían ciertos estadios deportivos dentro de 100 años.
Dijo que por lo general confía en la información que obtiene a través de ChatGPT y que es probable que lo utilice para saber más de los candidatos presidenciales, algo que sólo el 5% de los adultos dijo que es probable que haga.
Según la encuesta, los estadounidenses consultan más a los medios de comunicación (46%), amigos y familiares (29%), y redes sociales (25%) para informarse sobre las elecciones presidenciales que a los chatbots de inteligencia artificial.
“Sea cual sea la respuesta que me dé, me la tomaría con las pinzas”, dijo Besgen.
La amplia mayoría de los estadounidenses son igualmente escépticos hacia la información que proporcionan los chatbots de IA. Sólo el 5% dice confiar mucho en que la información sea verídica, mientras que el 33% dice confiar algo, de acuerdo con la encuesta. La mayoría de los adultos (61%) dicen que no confían mucho o nada en que la información sea fiable.
Eso coincide con las advertencias de muchos especialistas en IA acerca del uso de chatbots para conseguir información. Los grandes modelos lingüísticos de inteligencia artificial que suelen alimentar los chatbots funcionan seleccionando las palabras más plausibles para formar una oración, lo que los hace buenos imitando estilos de escritura, pero también proclives a inventarse cosas.
Los adultos simpatizantes de los dos principales partidos políticos suelen estar abiertos a la regulación de la IA. Respondieron más positivamente que negativamente a diversas formas de prohibir o etiquetar el contenido generado por IA que podrían ser impuestas por las empresas de tecnología, el gobierno federal, las empresas de las redes sociales o los medios de comunicación.
Cerca de dos tercios están a favor de que el gobierno prohíba el contenido generado por IA que contenga imágenes falsas o engañosas en los anuncios políticos, mientras que una cantidad similar quiere que las empresas tecnológicas etiqueten todo el contenido generado por IA en sus plataformas.
Biden puso en marcha el lunes algunas directrices federales para la inteligencia artificial al firmar una decreto para guiar el desarrollo de esa tecnología. El decreto pide a la industria que desarrolle normas de seguridad y protección, y ordena al Departamento de Comercio emitir una guía para etiquetar y poner marcas de agua a los contenidos generados por IA.
Los estadounidenses consideran en gran medida que evitar la información falsa o engañosa generada por IA durante las elecciones presidenciales de 2024 es una responsabilidad compartida. Aproximadamente 6 de cada 10 (63%) dicen que gran parte de la responsabilidad recae en las empresas tecnológicas que crean herramientas de IA, pero cerca de la mitad atribuyen gran parte de ese deber a los medios de comunicación (53%), las empresas de redes sociales (52%) y el gobierno federal (49%).
Los demócratas son algo más proclives que los republicanos a decir que las empresas de redes sociales tienen mucha responsabilidad, pero por lo general coinciden en el nivel de responsabilidad de las empresas tecnológicas, de los medios de comunicación y del gobierno federal.
____
La encuesta se realizó del 19 al 23 de octubre de 2023 a 1.017 adultos, utilizando una muestra extraída del Panel AmeriSpeak de NORC, basado en probabilidades y diseñado para representar a la población estadounidense. El margen de error de muestreo para todos los encuestados es de más/menos 4,1 puntos porcentuales.