Elon Musk ha expresado que los modelos actuales de IA son demasiado "woke" y "políticamente correctos". Con ello, pone a ChatGPT y otros programas de inteligencia artificial (IA) en el punto de mira de Donald Trump, el candidato a la presidencia de Estados Unidos que él apoya.
"Muchas de las IA que se están entrenando en el área de la Bahía de San Francisco adoptan la filosofía de las personas que las rodean", dijo Musk en la Iniciativa de Inversión Futura, un evento respaldado por el gobierno de Arabia Saudita celebrado en Riad esta semana. "Así que si [los desarrolladores] tienen una filosofía woke, o nihilista, en mi opinión, que se está integrando en estas inteligencias artificiales".
Aunque Musk es una figura polarizante, tiene razón sobre los sesgos políticos que albergan los sistemas de IA. Sin embargo, el problema está lejos de ser unilateral, y la manera en que Musk plantea el tema podría beneficiar sus propios intereses debido a sus lazos con Trump. Musk dirige xAI, un competidor de OpenAI, Google y Meta, que podría beneficiarse si estas empresas se convierten en blancos del gobierno.
"Musk claramente tiene una relación cercana con la campaña de Trump y cualquier comentario que haga tendrá una gran influencia", dice Matt Mittelsteadt, investigador en la Universidad George Mason. Además, Musk "podría llegar a tener algún tipo de posición en una posible administración de Trump, y sus puntos de vista podrían implementarse en políticas".
Anteriormente, Musk acusó a OpenAI y a Google de estar infectados con el "virus woke". En febrero, el chatbot Gemini de Google generó imágenes históricamente inexactas, incluyendo nazis y vikingos negros. Musk lo consideró una prueba de que Google utilizaba la IA para difundir una perspectiva absurdamente woke.
Si bien Musk no es partidario de la regulación gubernamental, respaldó un proyecto de ley de IA en California que habría requerido que las empresas pusieran sus modelos de IA a disposición para evaluación.
La primera administración de Trump también reaccionó contra el supuesto sesgo de las grandes empresas tecnológicas mediante una orden ejecutiva que buscaba responsabilizar a plataformas como Twitter, Google y Facebook que censuraran información por razones políticas. La presión tuvo un impacto tangible, y Meta finalmente abandonó los planes de crear una sección de noticias dedicada en Facebook.
Mittelsteadt señala que el candidato a vicepresidente de Trump, JD Vance, también ha hablado de controlar a las grandes empresas tecnológicas y ha llegado a calificar a Google como "una de las empresas más peligrosas del mundo".
Mittelsteadt añade que Trump podría castigar a las empresas de diversas maneras. Cita, por ejemplo, la forma en que el gobierno de Trump canceló un importante contrato federal con Amazon Web Services (AWS), una decisión probablemente influenciada por la opinión del expresidente sobre el Washington Post y su propietario, Jeff Bezos.
Sesgos en todas direcciones
No sería difícil para los legisladores señalar pruebas de sesgo político en los modelos de IA, aunque esto pueda servir a ambos partidos.
Un estudio de 2023 realizado por investigadores de la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Jiaotong de Xi’an encontró una variedad de inclinaciones políticas en diferentes modelos de lenguaje de gran escala. También mostró cómo este sesgo puede afectar el rendimiento de los sistemas de detección de discurso de odio o desinformación.
Otro estudio, realizado por investigadores de la Universidad de Ciencia y Tecnología de Hong Kong, encontró sesgos en varios modelos de IA de código abierto en temas polarizantes como inmigración, derechos reproductivos y cambio climático. Yejin Bang, candidata a doctorado involucrada en el trabajo, dice que la mayoría de los modelos tienden a inclinarse hacia el liberalismo y un enfoque centrado en Estados Unidos, pero que los mismos modelos pueden mostrar sesgos liberales o conservadores según el tema.
Los modelos de IA capturan sesgos políticos porque se entrenan en grandes volúmenes de datos de internet que inevitablemente incluyen todo tipo de perspectivas. La mayoría de los usuarios puede no ser consciente de ningún sesgo en las herramientas que utilizan porque los modelos incorporan restricciones para evitar generar contenido dañino o sesgado. Sin embargo, estos sesgos pueden filtrarse sutilmente, y el entrenamiento adicional que reciben los modelos para restringir su salida puede introducir más partidismo. "Los desarrolladores podrían asegurarse de que los modelos estén expuestos a múltiples perspectivas sobre temas divisivos, permitiéndoles responder con una visión equilibrada", dice Bang.
El problema podría empeorar a medida que los sistemas de IA se vuelvan más ubicuos, dice Ashique KhudaBukhsh, científico informático en el Instituto de Tecnología de Rochester que desarrolló una herramienta llamada Marco de la Espiral de Toxicidad, que extrae los diferentes sesgos sociales de los modelos de lenguaje de gran escala. "Tememos que un ciclo vicioso esté a punto de comenzar a medida que las nuevas generaciones de modelos de lenguaje sean entrenadas cada vez más con datos contaminados por contenido generado por IA", dice.
"Estoy convencido de que el sesgo dentro de los modelos de lenguaje ya es un problema y que probablemente será aún mayor en el futuro", dice Luca Rettenberger, investigador postdoctoral en el Instituto de Tecnología de Karlsruhe que realizó un análisis de sesgos relacionados con la política alemana en modelos de lenguaje.
Rettenberger sugiere que los grupos políticos también podrían tratar de influir en los modelos de lenguaje para promover sus propios puntos de vista por encima de los demás. "Si alguien es muy ambicioso y tiene intenciones maliciosas, podría manipular los modelos de lenguaje en ciertas direcciones", afirma. "Veo la manipulación de los datos de entrenamiento como un peligro real".
Ya ha habido algunos intentos de cambiar el equilibrio de sesgo en los modelos de IA. En marzo pasado, un programador desarrolló un chatbot más inclinado hacia la derecha en un esfuerzo por resaltar los sesgos sutiles que vio en herramientas como ChatGPT. Musk, por su parte, ha prometido que Grok, el chatbot de IA creado por xAI, será "máximamente buscador de la verdad" y menos sesgado que otras herramientas de IA, aunque en la práctica también se muestra cauteloso en cuestiones políticas complejas. (Ferviente partidario de Trump y de estrictas políticas de inmigración, la visión de Musk sobre "menos sesgo" también podría traducirse en resultados más inclinados a la derecha).
Las elecciones de la próxima semana en Estados Unidos difícilmente sanarán la discordia entre demócratas y republicanos, pero si Trump gana, la conversación sobre la IA "anti-woke" podría volverse mucho más intensa.
Musk ofreció una visión apocalíptica sobre el tema en el evento de esta semana, refiriéndose a un incidente en el que Gemini de Google afirmó que una guerra nuclear sería preferible a malgenerizar a Caitlyn Jenner. "Si tienes una IA que está programada para cosas como esa, podría concluir que la mejor manera de asegurar que nadie sea malgenerizado es aniquilar a todos los humanos, haciendo así que la probabilidad de un error de género en el futuro sea cero", dijo.
Artículo publicado originalmente en WIRED, adaptado por Manuel de León.