Musk dice que los modelos de IA actuales son demasiado “woke” y esto podría ponerlos en la mira de Trump

Si piensas que Estados Unidos está dividido ahora mismo, solo espera a ver las guerras ideológicas en el campo de la IA.
LANCASTER PENNSYLVANIA  OCTOBER 26 SpaceX and Tesla founder Elon Musk speaks during an America PAC town hall on October...
LANCASTER, PENNSYLVANIA - OCTOBER 26: SpaceX and Tesla founder Elon Musk speaks during an America PAC town hall on October 26, 2024 in Lancaster, Pennsylvania. Musk has donated more than $75 million to America PAC, which he co-founded with fellow Silicon Valley venture capitalists and tech businessmen to support Republican presidential nominee, former U.S. President Donald Trump. (Photo by Samuel Corum/Getty Images)Samuel Corum/Getty Images

Elon Musk ha expresado que los modelos actuales de IA son demasiado "woke" y "políticamente correctos". Con ello, pone a ChatGPT y otros programas de inteligencia artificial (IA) en el punto de mira de Donald Trump, el candidato a la presidencia de Estados Unidos que él apoya.

"Muchas de las IA que se están entrenando en el área de la Bahía de San Francisco adoptan la filosofía de las personas que las rodean", dijo Musk en la Iniciativa de Inversión Futura, un evento respaldado por el gobierno de Arabia Saudita celebrado en Riad esta semana. "Así que si [los desarrolladores] tienen una filosofía woke, o nihilista, en mi opinión, que se está integrando en estas inteligencias artificiales".

Aunque Musk es una figura polarizante, tiene razón sobre los sesgos políticos que albergan los sistemas de IA. Sin embargo, el problema está lejos de ser unilateral, y la manera en que Musk plantea el tema podría beneficiar sus propios intereses debido a sus lazos con Trump. Musk dirige xAI, un competidor de OpenAI, Google y Meta, que podría beneficiarse si estas empresas se convierten en blancos del gobierno.

"Musk claramente tiene una relación cercana con la campaña de Trump y cualquier comentario que haga tendrá una gran influencia", dice Matt Mittelsteadt, investigador en la Universidad George Mason. Además, Musk "podría llegar a tener algún tipo de posición en una posible administración de Trump, y sus puntos de vista podrían implementarse en políticas".


Ilustración de un gabinete con las caras de Trump y Maduro en las puertas. En el interior hay un soldado venezolano, un barril de petróleo, un agente del FBI estadounidense y una urna electoral.
Un exitoso hackeo de la CIA al sistema de nóminas militares de Venezuela, luchas internas por los recursos de la agencia de espionaje y una desordenada política opositora. La investigación de WIRED desvela un intento secreto de la era Trump para derrocar al gobernante autócrata Nicolás Maduro.

Anteriormente, Musk acusó a OpenAI y a Google de estar infectados con el "virus woke". En febrero, el chatbot Gemini de Google generó imágenes históricamente inexactas, incluyendo nazis y vikingos negros. Musk lo consideró una prueba de que Google utilizaba la IA para difundir una perspectiva absurdamente woke.

Si bien Musk no es partidario de la regulación gubernamental, respaldó un proyecto de ley de IA en California que habría requerido que las empresas pusieran sus modelos de IA a disposición para evaluación.

La primera administración de Trump también reaccionó contra el supuesto sesgo de las grandes empresas tecnológicas mediante una orden ejecutiva que buscaba responsabilizar a plataformas como Twitter, Google y Facebook que censuraran información por razones políticas. La presión tuvo un impacto tangible, y Meta finalmente abandonó los planes de crear una sección de noticias dedicada en Facebook.

Mittelsteadt señala que el candidato a vicepresidente de Trump, JD Vance, también ha hablado de controlar a las grandes empresas tecnológicas y ha llegado a calificar a Google como "una de las empresas más peligrosas del mundo".


Elon Musk, propietario de Starlink, Tesla y SpaceX.
The Wall Street Journal reveló que el magnate de Tesla, Starlink y SpaceX estuvo en contacto con el presidente ruso desde finales de 2022. Una situación que avergüenza al Pentágono y plantea dudas sobre el uso de los satélites Starlink en Ucrania.

Mittelsteadt añade que Trump podría castigar a las empresas de diversas maneras. Cita, por ejemplo, la forma en que el gobierno de Trump canceló un importante contrato federal con Amazon Web Services (AWS), una decisión probablemente influenciada por la opinión del expresidente sobre el Washington Post y su propietario, Jeff Bezos.

Sesgos en todas direcciones

No sería difícil para los legisladores señalar pruebas de sesgo político en los modelos de IA, aunque esto pueda servir a ambos partidos.

Un estudio de 2023 realizado por investigadores de la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Jiaotong de Xi’an encontró una variedad de inclinaciones políticas en diferentes modelos de lenguaje de gran escala. También mostró cómo este sesgo puede afectar el rendimiento de los sistemas de detección de discurso de odio o desinformación.

Otro estudio, realizado por investigadores de la Universidad de Ciencia y Tecnología de Hong Kong, encontró sesgos en varios modelos de IA de código abierto en temas polarizantes como inmigración, derechos reproductivos y cambio climático. Yejin Bang, candidata a doctorado involucrada en el trabajo, dice que la mayoría de los modelos tienden a inclinarse hacia el liberalismo y un enfoque centrado en Estados Unidos, pero que los mismos modelos pueden mostrar sesgos liberales o conservadores según el tema.

Los modelos de IA capturan sesgos políticos porque se entrenan en grandes volúmenes de datos de internet que inevitablemente incluyen todo tipo de perspectivas. La mayoría de los usuarios puede no ser consciente de ningún sesgo en las herramientas que utilizan porque los modelos incorporan restricciones para evitar generar contenido dañino o sesgado. Sin embargo, estos sesgos pueden filtrarse sutilmente, y el entrenamiento adicional que reciben los modelos para restringir su salida puede introducir más partidismo. "Los desarrolladores podrían asegurarse de que los modelos estén expuestos a múltiples perspectivas sobre temas divisivos, permitiéndoles responder con una visión equilibrada", dice Bang.


Image may contain: Elon Musk, Clothing, Hat, Baseball Cap, Cap, Adult, Person, Flag, People, Conversation, and Body Part
Algunas de las personas más poderosas de Silicon Valley parecen estar tranquilamente sentadas fuera del ciclo de elecciones presidenciales en Estados Unidos. Pero Trump dice que en privado la historia es otra.

El problema podría empeorar a medida que los sistemas de IA se vuelvan más ubicuos, dice Ashique KhudaBukhsh, científico informático en el Instituto de Tecnología de Rochester que desarrolló una herramienta llamada Marco de la Espiral de Toxicidad, que extrae los diferentes sesgos sociales de los modelos de lenguaje de gran escala. "Tememos que un ciclo vicioso esté a punto de comenzar a medida que las nuevas generaciones de modelos de lenguaje sean entrenadas cada vez más con datos contaminados por contenido generado por IA", dice.

"Estoy convencido de que el sesgo dentro de los modelos de lenguaje ya es un problema y que probablemente será aún mayor en el futuro", dice Luca Rettenberger, investigador postdoctoral en el Instituto de Tecnología de Karlsruhe que realizó un análisis de sesgos relacionados con la política alemana en modelos de lenguaje.

Rettenberger sugiere que los grupos políticos también podrían tratar de influir en los modelos de lenguaje para promover sus propios puntos de vista por encima de los demás. "Si alguien es muy ambicioso y tiene intenciones maliciosas, podría manipular los modelos de lenguaje en ciertas direcciones", afirma. "Veo la manipulación de los datos de entrenamiento como un peligro real".


Mark Zuckerberg, director ejecutivo de Meta Platforms Inc., durante el evento Meta Connect en Menlo Park, California, EE. UU.
La carrera por una mejor IA generativa es también una por mayor potencia de cálculo. En este sentido, según Mark Zuckerberg, Meta va ganando.

Ya ha habido algunos intentos de cambiar el equilibrio de sesgo en los modelos de IA. En marzo pasado, un programador desarrolló un chatbot más inclinado hacia la derecha en un esfuerzo por resaltar los sesgos sutiles que vio en herramientas como ChatGPT. Musk, por su parte, ha prometido que Grok, el chatbot de IA creado por xAI, será "máximamente buscador de la verdad" y menos sesgado que otras herramientas de IA, aunque en la práctica también se muestra cauteloso en cuestiones políticas complejas. (Ferviente partidario de Trump y de estrictas políticas de inmigración, la visión de Musk sobre "menos sesgo" también podría traducirse en resultados más inclinados a la derecha).

Las elecciones de la próxima semana en Estados Unidos difícilmente sanarán la discordia entre demócratas y republicanos, pero si Trump gana, la conversación sobre la IA "anti-woke" podría volverse mucho más intensa.

Musk ofreció una visión apocalíptica sobre el tema en el evento de esta semana, refiriéndose a un incidente en el que Gemini de Google afirmó que una guerra nuclear sería preferible a malgenerizar a Caitlyn Jenner. "Si tienes una IA que está programada para cosas como esa, podría concluir que la mejor manera de asegurar que nadie sea malgenerizado es aniquilar a todos los humanos, haciendo así que la probabilidad de un error de género en el futuro sea cero", dijo.

Artículo publicado originalmente en WIRED, adaptado por Manuel de León.