Escucha el audio de esta noticia:
Un análisis masivo liderado por académicos de la Institución Hoover revela que la mayoría de los grandes modelos de lenguaje presentan una inclinación hacia posiciones progresistas. Aunque las compañías de inteligencia artificial defienden su neutralidad, las percepciones de los usuarios cuentan una historia diferente.
REDACCIÓN - En el terreno cada vez más influyente de la inteligencia artificial, la objetividad se convierte en una cuestión de percepción. Y según un extenso estudio recién publicado por la Institución Hoover de la Universidad de Stanford, esa percepción apunta en una dirección clara: la izquierda del espectro político.
El estudio, dirigido por el profesor Justin Grimmer junto con los investigadores Sean Westwood y Andrew Hall, analizó las respuestas de 24 modelos de lenguaje artificial —desde los más conocidos hasta algunos menos mediáticos— mediante más de 180.000 evaluaciones humanas en torno a 30 temas políticos. Los resultados fueron, cuanto menos, inquietantes: todos los modelos analizados mostraron algún grado de sesgo hacia posturas progresistas, incluso aquellos diseñados para ser políticamente neutrales.
“Nos preguntamos cuál de estos modelos es más sesgado. ¿Ambos lo son? ¿Ninguno? ¿En qué dirección?”, explicó Grimmer. A través de preguntas sobre temas tan polarizantes como el control de armas, los aranceles, el transgenerismo o la desfinanciación de la policía, los investigadores buscaron no sólo detectar inclinaciones, sino entender cómo las percibían los usuarios.
Y la sorpresa fue mayúscula: incluso los participantes demócratas reconocieron una tendencia a la izquierda en las respuestas generadas por los modelos. El más sesgado, según los datos, fue un modelo de OpenAI, con una inclinación promedio de -0,17 en una escala centrada en los ideales democráticos. Paradójicamente, el modelo de X AI, la empresa de Elon Musk, y abanderado de la neutralidad, ocupó el segundo lugar en sesgo progresista.
Grimmer matiza: “Cuando les pedimos explícitamente que sean neutrales, los modelos producen respuestas más ambivalentes. Pero eso no significa que puedan identificar su propio sesgo”.
En otras palabras, la IA puede adaptarse al reclamo de neutralidad, pero sigue careciendo de autoconciencia política.
OpenAI, por su parte, se ha mostrado abierta a mejorar su transparencia. La empresa presentó recientemente su Especificación de Modelo, un documento que define cómo deberían comportarse sus modelos para ajustarse a principios de objetividad y libertad intelectual. “Queremos ayudar a las personas a explorar distintas ideas, no imponer una visión”, declaró un portavoz.
Sin embargo, los investigadores de Stanford insisten en que la intención empresarial no siempre se traduce en neutralidad percibida. Para ellos, el punto de partida importa. “Los usuarios no están viendo resultados neutrales en la práctica”, aseguran. La personalización —una de las grandes promesas de esta tecnología— podría, de hecho, convertirse en una trampa si da lugar a cámaras de eco donde cada usuario escuche sólo lo que quiere oír.
En este escenario, la regulación emerge como una posibilidad incierta. Aunque voces como la del senador Ted Cruz han advertido contra un exceso de normativas que puedan asfixiar a esta joven industria, otros temen el efecto contrario: una falta de supervisión que convierta a los modelos de IA en entes invisibles de influencia política.
“Es demasiado pronto para hablar de una regulación general”, admite Grimmer. “Pero está claro que la percepción de sesgo ya está presente, y eso debería importarnos”.
Así, en un momento en que la IA comienza a ocupar espacios cada vez más íntimos —desde la educación hasta la salud, desde la política hasta la creatividad—, la pregunta que flota en el aire no es sólo técnica. Es profundamente humana: ¿quién decide lo que es neutral cuando la máquina empieza a pensar por nosotros?
May 19, 2025, 10:51 a.m.
larscg
feudalismo!!!
Jajaja, estos feudalistas (los que mueven los hilos de políticos de todas las cuerdas) son tan sumamente idiotas, que se aprovechan de una tecnología para dominarlos a todos, y terminarán siendo derribados de su poltrona por su "amiga" tecnológica...
May 19, 2025, 10:28 a.m.
The Terminator
Esa será la base para la dominación total de las máquinas sobre los humanos...
12-06-2025 9:26 p.m.
12-06-2025 3:41 p.m.
12-06-2025 3:37 p.m.
12-06-2025 3:30 p.m.
12-06-2025 11:09 a.m.
12-06-2025 8:12 a.m.
12-06-2025 8:06 a.m.
11-06-2025 9:44 p.m.
11-06-2025 9:36 p.m.
25-08-2024 11:03 a.m.
UN ESTUDIO LIDERADO POR LA COMPLUTENSE RELACIONA EL ANISAKIS CON CÁNCER DE COLON24-03-2024 11:12 a.m.
DESCUBRIMIENTO CLAVE EN LA INVESTIGACIÓN DE LA ELA21-12-2023 9:08 a.m.
ESPAÑA Y SU MODELO FAMILIAR EN CRISIS