La administración Trump pide a los científicos de IA que eliminen el “sesgo ideológico” de los modelos
Cada vez son más las investigaciones que demuestran que la parcialidad política de los modelos de IA puede afectar tanto a liberales como a conservadores. Por ejemplo, un estudio del algoritmo de recomendación de Twitter, ahora X, publicado en 2021 mostró que los usuarios tenían más probabilidades de que se les mostraran perspectivas de derecha en la plataforma.
Desde enero, el Departamento de Eficiencia Gubernamental (DOGE) de Musk ha arrasado con el gobierno estadounidense, despidiendo a docenas de funcionarios, pausando el gasto y creando un entorno que se cree hostil para aquellos que puedan oponerse a los objetivos de la administración Trump. Algunos departamentos gubernamentales, como el Departamento de Educación (ED, por sus siglas en inglés), han archivado y eliminado documentos que mencionan la diversidad, equidad e inclusión (DEI). En las últimas semanas, DOGE también ha apuntado al Instituto Nacional de Estándares y Tecnología (NIST), la organización matriz de AISI. Decenas de empleados fueron despedidos.
La administración Trump tiene «otras prioridades»
«Estos cambios proceden directamente de la Casa Blanca. La administración ha dejado claras sus prioridades, y no me sorprende que reescribir el plan fuera necesario para seguir existiendo», afirma Stella Biderman, directora ejecutiva de Eleuther, una organización sin fines de lucro que colabora con el AI Safety Institute.
En diciembre, Trump nombró a David Sacks, un antiguo colaborador de Musk, como asesor especial para IA y las criptodivisas de la Casa Blanca. No está claro si él o alguien de la Casa Blanca participó en el establecimiento de la nueva agenda de investigación. Tampoco está claro si la nueva formulación tendrá mucho impacto en el trabajo que están realizando la mayoría de los investigadores. El AI Safety Institute (Instituto de Seguridad de IA) fue creado por una orden ejecutiva emitida por el gobierno de Biden en octubre de 2023, en un momento de gran preocupación por el rápido progreso de la IA.
Bajo el mandato de Biden, el instituto se encargó de abordar una serie de problemas potenciales con los modelos de IA más potentes: como si podrían utilizarse para lanzar ciberataques o desarrollar armas químicas o biológicas. Parte de su cometido era determinar si los modelos podrían volverse engañosos y peligrosos a medida que avanzan. En enero, una orden emitida por la administración Trump revocó lo propuesto por su antecesor; manteniendo únicamente el Instituto de Seguridad de IA. «Para mantener este liderazgo, debemos desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales de ingeniería», afirma la orden ejecutiva.
En su intervención en la Cumbre de Acción sobre IA celebrada en París en febrero, el vicepresidente JD Vance afirmó que el gobierno de EE UU dará prioridad a la competitividad estadounidense en la carrera por desarrollar y beneficiarse de la IA. «El futuro de la inteligencia artificial no se ganará a base de lamentaciones sobre la seguridad», indicó Vance a los asistentes de todo el mundo. La delegación estadounidense no incluyó a nadie del instituto.
El investigador que advirtió de que el cambio de enfoque podría hacer que la IA fuera más injusta e insegura también alega que muchos investigadores de inteligencia artificial se han acercado a los republicanos y a sus partidarios en un esfuerzo por seguir teniendo una silla en la mesa cuando se trata de debatir la seguridad de la IA. «Espero que empiecen a darse cuenta de que estas personas y sus patrocinadores corporativos son devoradores de rostros a los que solo les importa el poder», refiere el investigador. La Casa Blanca no respondió a la solicitud de comentarios de WIRED.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.
Share this content:
Publicar comentario