Un viaje al interior de AllyAI y la búsqueda de una inteligencia artificial realmente inclusiva

Un viaje al interior de AllyAI y la búsqueda de una inteligencia artificial realmente inclusiva


A pesar de sus limitaciones, la ley europea de IA sí es contundente con otros usos de alto riesgo que atentan contra la privacidad, como la categorización biométrica, el reconocimiento facial o la puntuación social en función del comportamiento (social scoring), que podrían tener consecuencias devastadoras para la población si se usan, por ejemplo, para perseguir a la comunidad LGTBIQ+ en los 76 países que aún criminalizan las relaciones entre el mismo sexo o que penalizan alguna forma de expresión de género.

¿Quién define los criterios que hacen a la IA inclusiva?

No todas las empresas celebran la regulación de la inteligencia artificial. El pasado 3 de julio, más de 40 empresas europeas, entre las que se incluyen Airbus, ASML, Mistral o Spotify, enviaron una carta a la Comisión Europea pidiendo una pausa de dos años para implementar la normativa europea de inteligencia artificial porque la consideran “poco clara, redundante y cada vez más compleja”.

Tampoco todos los gobiernos apoyan los derechos humanos o las iniciativas de inclusividad. Como describe Amnistía Internacional en su informe ‘EEUU: Caos y crueldad’, los primeros meses del segundo mandato de Donald Trump han estado marcados por un ataque directo a los derechos de las mujeres, las personas LGTBIQ+ y otros colectivos vulnerables. Desde políticas y órdenes ejecutivas anti-trans, hasta pérdida de derechos sexuales y reproductivos, cierres abruptos y forzosos de los programas de Diversidad, Equidad e Inclusión (DEI), amenazas a las universidades que promueven la equidad racial, y otras medidas que atentan contra los derechos humanos.

Por eso, toda regulación y rendición de cuentas en IA pasa por garantizar la independencia de los organismos y gobiernos que regulan la tecnología, que deberían declarar sus afiliaciones y no tener conflictos de intereses, como ya se hace en otras industrias.

Para definir y validar los criterios de su certificación, Ally AI planea formar un comité experto con representación del colectivo LGTBIQ+ y profesionales de la seguridad, la industria y el ámbito académico. Pero, a un nivel más amplio, como el de la legislación europea, garantizar la independencia del organismo regulador podría ser más complicado.

Esto preocupa especialmente a Weber, que ve arriesgado que toda la regulación se concentre en un único organismo. “En Europa hay muchos gobiernos con posturas de extrema derecha que preferirían que las personas queer no existiesen”, denuncia elle invetigadore, que teme que la ideología de cada gobierno influya en la regulación. “La pregunta es: ¿quién forma ese organismo y cómo garantizamos que podemos confiar en él?».

Derechos vulnerados en Estados Unidos.

John Senter/UCG/Universal Images Group via Getty Images

¿Y qué significa esto para Ally AI?

La incertidumbre regulatoria y política también ha afectado a Ally AI, que lleva sufriendo retrasos desde la llegada al poder de Donald Trump. “Estamos observando muy de cerca el panorama político global para asegurarnos de que estamos montando e iniciando un programa que pueda encajar dentro del marco legislativo global”, explica Wood a WIRED por teléfono. “Puede parecer que el proyecto se ha retrasado o que no avanza”, aclara, pero “sabemos que es un momento difícil políticamente y tenemos que asegurarnos de prestar atención a los temas importantes”.

Para sortear todo esto y adaptarse al nuevo contexto global, LGBT Tech está valorando cambiar el enfoque del proyecto. “Un punto de partida podría ser certificar personas para asegurarnos de que sus diseños son inclusivos y siguen buenas prácticas”.

Hoy por hoy, Wood no quiere poner plazos definitivos al proyecto. Según la página web, la certificación debería haber estado lista a finales de junio, pero Ally AI todavía está lejos de eso. “Nuestra misión es crear una tecnología que promueve la inclusividad, la equidad y el respeto para todas las personas”, anuncia la web del proyecto. De momento, el futuro inclusivo de la IA tendrá que esperar.



Source link

Share this content:

Publicar comentario