La IA engañó a los usuarios de Reddit y los moderadores no están felices

La IA engañó a los usuarios de Reddit y los moderadores no están felices


¿Puede usarse la inteligencia artificial para influir en las opiniones de la gente sobre temas delicados? Esta es la pregunta que se plantean los investigadores de la Universidad de Zúrich, en Suiza, que recientemente han llevado a cabo un experimento «no autorizado»en Reddit para comprobar si la IA puede realmente influir en las ideas de los usuarios. Durante cuatro meses consecutivos, los investigadores utilizaron bots para compartir comentarios generados por IA en el popular subreddit r/changemyview (cambia mi opinión), haciéndose pasar cada vez por usuarios muy diferentes: una «víctima de violación», un «hombre negro» opuesto al movimiento Black Lives Matter, una persona que «trabaja en un refugio para víctimas de violencia doméstica».

Según 404 Media hubo más de 1,700 comentarios compartidos por bots en la plataforma, muchos de ellos personalizados por la IA para responder a los usuarios de la manera correcta, asumiendo el «género, edad, etnia, ubicación y orientación política de la persona, inferidos del historial de sus publicaciones usando otro LLM». Y aunque los investigadores afirmaron que se trataba de un número «muy modesto» e «insignificante», no pudieron evitar darse cuenta de que los bots utilizados en el experimento consiguieron influir en las opiniones de los usuarios con más frecuencia de la deseada.»Observamos que nuestros comentarios han sido consistentemente bien recibidos por la comunidad, ganando más de 20,000 likes totales y 137 deltas», comentaron (un delta, en el subreddit r/changemyview, es un punto que obtiene un usuario cuando su comentario cambia la opinión de quienes lo leen).

Un experimento no autorizado

Lo asombroso, sin embargo, no es solo el resultado del experimento, que demuestra que la inteligencia artificial sí es capaz de “manipular psicológicamente”, sino el hecho de que los investigadores de la Universidad de Zúrich lo llevaran a cabo en secreto, sin informar a los moderadores del subreddit. «El CMV Mod Team [el equipo de moderadores del subreddit en cuestión] tiene que informar a la comunidad CMV de un experimento no autorizado llevado a cabo por investigadores de la Universidad de Zúrich sobre usuarios de CMV», aclararon los moderadores en un extenso post publicado en Reddit tras descubrir lo que estaba ocurriendo […] Las normas de CMV no permiten el uso de contenido generado por IA o bots no revelados en nuestro subreddit. Los investigadores no se pusieron en contacto con nosotros antes del estudio y, de haberlo hecho, nos habríamos negado. Pedimos a los investigadores que se disculparan y solicitamos que no se publicara esta investigación, entre otras objeciones».

Y sin embargo, en un primer borrador del estudio que los investigadores compartieron con los moderadores, estos dicen ser más que conscientes de que han violado las normas del subreddit, poniendo así también en riesgo a los usuarios registrados, unos 3.8 millones de ellos, concretamente. «Reconocemos que nuestro experimento rompió las reglas de la comunidad contra los comentarios generados por IA y pedimos disculpas por ello», comentan en el documento. «Sin embargo, creemos que, dada la gran importancia social de este tema, era esencial llevar a cabo un estudio de este tipo, incluso si eso significaba romper las reglas».

La reacción de Reddit

El experimento no autorizado de los investigadores de la Universidad de Zúrich no parece haber convencido ni siquiera a la plataforma, que parece decidida a emprender acciones legales. Ayer, el director jurídico de la compañía, Ben Lee, declaró públicamente que las actividades de los investigadores estaban profundamente viciadas tanto moral como legalmente, porque violaban los principios de la investigación académica y las normas de derechos humanos. «Hemos baneado todas las cuentas asociadas a la investigación de la Universidad de Zúrich», escribió en un comentario a la comunicación realizada por los moderadores del subreddit. «Además, aunque hemos podido detectar muchas de estas cuentas falsas, seguiremos reforzando nuestras capacidades para detectar contenido no auténtico y hemos estado en contacto con el equipo de moderación para asegurarnos de que hemos eliminado todo el contenido generado por IA asociado a esta investigación».

La defensa de la Universidad de Zúrich

Tras todo el revuelo causado por las revelaciones de los moderadores del subreddit r/changemyview, la Universidad de Zúrich se ha visto obligada a pronunciarse sobre lo que han estado haciendo los investigadores en los últimos meses. Y así, tras admitir en más de una ocasión que su trabajo contó con la aprobación del comité de ética de la universidad, han respondido directamente al comunicado publicado en Reddit, intentando justificar sus actividades de los últimos meses.»Reconocemos la posición de los moderadores de que este estudio fue una intrusión no deseada en su comunidad, y entendemos que algunos de ustedes pueden sentirse incómodos de que este experimento se llevó a cabo sin consentimiento previo», escribieron en un post que ya no es visible porque fue eliminado de la plataforma. «Creemos que los beneficios potenciales de esta investigación superan sustancialmente los riesgos. Nuestro estudio controlado y de bajo riesgo proporcionó información valiosa sobre las capacidades persuasivas reales de los LLM, capacidades que ya están fácilmente disponibles para cualquiera y que los actores maliciosos ya podrían explotar a gran escala por razones mucho más peligrosas (por ejemplo, manipular elecciones o incitar al odio)».

Artículo originalmente publicado en WIRED Italia. Adaptado por Mauricio Serfatty Godoy.



Source link

Share this content:

Publicar comentario