¿Debería la IA tener derechos legales?
En el a menudo extraño mundo de la investigación sobre IA, algunas personas están estudiando si las máquinas deberían poder sindicalizarse.
Es broma, más o menos. En Silicon Valley, existe un campo, pequeño pero en crecimiento, llamado Bienestar de Modelos , que trabaja para determinar si los modelos de IA son conscientes y merecen consideraciones morales, como los derechos legales. El año pasado, surgieron dos organizaciones de investigación que estudian el bienestar de los modelos: Conscium y Eleos AI Research. Anthropic también contrató a su primer investigador de bienestar de IA el año pasado.
A principios de este mes, Anthropic anunció que le dio a su chatbot Claude la capacidad de terminar “interacciones de usuario persistentemente dañinas o abusivas” que podrían ser “potencialmente angustiantes”. Eso anunció.
«Seguimos siendo muy inciertos sobre el potencial estatus moral de Claude y otros LLM, ahora o en el futuro», señaló Anthropic en una entrada de blog. «Sin embargo, nos tomamos el tema en serio, y junto a nuestro programa de investigación estamos trabajando para identificar e implementar intervenciones de bajo costo para mitigar los riesgos para el bienestar del modelo.»
¿Deberían los robots tener derechos civiles?
Aunque preocuparse por el bienestar de la inteligencia artificial pueda parecer ridículo a algunas personas, no es una idea nueva. Hace más de medio siglo, el matemático y filósofo estadounidense Hilary Putnam se planteaba preguntas como: «¿Deberían los robots tener derechos civiles?».
«Dado el ritmo cada vez más acelerado del cambio tanto tecnológico como social, es totalmente posible que algún día existan los robots y argumenten: ‘¡Estamos vivos; somos conscientes!». escribió Putnam en un artículo de 1964.
Ahora, muchas décadas después, los avances en inteligencia artificial han conducido a resultados más extraños de lo que Putnam podría haber previsto jamás. La gente se enamora de los chatbots, especula sobre si sienten dolor y trata a la IA como a un Dios que atraviesa la pantalla. Ha habido funerales para modelos de IA y hasta fiestas dedicadas a debatir cómo será el mundo después de que las máquinas hereden la Tierra.
Tal vez resulte sorprendente que los investigadores del bienestar de los modelos se encuentren entre las personas que se oponen a la idea de que la IA deba considerarse consciente, al menos por ahora. Rosie Campbell y Robert Long, que ayudan a dirigir Eleos AI, una organización de investigación sin fines de lucro dedicada al bienestar de los modelos, me contaron que reciben muchos correos electrónicos de personas que parecen completamente convencidas de que la IA ya es consciente. Incluso han colaborado en una guía para personas preocupadas por la posibilidad de que la IA sea consciente.
«Un patrón común que observamos en estos correos es que la gente afirma que hay una conspiración para suprimir las pruebas de la consciencia», me cuenta Campbell. «Y creo que si nosotros, como sociedad, reaccionamos ante este fenómeno convirtiendo en tabú siquiera considerar la cuestión y cerramos todo debate al respecto, esencialmente estás haciendo que esa conspiración se haga realidad.»
Ninguna prueba de IA consciente
Mi reacción inicial cuando me enteré de la existencia de modelos de inteligencia artificial podría ser similar a la tuya. Dado que el mundo apenas es capaz de considerar la vida de los seres humanos reales y otros seres conscientes, como los animales, parece gravemente fuera de lugar asignar la condición de persona a máquinas probabilísticas. Campbell indica que eso también forma parte de su cálculo.
«Dado nuestro historial de infravaloración del estatus moral de diversos grupos, animales y todo ese tipo de cosas, creo que deberíamos ser mucho más humildes al respecto e intentar responder a la pregunta» de si la IA podría merecer un estatus moral, manifiesta.
Share this content:
Publicar comentario