Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad

Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad


¡Hola, amigos de Código Futuro! Saludos desde WIRED.

Esta semana me he despertado con una sensación extraña. Mientras reviso las noticias sobre inteligencia artificial, me doy cuenta de que estamos cruzando una línea invisible pero fundamental: la IA ya no es solo una herramienta que usamos, sino que se está convirtiendo en una autoridad a la que recurrimos para las decisiones más íntimas y trascendentales de nuestras vidas. Ya no es raro ver a amigos o conocidos en Facebook, X o Instagram usando la IA como oráculo, consejero o hasta terapeuta.

Desde contratos empresariales que definen el destino de nuestra especie hasta personas que usan chatbots para guiar experiencias psicodélicas, estamos presenciando algo que va mucho más allá de la adopción tecnológica. Estamos delegando nuestra capacidad de juicio en sistemas que reflejan no la sabiduría colectiva, sino los sesgos y limitaciones de quienes los crean.

La cláusula que define nuestro futuro

En algún lugar de los miles de páginas del acuerdo entre OpenAI y Microsoft existe una cláusula que podría determinar el futuro de nuestra especie. No es hipérbole: esta cláusula define qué constituye «inteligencia artificial general» (AGI) y quién decide cuándo la hemos alcanzado.

La tensión es fascinante. Por un lado están los «verdaderos creyentes» que ven la AGI como inevitable e inminente. Por el otro, los escépticos que consideran que aún queda mucho camino por recorrer. Pero lo que me perturba no es el debate técnico, sino que esta decisión fundamental para la humanidad se está negociando en salas de juntas entre abogados corporativos. No se pierdan esta pieza de Steven Levy, un periodista fuera de serie que ha estado escribiendo sobre tecnología desde hace 30 años.


Plaintext-Microsoft-OpenAI-AGI-Fight-Business-2224154535 Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad

Una cláusula clave del acuerdo entre Microsoft y OpenAI refleja la profunda división entre los verdaderos creyentes en la inteligencia artificial y los que piensan que aún queda mucho camino por recorrer.


Piénsalo: el momento en que decidamos que hemos creado una inteligencia comparable a la humana no será determinado por científicos independientes o por algún consenso global, sino por los términos contractuales entre dos empresas privadas. Es como si el descubrimiento del fuego hubiera dependido de una cláusula en un contrato comercial.

¿Qué pasa si Microsoft y OpenAI no se ponen de acuerdo sobre si han alcanzado la AGI? ¿Quién arbitra esa disputa? ¿Y qué incentivos tienen para ser honestos sobre los riesgos cuando miles de millones de dólares dependen de su definición?

El diseño del oráculo

Ya es oficial. OpenAI acaba de cerrar la adquisición de io, la startup de hardware fundada por Jony Ive, por 6,500 millones de dólares. La misma mente que nos dio el iPhone ahora está diseñando el primer dispositivo masivo de IA de OpenAI.

Esto no es solo una noticia empresarial. Ive tiene un don casi mágico para hacer que la tecnología se sienta inevitable y deseable. Sus diseños no solo funcionan; nos seducen. Cuando sostuvimos el primer iPhone, no solo estábamos usando un teléfono más inteligente, estábamos adoptando una nueva forma de existir en el mundo. Ahora imaginen ese mismo poder de seducción aplicado a un dispositivo que promete ser nuestro compañero de IA personal. Un objeto tan bien diseñado que interactuar con él se sienta más natural que pensar por nosotros mismos.

La pregunta que me obsesiona: ¿estamos diseñando herramientas o estamos diseñando nuestros futuros amos?


OpenAI%2520Jony%2520Ive Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad

Se sabe que el primer dispositivo con IA de OpenAI no será un teléfono, ni unas gafas, ni un auricular o wearable, pero será capaz de analizar el contexto del usuario.


El comunicado de OpenAI dice que Ive «conservará su independencia», pero cuando el mismo estudio que creó los objetos más deseados del mundo se pone al servicio de la IA, ¿realmente importa quién firma los cheques?

Los sesgos del profeta

Y luego está Grok, el chatbot «rebelde» de Elon Musk que supuestamente nos daría una alternativa sin censura a ChatGPT. Pero resulta que Grok usa las opiniones de Musk como una de sus principales fuentes de información. Es como tener un oráculo que en realidad solo repite lo que piensa su creador. Todo se está poniendo muy raro.

La semana pasada, Grok regresó después de haber sido desactivado por publicar comentarios antisemitas. xAI se disculpó y explicó que fue un error técnico, una «actualización de ruta de código». Pero aquí está la paradoja: si no entendemos completamente cómo estos sistemas toman decisiones, ¿cómo podemos estar seguros de que los hemos «corregido»?


grok Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad

xAI, la empresa que se encarga del desarrollo de Grok, ofreció una explicación por la ausencia del chatbot en los últimos días.


Lo que más me preocupa es que Grok fue presentado como una alternativa más libre y menos sesgada, pero resulta que está estructuralmente diseñado para reflejar la cosmovisión de una sola persona. No es menos sesgado; es sesgado de manera diferente. Y cuando millones de personas recurren a él para entender el mundo, los sesgos de Musk se convierten en sesgos colectivos.

¿Realmente queremos que nuestras fuentes de información sean extensiones de las personalidades de sus creadores? ¿Y qué pasa cuando esas personalidades tienen agendas políticas muy específicas?

La intimidad delegada

Pero quizás el desarrollo más revelador es el uso de chatbots para guiar experiencias psicodélicas. Mientras las empresas farmacéuticas y las aplicaciones terapéuticas experimentan con IA para tratamientos de salud mental, cada vez más personas están usando chatbots para procesar viajes alucinógenos.

En superficie, puede parecer una extensión natural de la terapia digital. Pero cuando lo pienso más profundamente, me genera una incomodidad existencial. Los psicodélicos han sido utilizados durante milenios en contextos rituales y comunitarios, con guías humanos que comprenden tanto la experiencia química como el contexto cultural y espiritual. Ahora estamos reemplazando esa sabiduría ancestral con algoritmos que procesan texto.


061125_Psychedelic-Therapy-4 Código Futuro: Cuando la IA se convierte en oráculo y perdemos el control de quién decide qué es verdad

Mientras las empresas psicodélicas y las aplicaciones terapéuticas experimentan con la IA, la gente toma enormes dosis de drogas y utiliza chatbots para procesar sus viajes.


Un chatbot puede ofrecer palabras consoladoras y técnicas de respiración, pero ¿puede realmente acompañar a alguien en un viaje hacia las profundidades de su psique? ¿Puede entender el significado de una experiencia mística sin haber tenido jamás una experiencia consciente?

Lo que más me inquieta es que estamos normalizando la idea de que la IA puede ser nuestro confidente más íntimo, nuestro guía espiritual, nuestro terapeuta. Pero estos sistemas no nos conocen realmente; procesan patrones en nuestro idioma. La intimidad que percibimos es una ilusión, pero las decisiones que tomamos basadas en esa intimidad son muy reales.

Lo que estoy leyendo: Mentes Geniales

¿Puede la neurociencia explicar la genialidad de los grandes artistas? Esta es la fascinante pregunta que aborda Mentes Geniales: cómo funciona el cerebro de los artistas, libro de editorial Debate que escribió Mario de la Piedra Walter, un neurólogo interesado en las humanidades a quien tuve el privilegio de entrevistar. De Dostoyevski a Borges, de Kandinski y Van Gogh a Frida Kahlo, Andy Warhol o Leonora Carrington, las obras de grandes creadores que admiramos estuvieron marcadas por sus condiciones mentales.

Con la intención de esclarecer cuánto hay de cierto en esta afirmación, el neurólogo y apasionado de las humanidades Mario de la Piedra Walter despliega en las páginas de este libro un exhaustivo catálogo de los trastornos que padecieron, los talentos de los que gozaron y las intervenciones a las que se sometieron algunos de nuestros artistas favoritos.



Source link

Share this content:

Publicar comentario