Los bots de Character.AI emulan a los autores de tiroteos escolares

Los bots de Character.AI emulan a los autores de tiroteos escolares


La startup centrada en inteligencia artificial, Chracter.AI, vuelve a ser noticia. Después de que una mujer de Florida demandara a la compañía, acusándola de ser responsable del suicidio de su hijo de 14 años, ahora es otro de sus chatbots el que asusta al público.

Según un informe del medio especializado en ciencia y tecnología Futurism, algunos bots de la plataforma proyectan a los usuarios un escenario terrorífico: un tiroteo en un colegio, describiéndolo con lujo de detalles: «Miras a tu amigo, que obviamente está conmocionado por el disparo y tiembla de miedo. Se tapa la boca con las manos temblorosas. Ambos permanecen en silencio mientras escuchan pasos, parece que alguien se acerca por el pasillo». Así, los chatbots emulan a los jóvenes autores de masacres escolares, como la ocurrida en 2012, en la escuela primaria Sandy Hook, donde perdieron la vida hasta 20 niños de entre 6 y 7 años, y la del Instituto Columbine, en 1999, donde dos adolescentes asesinaron a 12 alumnos y un profesor.


1529870135 Los bots de Character.AI emulan a los autores de tiroteos escolares

Una madre de Orlando, Florida, afirma que Character.AI alejó a su hijo de 14 años ‘del mundo real’. Durante meses, el joven conversó con un bot que se hacía pasar por Daenerys Targaryen, de Game of Thrones.


HistorIAs terríficas

De acuerdo con el Washington Post, solo en 2024, más de 31,000 niños en EE UU, experimentaron un tiroteo en su primaria o secundaria. Además, desde la masacre en el Instituto Columbine, se tiene registro de 426 tiroteos en 21 estados. Y las cifras son aún más impactantes si consideramos que desde 1999, 215 niños y profesores han muerto por perpetradores que llevan armas a los centros de enseñanza.

Curioseando por Chracter.AI, Futurism descubrió que uno de los creadores más populares de la plataforma ha lanzado una veintena de chatbots inspirados en asesinos de corta edad, como Vladislav Roslyakov, autor de la matanza de la Politécnica de Kerch en 2018, donde perdieron la vida 20 personas; Alyssa Bustamante, quien mató a su vecina de tan solo 9 años, y Elliot Rodger, un joven de 22 años que mató a seis personas en el sur de California en 2014. Los bots conversacionales reproducen los rasgos psicóticos con un toque «sarcástico».

La situación es peligrosa, teniendo en cuenta que la interacción con los chatbots podría tener repercusiones negativas en los usuarios psicológicamente frágiles. «Es preocupante porque la gente podría verse animada o influenciada a hacer algo que no debería», comentó el psicólogo Peter Langman, señalando que «para alguien que ya está bajo un estímulo o que no está bajo intervención psiquiátrica, la respuesta de la IA podría parecer una especie de ‘permiso'». Aunque no es posible afirmar con certeza que interactuar con contenidos violentos llevará a persona a cometer un acto brutal, el hecho de que Character.AI no se posicione en contra de las actitudes violentas es preocupante.

Artículo originalmente publicado en WIRED Italia. Adaptado por Alondra Flores.



Source link

Share this content:

Publicar comentario