Conversar con ChatGPT sobre tus problemas legales o emocionales podría exponerte en los tribunales

Conversar con ChatGPT sobre tus problemas legales o emocionales podría exponerte en los tribunales


Si usas ChatGPT para resolver problemas legales, psicológicos o existenciales, quizá debas pensarlo dos veces. Sam Altman, director ejecutivo de OpenAI, confirmó que la privacidad de estas conversaciones no cuenta con protección legal y podría ser utilizada en procesos judiciales. Sus declaraciones reavivan la preocupación sobre los riesgos de seguridad derivados del creciente uso de la inteligencia artificial (IA) en aspectos íntimos de la vida de los usuarios.

“Si hablas con ChatGPT sobre asuntos delicados y luego surge una demanda o algo similar, podríamos vernos obligados a entregar esa información [a las autoridades]. Y creo que eso sería un desastre”, advirtió Altman durante su participación en el pódcast This Past Weekend, conducido por el comediante Theo Von.

El directivo precisó que, a diferencia de médicos, abogados y terapeutas, las empresas creadoras de chatbots de IA no están obligadas a respetar el secreto profesional.


061125_Psychedelic-Therapy-4 Conversar con ChatGPT sobre tus problemas legales o emocionales podría exponerte en los tribunales

Mientras las empresas psicodélicas y las aplicaciones terapéuticas experimentan con la IA, la gente toma enormes dosis de drogas y utiliza chatbots para procesar sus viajes.


“La gente comparte con ChatGPT los problemas más personales de su vida. Hoy, cuando un usuario habla con un terapeuta, abogado o médico, existe una protección legal: confidencialidad médico-paciente o privilegio legal. Esto aún no aplica cuando conversas con ChatGPT. Creo que deberíamos contar con la misma privacidad que tendrías con un terapeuta o cualquier otra persona”, explicó.

Diversos estudios han alertado sobre los riesgos sociales y de privacidad de usar herramientas como ChatGPT para apoyo emocional o asesoramiento. Una investigación de OpenAI y el MIT Media Lab concluyó que, aunque ChatGPT se diseñó como herramienta de productividad, algunas personas lo utilizan como sustituto de interacciones humanas debido a su estilo conversacional y amplias capacidades.

Este fenómeno, advierten los autores, puede afectar las relaciones interpersonales y derivar en trastornos psicológicos. A estas advertencias se suma el problema de la protección de datos. “Esa es una de las razones por las que a veces me da miedo usar ciertas herramientas de IA: no sé cuánta información personal quiero incluir, porque no sé quién tendrá acceso a ella”, señaló Altman.

ChatGPT quiere dictar los valores éticos de la IA

OpenAI ha reconocido que la falta de garantías de privacidad podría frenar la adopción masiva de la IA. La compañía ha señalado que la ausencia de una regulación clara impide que se cumplan de forma estricta las normas internas de protección de datos para salvaguardar la seguridad de los usuarios.

La empresa también apeló una orden judicial que la obligaría a conservar millones de conversaciones de usuarios de ChatGPT en todo el mundo, excepto las de clientes de la versión Enterprise. Este requerimiento fue solicitado por el tribunal que atiende la demanda de The New York Times, el cual acusa a OpenAI de usar contenido protegido por derechos de autor sin consentimiento ni compensación para entrenar sus modelos.

OpenAI calificó esta orden como una “extralimitación”. La preocupación radica en que, si un tribunal puede anular las propias decisiones de privacidad de la empresa, esta quedaría vulnerable a nuevas demandas bajo la figura de “descubrimiento legal” o “aplicación de la ley”.

En ese contexto, Altman afirmó en el pódcast que las compañías tecnológicas compiten no solo por dominar comercialmente la industria de la IA, sino por establecer los valores que guiarán su desarrollo en el futuro.

Señaló que OpenAI trabaja para definir esas normas y advirtió que, si la firma no avanza rápidamente, otras empresas lo harán, posiblemente sin la misma conciencia sobre las consecuencias sociales de esta tecnología.

Las políticas de OpenAI en la mira

Las políticas de privacidad de OpenAI han sido cuestionadas en diversas ocasiones. Sus términos detallan una amplia recolección de datos, incluidos los personales, de uso y el contenido que los usuarios introducen en la plataforma. ChatGPT emplea esta información para entrenar sus modelos, a menos que se desactive manualmente esta función o se utilice la versión empresarial.

La compañía asegura que los datos se “anonimizan”. Sin embargo, Angus Allan, director de Producto de la consultora digital CreateFuture, afirma que la estrategia parece ser “recopilar todo ahora y procesarlo después”. Según Allan, la política de privacidad establece explícitamente que se recolectan todas las aportaciones de los usuarios y se reserva el derecho de entrenar sus modelos con ellas.


ai-flop-gear-181890332 Conversar con ChatGPT sobre tus problemas legales o emocionales podría exponerte en los tribunales

A medida que proliferan las herramientas de inteligencia artificial generativa, aumenta la oposición a esta tecnología y a sus efectos negativos.


La cláusula de “contenido del usuario” podría incluir también imágenes y datos de voz. “Es una aspiradora de datos con esteroides, y lo expresa claramente. La política no ha cambiado de forma sustancial, pero con las mayores capacidades de los modelos recientes, el alcance de lo que constituye ‘contenido del usuario’ se ha ampliado drásticamente”, subrayó.

Las normas de privacidad de OpenAI indican que ChatGPT no accede a la información del dispositivo más allá de lo introducido en el chat. No obstante, por defecto, el sistema puede recopilar otros datos, señala Jules Love, fundador de la firma Spark. “Utiliza todo, desde los prompts y respuestas, hasta correos electrónicos, números telefónicos, datos de geolocalización, actividad en la red y detalles del dispositivo empleado”, afirmó.

En contraste con estos cuestionamientos, Altman insistió en el pódcast que “tiene sentido que los usuarios quieran claridad sobre la privacidad antes de usar de forma intensiva [ChatGPT], del mismo modo que buscan certeza legal”.



Source link

Share this content:

Publicar comentario