Piénsatelo dos veces antes de crear esa figura de acción ChatGPT

Piénsatelo dos veces antes de crear esa figura de acción ChatGPT


Según Jake Moore, asesor global de ciberseguridad de la empresa de seguridad ESET, quien creó su propia figura de acción para demostrar los riesgos de privacidad de esta tendencia en LinkedIn, cualquier dato, sugerencia o petición que compartas ayuda a enseñar al algoritmo, y la información personalizada permite afinarlo aún más.


040125-missing-cybersecurity-professor Piénsatelo dos veces antes de crear esa figura de acción ChatGPT

El abogado del profesor en ciberseguridad Xiaofeng Wang y su esposa afirman estar «a salvo» tras los registros del FBI en sus domicilios y el repentino despido de Wang de la Universidad de Indiana, donde enseñó durante más de 20 años.


Los resultados son impresionantes, pero no valen tu privacidad

En algunos mercados, las fotos están protegidas por la normativa. En el Reino Unido y la Unión Europea, el Reglamento General de Protección de Datos (GDPR) ofrece una sólida protección, incluido el derecho a acceder a tus datos o eliminarlos. Igualmente, los archivos biométricos requieren un consentimiento explícito.

«Sin embargo, las fotografías se convierten en datos biométricos solo cuando se procesan a través de un medio técnico específico que permite la identificación única de un individuo concreto», afirma Melissa Hall, asociada sénior del bufete de abogados MFMac. Es poco probable que el tratamiento de una imagen para crear una versión caricaturizada del sujeto de la fotografía original se ajuste a esta definición.

Mientras tanto, en Estados Unidos, la protección de la intimidad varía. «California e Illinois están a la cabeza con leyes de protección de datos más estrictas, pero no existe una postura estándar en todos los estados», asegura Annalisa Checchi, socia de la firma de abogados especializada en propiedad intelectual Ionic Legal. Además, la política de privacidad de OpenAI no incluye una exclusión explícita de los datos biométricos o de imagen, lo que «crea una zona gris para las cargas faciales estilizadas», advierte Checchi.

Los riesgos incluyen que tu imagen o semejanza se conserve, se utilice potencialmente para entrenar futuros modelos o se combine con otros datos para crear perfiles publicitarios. «Aunque estas plataformas suelen dar prioridad a la seguridad, el uso a largo plazo de tu imagen es desconocido, y es difícil retractarse una vez que se ha subido», expresa Checchi.

OpenAI afirma que la privacidad y seguridad de sus usuarios es una prioridad absoluta. Un portavoz de la compañía refirió a WIRED que su misión es que sus modelos de IA aprendan sobre el mundo, no sobre los individuos, y que minimizan activamente la recopilación de información personal.

Según la empresa, los usuarios tienen control sobre cómo se utilizan sus datos, con herramientas de autoservicio para acceder, exportar o eliminar información personal. También pueden optar por que sus contenidos no se utilicen para mejorar los modelos. Los usuarios de ChatGPT gratis, Plus y Pro pueden controlar si contribuyen a futuras mejoras en la configuración de los controles de datos. OpenAI no entrena por defecto con los datos de los clientes de ChatGPT Team, Enterprise y Edu.


GettyImages-1820459753 Piénsatelo dos veces antes de crear esa figura de acción ChatGPT

Los usuarios se quejan de una nueva tendencia de «adulación» donde ChatGPT piensa que todo es brillante y genial.


Ten en cuenta esto antes de seguir una tendencia de IA

La próxima vez que sientas la tentación de sumarte a una tendencia impulsada por ChatGPT, como las figuras de acción o las imágenes al estilo Studio Ghibli, es aconsejable que consideres la contrapartida en términos de privacidad. Los riesgos se aplican tanto a ChatGPT como a muchas otras herramientas de edición o generación de imágenes con IA, por lo que es importante leer la política de privacidad antes de subir tus fotos.

También hay medidas que puedes tomar para proteger tus datos. En ChatGPT, la más eficaz es desactivar el historial de chat, lo que ayuda a garantizar que tus datos no se utilicen para entrenamiento. O bien, puedes subir imágenes anónimas o modificadas, por ejemplo, utilizando un filtro o generando un avatar digital en lugar de una foto real.

Conviene eliminar los metadatos de los archivos de imagen antes de subirlos, lo cual es posible con herramientas de edición fotográfica. Vazdar recomienda a los usuarios evitar los mensajes que incluyan información personal sensible y abstenerse de subir fotos de grupo o cualquier imagen con elementos identificables en el fondo.

Vale la pena revisar dos veces la configuración de tu cuenta de OpenAI, especialmente las relacionadas con el uso de datos para entrenamiento. «Ten en cuenta si hay herramientas de terceros implicadas y nunca subas la foto de otra persona sin su consentimiento», añade Hall. Los términos de OpenAI dejan claro que eres responsable de lo que subes, así que la concienciación es clave.

Por su parte, Checchi aconseja desactivar el entrenamiento de modelos en la configuración de OpenAI, evitar las indicaciones con localización y no vincular los contenidos a perfiles sociales: «La privacidad y la creatividad no son mutuamente excluyentes, solo hay que ser un poco más intencional».

Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.



Source link

Share this content:

Publicar comentario