Introducir datos personales en ChatGPT implica perder el control sobre ellos

Noticias de la WebeconomIA

Nota de Prensa

  • La información que los usuarios introducen en ChatGPT queda registrada y puede ser reutilizada para seguir “entrenando” a la aplicación.
  • Así, al introducir datos personales, se pierde el control sobre esa información.
  • Los expertos advierten que esta herramienta facilita o complementa la labor humana, pero no la sustituye.

La inteligencia artificial generativa ha ganado importancia, especialmente, en el último año. Herramientas como ChatGPT de OpenAI o Bard de Google han irrumpido en el mercado y lo han hecho para quedarse. En el caso de Chat GPT, las cifras hablan por sí solas: en menos de un año, ha alcanzado los 100 millones de usuarios semanales activos.

Escribir correos electrónicos con el tono y el enfoque que pida el usuario; interpretar un texto con diferentes formatos (informe, noticia, etc.); generar textos sobre cualquier tema propuesto en distintos formatos literarios; realizar traducciones a cualquier idioma; comparar productos y realizar recomendaciones; escribir fórmulas de Excel, listar páginas web sobre un tema, elaborar tutoriales… son solo algunas de las múltiples tareas que esta potente herramienta, lanzada al público en 2022 por OpenAI de forma gratuita, puede hacer.

Para utilizar correctamente ChatGPT, se debe partir de la base de que se trata de una herramienta que facilita o complementa la labor humana, pero no la sustituye. No es una herramienta infalible, por lo que su uso debería verificarse siempre y, además, no razona, sino que sus respuestas están vinculadas a los datos con los que ha sido previamente entrenada. En este sentido, Natalia Patiño, consultora legal TIC de Secure&IT, apunta: “Hay habilidades humanas y emociones que no están al alcance de la IA, al menos de momento. Por eso, es importante mantener el equilibrio entre la automatización del Chat GPT y el trabajo humano”.

El modelo ChatGPT funciona utilizando una técnica de aprendizaje automático conocida como “aprendizaje por transferencia”, un entrenamiento en base a un conjunto de datos a gran escala cuyo resultado sirve, a su vez, para continuar entrenando al modelo de aprendizaje. Esto implica el uso de una cantidad ingente de datos, que es lo que hace posible que las respuestas ofrecidas por la herramienta sean completas.

Cuando el usuario introduce una petición e interactúa con ChatGPT, el modelo ajusta su respuesta en función de la retroalimentación del usuario y los datos contextuales que aporta. En consecuencia, la herramienta genera respuestas cada vez más precisas y similares a la forma humana de expresión.

Pero, para el “entrenamiento” de esta herramienta se utilizan todos los datos que los usuarios introducen en ella. Por eso, es importante tener presente que esa información queda registrada y puede ser reutilizada; también los datos personales.

Natalia Patiño: “La introducción de datos personales y, en general, de información confidencial, implica perder el control sobre esos datos e informaciones. Y, en el caso de los datos personales, esta situación podría suponer un incumplimiento grave de la normativa vigente. En este sentido, es importante puntualizar que un dato personal es cualquier información referida a una persona física, identificada o identificable. Por tanto, no solo habrá que evitar introducir en el ChatGPT datos directamente identificables, sino aquellos que, de forma indirecta, puedan llevar a la identificación. Por este motivo, es muy importante no incluir este tipo de información en las consultas, sobre todo, teniendo en cuenta que actualmente los chats basados en IA son, en general, muy opacos”.

La calidad de la respuesta del ChatGPT viene determinada por la calidad del “prompt” o entrada, es decir, el contexto aportado por el propio usuario al realizar la petición. El uso de entradas adecuadas y bien formuladas es fundamental para obtener resultados satisfactorios de ChatGPT, de modo que una buena entrada debe ser clara y, preferiblemente, incluir palabras clave que ayuden a construir la respuesta. Pero, hay que tener presente que se pueden generar respuestas incorrectas, respuestas incompletas o inexactas e incluso “alucinaciones” (es decir, respuestas perfectamente convincentes, pero falsas o inventadas).

Además, las respuestas generadas puedan estar condicionadas por diferentes tipos de sesgos: “Un ejemplo es el sesgo de retroalimentación que se produce cuando los sistemas de inteligencia artificial aprenden a través de la retroalimentación de los usuarios, lo que puede perpetuar los prejuicios y los estereotipos existentes. Por ejemplo, el edadismo y la discriminación por género pueden continuar lastrando la contratación de personas mayores de cuarenta y cinco años o señalar sólo perfiles de hombres para ocupar puestos directivos si el modelo de IA para la selección de candidatos aprende de información previa ya sesgada”, explica Patiño.

El incremento en el uso de estas tecnologías planteó la necesidad de regular el uso de la Inteligencia Artificial en la Unión Europea. De hecho, Europa se encuentra en las etapas finales de la aprobación de un Reglamento sobre IA, un nuevo marco jurídico diseñado para abordar no solo los aspectos técnicos, sino también las cuestiones éticas y los múltiples desafíos de aplicación que plantea en diversos sectores.

Contactos de prensa:

Contacto de prensa:

Camino Pastrana | Consultora de Comunicación

ESENCIAL | PR & COMM AGENCY

Fuente y autor original: SecureIT

Ver más Notas de Prensa sobre Inteligencia Artificial

Nota importante desde DigitalPymes: El objetivo de esta publicación es darle difusión. Desde DigitalPymes seleccionamos contenidos externos que recibimos via Notas de Prensa, suscripción a blogs etc… y siempre intentamos citar fuentes originales, incluir los enlaces necesarios y autores. Nos ponemos a la entera disposición del propietario del contenido para modificarlo y retirarlo inmediatamente. Ponerse en contacto con nosotros a través del Formulario de Contacto

Scroll al inicio