Los cinco datos que nunca se deben compartir a una inteligencia artificial o perderás tu intimidad

TECNOLOGÍA PARA TODOS.-

Usar herramientas de IA sin revisar qué datos se comparten, puede poner en riesgo la identidad personal y la información corporativa.

Expertos advierten sobre los peligros de entregar imágenes y datos sensibles a plataformas que procesan información para mejorar modelos - (Imagen ilustrativa Infobae)

Una imagen generada por inteligencia artificial puede parecer inofensiva. Un retrato estilo animé, una simulación de tu rostro como personaje de videojuego o una versión ilustrada de una selfie con amigos. Todo eso, desde la comodidad de un teléfono móvil, con solo subir una foto a ChatGPT.

Pero detrás de esa imagen se oculta un riesgo que muchos usuarios ignoran. No se trata de un virus ni de un robo inmediato, sino de algo más sutil: el uso y almacenamiento de tus datos personales.-

Desde su lanzamiento en 2022, ChatGPT transformó la forma en que millones de personas se relacionan con la tecnología. Preguntar, escribir, resumir, analizar, ilustrar. Con cada actualización, sus capacidades se amplían.

IA y privacidad, una combinación que exige cada vez más precaución.

La más reciente, GPT-4o, introdujo funciones de generación de imágenes, lo que provocó un nuevo fenómeno viral en redes sociales durante el último fin de semana. Miles de personas subieron fotos para obtener ilustraciones al estilo de Studio Ghibli. Lo que no muchos saben es que al hacerlo podrían estar cediendo, sin darse cuenta, información biométrica.

Cinco cosas que nunca deberías compartir con ChatGPT.

Las plataformas de inteligencia artificial recopilan y procesan grandes volúmenes de datos. Para proteger tu privacidad y seguridad, es fundamental conocer qué tipo de información no debe ser compartida. Aquí te mostramos cinco ejemplos clave.

1. Imágenes con datos biométricos.

Subir una foto tuya o de alguien más puede parecer una acción sin importancia. Pero si en la imagen se identifica claramente tu rostro, estás entregando datos biométricos que podrían ser utilizados para entrenar modelos, generar patrones faciales o incluso alimentar bases de datos sin tu conocimiento. Las imágenes que parecen juegos visuales pueden tener usos que van más allá del entretenimiento.

2. Datos personales.

Tu número de identificación, tu fecha de nacimiento, tu dirección o las rutas que recorres habitualmente no deben ser parte de ninguna conversación con una IA. Estos datos permiten identificarte, rastrearte o incluso vulnerar tu seguridad. Aunque el sistema esté diseñado para proteger la información, no ofrece garantías absolutas.

3. Información médica.

Resultados de análisis, diagnósticos o síntomas específicos no deberían compartirse con un chatbot. ChatGPT no es una herramienta médica certificada. No puede- brindar diagnósticos reales ni reemplaza el consejo de un profesional. Además, esa información podría quedar almacenada o ser utilizada sin tu consentimiento en futuras actualizaciones o entrenamientos del modelo.

Información biométrica, médica o bancaria podría quedar registrada en sistemas que no garantizan privacidad total ni control de uso futuro - visualesIA.

4. Datos bancarios.

Números de tarjetas, claves de acceso, cuentas o transferencias son datos extremadamente sensibles. Compartirlos en una conversación con una IA, por más segura que parezca, representa un riesgo innecesario. Estos sistemas no están diseñados para manejar transacciones financieras y podrían ser blanco de ciberataques.

5. Información corporativa.

Si usas la IA como asistente para tareas laborales, evita compartir documentos, estrategias internas, nombres de clientes o cualquier tipo de información confidencial de tu empresa. Aunque parezca útil para redactar un informe o preparar una presentación, podrías estar filtrando datos que comprometan la integridad del negocio.

Mantener un uso responsable con la IA marca la diferencia.

La inteligencia artificial no es peligrosa por sí misma. El riesgo surge del uso despreocupado o inconsciente que hacen las personas. Cada vez que se comparte información en una herramienta como ChatGPT, esa información puede ser procesada, almacenada o reutilizada.

A veces con fines legítimos, como mejorar el sistema. Pero otras veces, el destino de esos datos escapa al control del usuario.

La clave está en la prevención. Ser consciente de qué compartes, por qué lo haces y qué podría pasar si esa información termina en manos equivocadas. La IA ofrece beneficios reales, pero también implica nuevas responsabilidades.

El uso responsable no significa dejar de usar estas herramientas. Significa aprender a usarlas con criterio. Porque la inteligencia no solo debe estar en el sistema, también en quien lo consulta.

Por: Santiago Neira.

Sitio Fuente: infobae