Cómo proteger tus datos al usar herramientas de IA
No pegues información confidencial real (datos personales, contraseñas, secretos de empresa) en herramientas de IA públicas. Usa marcadores, revisa la política de privacidad y, para datos sensibles, herramientas con garantías o que procesen en local.
Lo que escribes en una IA pública puede usarse para entrenar futuros modelos, según la herramienta. Antes de pegar un contrato, una historia clínica o datos de clientes, conviene saber qué estás compartiendo y con quién.
Pasos
- Asume que no es privado por defectoEn herramientas gratuitas y públicas, parte de que lo que escribes podría revisarse o usarse para entrenar. Actúa en consecuencia.
- Anonimiza antes de pegarSustituye nombres, DNI, números de cuenta, direcciones por marcadores: [NOMBRE], [CLIENTE A], [CIFRA]. La IA hará el trabajo igual.
- Revisa la configuraciónMuchas herramientas permiten desactivar el uso de tus conversaciones para entrenamiento o borrar el historial. Actívalo.
- Para datos sensibles, usa lo adecuadoInformación médica, legal o de empresa: herramientas con contrato de confidencialidad, planes de empresa o modelos que se ejecutan en local.
- No metas credenciales nuncaContraseñas, claves API, tokens: jamás. Si necesitas que la IA trabaje con código que las contiene, sustitúyelas por placeholders.
Tip clave
Norma simple: antes de pegar algo en una IA, pregúntate "¿me importaría que esto apareciera publicado?". Si la respuesta es sí, anonimízalo o no lo pegues.
Preguntas frecuentes
¿Usan mis conversaciones para entrenar?
Depende de la herramienta y la configuración. Muchas lo hacen por defecto en planes gratuitos; se puede desactivar en varias.
¿Y la información de mi empresa?
Riesgo real. Muchas empresas tienen políticas sobre qué se puede o no pegar en IA. Consulta la tuya.
¿Hay IA que funcione sin internet?
Sí, existen modelos que se ejecutan en tu propio ordenador. Más privados, pero requieren equipo potente y conocimientos.