Cosas que NUNCA debes compartirle a una Inteligencia Artificial
Aunque es de gran utilidad, hay que tratar a la inteligencia con cuidado y nunca reverlarle esta información personal
MILENIO
Ahora que la Inteligencia Artificial está más cerca que nunca en nuestro propio WhatsApp, seguramente te has visto con la curiosidad de utilizarla al máximo; ya sea preguntándole cómo estará el clima, cuántas medallas tiene México o incluso cuándo será el fin del mundo.
La realidad es que Los chatbots de IA se han convertido en herramientas extremadamente populares y útiles para obtener información, consejos y asistencia sobre diversos temas. Puedes usarlos para crear un plan de negocios, corregir artículos o códigos, redactar correos electrónicos, generar arte, imágenes, videos y prácticamente cualquier cosa que puedas imaginar.
Sin embargo, cuanto más avanzados e integrados se vuelven estos asistentes en nuestras vidas, más cautelosos debemos ser al compartir información personal con ellos. ¿Por qué? Porque no son tan confiables como te lo imaginas.
¿Cómo funcionan los chatbots con Inteligencia Artificial?
Para comprender los riesgos de privacidad asociados con los chatbots de IA, es importante saber cómo funcionan. Estos chatbots recopilan y almacenan las transcripciones completas de las conversaciones que tienen lugar cuando interactúas con ellos. Esto incluye todas las preguntas, indicaciones, mensajes que envías al chatbot y las respuestas de este.
Y digo, no nos importaría tanto que una IA tuviera esta información, sino fuera que las empresas detrás de estos asistentes analizan y procesan estos datos conversacionales para entrenar y mejorar sus grandes modelos lingüísticos.
Hazde cuenta que el chatbot es como un estudiante que toma notas durante las clases. El chatbot escribe todo lo que dices palabra por palabra, de modo que se capturan el contexto completo y los detalles. Luego, la empresa de inteligencia artificial revisa estas “notas” para ayudar al chatbot a aprender, de forma muy parecida a como un estudiante estudiaría sus apuntes de clase para aumentar sus conocimientos.
Si bien la intención es mejorar la comprensión del lenguaje y las capacidades de diálogo de la IA, también significa que la IA recopila, almacena y estudia tus datos conversacionales sin procesar, que potencialmente podrían incluir información personal, opiniones y detalles confidenciales que le estás revelando a dichas empresas, al menos temporalmente.
Los riesgos de compartir demasiado con la IA
Cuando compartes información personal o confidencial con un chatbot de IA, pierdes control sobre dónde van esos datos o cómo pueden usarse. Los chatbots de IA almacenan datos en servidores, que pueden volverse vulnerables a intentos de piratería o infracciones.
Estos servidores contienen una gran cantidad de información que los ciberdelincuentes pueden explotar de diversas formas. Pueden infiltrarse en los servidores, robar los datos y venderlos en los mercados de la web oscura. Además, los piratas informáticos pueden utilizar estos datos para descifrar contraseñas y obtener acceso no autorizado a sus dispositivos.
Cualquier dato que proporciones podría quedar expuesto, hackeado o utilizado indebidamente, lo que provocaría robo de identidad, fraude financiero o la exposición pública de información íntima que preferirías mantener en privado. Proteger tu privacidad significa ser selectivo con los detalles que revelas a los chatbots de IA.
Cosas que NUNCA debes compartirle a una Inteligencia Artificial
Para proteger tu privacidad e información personal, sé selectivo con lo que compartes con tu IA de preferencia, como:
Información de identificación personal
Evita compartir piezas clave de tu identificación personal, como tu nombre completo, dirección particular, número de teléfono, fecha de nacimiento, número de seguro social u otros números de identificación gubernamental. Cualquiera de estos puede explotarse para hacerse pasar por ti, lo que provocaría robo de identidad, fraude financiero u otro uso delictivo de tus datos personales.
Información confidencial relacionada con el trabajo
Si trabajas con información patentada, secretos comerciales, conocimiento interno o datos confidenciales del lugar de trabajo de cualquier tipo, no hables de esto con chatbots públicos de IA. Evita el uso de chatbots de IA para resumir actas de reuniones o automatizar tareas repetitivas, ya que esto plantea el riesgo de exponer involuntariamente datos confidenciales o violar acuerdos de confidencialidad y protecciones de propiedad intelectual de tu empleador.
Un informe de Bloomberg destacó un caso en el que los empleados de Samsung utilizaron ChatGPT con fines de codificación y accidentalmente cargaron código confidencial en la plataforma de IA generativa. Este incidente resultó en la divulgación de información confidencial sobre Samsung, lo que llevó a la compañía a imponer una prohibición sobre el uso de chatbots de IA.
Las principales empresas de tecnología como Apple, Samsung, JPMorgan y Google incluso han implementado políticas para prohibir a sus empleados el uso de chatbots de IA para trabajar.
Información financiera
Nunca compartas información de cuentas financieras, números de tarjetas de crédito o detalles de ingresos con la inteligencia artificial. Puedes pedirles sugerencias y consejos financieros generales que te ayudarán con tu presupuesto o incluso orientación fiscal, pero manten privada tu información financiera confidencial, ya que podría fácilmente poner en peligro tus cuentas y activos financieros.
Nombres de usuario y contraseñas
Nunca compartas contraseñas, PIN, códigos de autenticación u otras credenciales de inicio de sesión con chatbots de IA. Incluso proporcionar pistas sobre tus credenciales podría ayudar a los piratas informáticos a acceder a tus cuentas.
Pensamientos privados e íntimos
Si bien los chatbots pueden servir como un oído comprensivo, debes evitar revelar pensamientos, experiencias u opiniones profundamente personales que no te sentirías cómodo compartiendo públicamente. Cualquier cosa, desde puntos de vista políticos o religiosos hasta problemas en las relaciones o luchas emocionales, podría quedar expuesto si los registros de conversación son hackeados o mal manejados.