Los mayores riesgos de la inteligencia artificial en tu vida privada: ChatGPT, Gemini, Copilot

Los mayores riesgos de la inteligencia artificial en tu vida privada: ChatGPT, Gemini, Copilot

Muchos consumidores están enamorados de la IA generativa y utilizan nuevas herramientas para todo tipo de asuntos personales o comerciales.

Pero muchos ignoran la Posibles ramificaciones para la privacidadque puede ser significativo.

Desde ChatGPT de OpenAI hasta Gemini de Google, pasando por el software Copilot de Microsoft y el nuevo Apple Intelligence, las herramientas de IA para consumidores son… Fácilmente accesible y proliferanteSin embargo, las herramientas tienen diferentes políticas de privacidad relacionadas con el uso de los datos de los usuarios y su conservación. En muchos casos, los consumidores no son conscientes de cómo se utilizan o podrían utilizar sus datos.

Ahí es donde ser un consumidor informado se vuelve sumamente importante. Hay diferentes niveles de detalle sobre lo que se puede controlar, según la herramienta, dijo Jodi Daniels, directora ejecutiva y consultora de privacidad en Red Clover Advisors, que asesora a empresas sobre cuestiones de privacidad. «No existe una opción de exclusión universal para todas las herramientas», dijo Daniels.

La proliferación de herramientas de inteligencia artificial (y su integración en gran parte de lo que los consumidores hacen en sus computadoras personales y teléfonos inteligentes) hace que estas preguntas sean aún más pertinentes. Hace unos meses, por ejemplo, Microsoft lanzó sus primeras Surface PC con un botón Copilot dedicado en el teclado para acceder rápidamente al chatbot, cumpliendo una promesa de varios meses antes. Por su parte, El mes pasado, Apple describió su visión para la IA —que gira en torno a varios modelos más pequeños que funcionan con dispositivos y chips de Apple. Los ejecutivos de la empresa hablaron públicamente sobre la importancia que la empresa le da a la privacidad, lo que puede ser un desafío con los modelos de IA.

A continuación se presentan varias formas en que los consumidores pueden proteger su privacidad en la nueva era de la IA generativa.

Pregúntele a la IA las preguntas sobre privacidad que debe poder responder

Antes de elegir una herramienta, los consumidores deben leer atentamente las políticas de privacidad asociadas. ¿Cómo se utiliza su información y cómo podría utilizarse? ¿Existe una opción para desactivar el uso compartido de datos? ¿Existe una forma de limitar qué datos se utilizan y durante cuánto tiempo se conservan? ¿Se pueden eliminar los datos? ¿Los usuarios tienen que pasar por algún obstáculo para encontrar configuraciones de exclusión voluntaria?

Según los profesionales de privacidad, debería ser una señal de alerta si no puede responder fácilmente a estas preguntas o no encuentra respuestas a ellas dentro de las políticas de privacidad del proveedor.

«Una herramienta que se preocupa por la privacidad te lo dirá», dijo Daniels.

Y si no es así, «hay que asumir la responsabilidad», añadió Daniels. «No se puede dar por sentado que la empresa va a hacer lo correcto. Cada empresa tiene valores diferentes y cada empresa gana dinero de forma diferente».

Ofreció el ejemplo de Grammarly, una herramienta de edición utilizada por muchos consumidores y empresas, como Una empresa que explica claramente en varios lugares de su sitio web Cómo se utilizan los datos.

Mantenga los datos confidenciales fuera de los modelos de lenguaje de gran tamaño

Algunas personas son muy confiadas cuando se trata de introducir datos confidenciales en modelos de IA generativos, pero Andrew Frost Moroz, fundador de Aloha Browser, un navegador centrado en la privacidad, recomienda a las personas no introducir ningún tipo de datos confidenciales, ya que no saben realmente cómo podrían usarse o posiblemente usarse indebidamente.

Esto es válido para todo tipo de información que las personas puedan introducir, ya sea personal o relacionada con el trabajo. Muchas empresas han expresado importantes inquietudes sobre el uso de modelos de IA por parte de los empleados para ayudar con su trabajo, porque los trabajadores pueden no tener en cuenta cómo el modelo utiliza esa información con fines de formación. Si se introduce un documento confidencial, el modelo de IA tiene ahora acceso a él, lo que podría generar todo tipo de inquietudes. Muchas empresas solo aprobarán el uso de versiones personalizadas de herramientas de IA genéricas que mantengan un cortafuegos entre la información confidencial y los grandes modelos de lenguaje.

Las personas también deberían ser precavidas y no utilizar modelos de IA para nada que no sea público o que no quieran compartir con otros de ninguna manera, dijo Frost Moroz. Es importante ser consciente de cómo se está utilizando la IA. Si la estás utilizando para resumir un artículo de Wikipedia, eso podría no ser un problema. Pero si la estás utilizando para resumir un documento legal personal, por ejemplo, eso no es aconsejable. O digamos que tienes una imagen de un documento y quieres copiar un párrafo en particular. Puedes pedirle a la IA que lea el texto para que puedas copiarlo. Al hacerlo, el modelo de IA conocerá el contenido del documento, por lo que los consumidores deben tenerlo en cuenta, dijo.

Utilice las opciones de exclusión voluntaria que ofrecen OpenAI y Google

Cada herramienta de IA de generación tiene sus propias políticas de privacidad y puede tener opciones de exclusión voluntaria. Gemini, por ejemplo, permite a los usuarios crear un período de retención y eliminar determinados datos, entre otros controles de actividad.

Los usuarios pueden optar por no permitir que ChatGPT utilice sus datos para el entrenamiento de modelosPara ello, deben navegar hasta el icono de perfil en la parte inferior izquierda de la página y seleccionar Controles de datos en el encabezado Configuración. Luego, deben deshabilitar la función que dice «Mejorar el modelo para todos». Mientras esté deshabilitada, las nuevas conversaciones no se utilizarán para entrenar los modelos de ChatGPT, según una pregunta frecuente en el sitio web de OpenAI. sitio web.

No hay ningún beneficio real para los consumidores en permitir que la inteligencia artificial se entrene con sus datos y hay riesgos que aún se están estudiando, dijo Jacob Hoffman-Andrews, tecnólogo senior de Electronic Frontier Foundation, un grupo internacional de derechos digitales sin fines de lucro.

Si los datos personales se publican incorrectamente en la web, los consumidores Quizás puedan eliminarlo y luego desaparecerá de los motores de búsqueda. Pero desentrenar los modelos de IA es un asunto completamente diferente, dijo. Puede haber algunas formas de mitigar el uso de cierta información una vez que está en un modelo de IA, pero no es infalible y cómo hacerlo de manera efectiva es un área de investigación activa, dijo.

Opt-in, como con Microsoft Copilot, solo por buenas razones

Las empresas están integrando inteligencia artificial en las herramientas que las personas usan a diario en su vida personal y profesional. Copilot para Microsoft 365, por ejemplo, funciona con Word, Excel y PowerPoint para ayudar a los usuarios con tareas como análisis, generación de ideas, organización y más.

Para estas herramientas, Microsoft dice que no comparte datos de los consumidores con un tercero sin permiso, y no utiliza datos del cliente para entrenar a Copilot o sus funciones de IA sin consentimiento.

Sin embargo, los usuarios pueden optar por participar, si así lo desean, iniciando sesión en el centro de administración de Power Platform, seleccionando la configuración, la configuración del inquilino y activando el uso compartido de datos para Dynamics 365 Copilot y las funciones de inteligencia artificial de Power Platform Copilot. Estas funciones permiten compartir y guardar datos.

Las ventajas de optar por participar incluyen la posibilidad de hacer que las funciones existentes sean más efectivas. Sin embargo, el inconveniente es que los consumidores pierden el control sobre cómo se utilizan sus datos, lo cual es un factor importante a tener en cuenta, afirman los profesionales de la privacidad.

La buena noticia es que los consumidores que hayan optado por no participar con Microsoft pueden retirar su consentimiento en cualquier momento. Los usuarios pueden hacerlo accediendo a la página de configuración de inquilinos en Configuración en el centro de administración de Power Platform y desactivando el uso compartido de datos para Dynamics 365 Copilot y Power Platform Copilot AI Features.

Establezca un período de retención corto para la IA generativa para la búsqueda

Los consumidores no suelen pensar mucho antes de buscar información mediante la IA, utilizándola como si fuera un motor de búsqueda para generar información e ideas. Sin embargo, incluso la búsqueda de determinados tipos de información mediante la IA gen puede ser una intrusión en la privacidad de una persona, por lo que también existen prácticas recomendadas para el uso de herramientas con ese fin. Si es posible, establezca un período de retención breve para la herramienta de IA gen, dijo Hoffman-Andrews. Y elimine los chats, si es posible, después de haber obtenido la información buscada. Las empresas siguen teniendo registros de servidores, pero puede ayudar a reducir el riesgo de que un tercero obtenga acceso a su cuenta, dijo. También puede reducir el riesgo de que la información confidencial pase a formar parte del entrenamiento del modelo. «Realmente depende de la configuración de privacidad del sitio en particular».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *