<--Awin verification 001-->
julio 15, 2024

Usar ChatGPT en el trabajo pone en riesgo tu privacidad

Actualizado: 29 junio, 2024

 Usar ChatGPT en el trabajo pone en riesgo tu privacidad

Desde la aparición de ChatGPT en el trabajo, su uso se ha extendido rápidamente, convirtiéndose en un aliado indispensable en diversas tareas de oficina. Este chatbot de inteligencia artificial (IA) desarrollado por OpenAI ha demostrado ser útil en programación, redacción de correos electrónicos, elaboración de resúmenes, análisis de datos y generación de gráficos.

No obstante, el entusiasmo por mejorar la productividad utilizando esta tecnología podría traer consigo algunos inconvenientes. Sin quererlo, muchos usuarios podrían estar exponiendo información confidencial propia o de la empresa. La razón principal es que ChatGPT, por su diseño, no está preparado para mantener secretos.

ChatGPT en el trabajo: un arma de doble filo

Imaginemos una situación común en la oficina. Un empleado se prepara para una reunión importante donde se discutirá la estrategia comercial para el próximo año. Para optimizar su participación, decide usar ChatGPT para resumir el documento anual de planificación, que contiene información confidencial y análisis de la competencia, así como detalles sobre productos aún no lanzados.

El empleado carga el PDF en ChatGPT y obtiene un resumen eficiente, lo que le permite destacarse en la reunión. Sin embargo, esta información sensible ahora reside en los servidores de OpenAI, lo que plantea un riesgo significativo para la empresa.

Al utilizar ChatGPT por primera vez, se presenta una advertencia que recomienda no compartir información confidencial. A menudo, los usuarios ignoran esta advertencia sin comprender plenamente sus implicaciones. La política de uso de datos de OpenAI especifica que las indicaciones del usuario, las respuestas, las imágenes y los archivos pueden ser utilizados para mejorar el modelo subyacente, como GPT-3.5, GPT-4, y futuras versiones.

Esta mejora del modelo se realiza entrenándolo con más datos, lo que podría incluir información confidencial si no se toman precauciones adecuadas.

¿Cómo mejorar la seguridad de los datos en ChatGPT?

Cómo mejorar la seguridad de los datos en ChatGPT
ChatGPT en el trabajo ofrece una gran oportunidad para mejorar la productividad

TAMBIÉN TE PUEDE INTERESAR: Crea tu espacio de trabajo en Microsoft Edge

Para proteger la información sensible, los usuarios y las empresas tienen dos opciones claras: desactivar la opción de mejora del modelo con las conversaciones o utilizar versiones empresariales de ChatGPT.

Desactivación de la mejora del modelo

  1. Abrir ChatGPT desde un ordenador.
  2. Acceder a la configuración mediante el perfil.
  3. Ir a Controles de datos y seleccionar Mejorar el modelo para todos.
  4. Asegurarse de que el interruptor esté desactivado.

En el ámbito profesional, ChatGPT Enterprise y ChatGPT Team garantizan que los datos no se utilicen para entrenar modelos de OpenAI y están protegidos por cifrado de datos en reposo (AES-256) y en tránsito (TLS 1.2+).

ChatGPT en el trabajo: supervisión y confidencialidad

Incluso utilizando herramientas profesionales de pago, existen situaciones específicas en las que empleados de OpenAI pueden acceder a las conversaciones:

  • Para investigar incidentes de seguridad.
  • Para brindar asistencia solicitada.
  • Para responder a asuntos legales.
  • Para mejorar el rendimiento del modelo.

Compañías como Samsung han implementado medidas para evitar la filtración de datos confidenciales, limitando el uso de chatbots para ciertas tareas y adoptando versiones corporativas de ChatGPT.

Protección adicional y consideraciones finales

Los empleados de OpenAI y los contratistas externos especializados que acceden a las conversaciones de ChatGPT están sujetos a estrictas obligaciones de confidencialidad y seguridad. A pesar de estas medidas, es crucial reconocer que la intervención humana no siempre es infalible. La historia empresarial está llena de ejemplos donde las filtraciones de información ocurrieron a pesar de las garantías de confidencialidad.

Por lo tanto, es vital que las empresas y los usuarios sean conscientes de los riesgos y adopten todas las medidas necesarias para proteger su información confidencial al utilizar ChatGPT en el trabajo.

ChatGPT en el trabajo ofrece una gran oportunidad para mejorar la productividad y la eficiencia en la oficina, pero debe ser utilizado con precaución y una comprensión clara de las políticas de datos y seguridad para evitar posibles filtraciones de información sensible. Las empresas deben evaluar cuidadosamente sus necesidades y considerar las opciones de seguridad disponibles para garantizar que su información confidencial esté protegida en todo momento.

En resumen, la incorporación de ChatGPT en el trabajo puede ser una herramienta poderosa, siempre que se tomen las precauciones adecuadas para salvaguardar la confidencialidad de los datos.

Leonardo Pedraza

Soy Leonardo, redactor especializado en noticias de tecnología y negocios. Te brindo insights para optimizar e impulsar tu empresa.

Quizás te interese...

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¡Prueba Nuestra Nueva Herramienta!

Suscríbete a nuestro Newsletter y desbloquea por completa nuestra herramienta de optimización de imágenes. Sube hasta 50 imágenes simultaneas para convertir, optimizar y geolocalizar con nuestra herramienta.