Herramienta legítima o riesgo de TI: ¿ChatGPT es seguro?

Es imposible no entusiasmarse demasiado con el uso de nuevas herramientas como la IA generativa, que revolucionan la forma en que completamos tareas con precisión utilizando un modelo de lenguaje de IA a la velocidad del rayo.

Pero rápidamente llegamos al punto en el que debemos preguntarnos: ¿ChatGPT es seguro?

ChatGPT tiene muchos beneficios para tu transformación digital. Aún así, también es esencial sopesarlos con los riesgos cuando su personal lo implemente en sus flujos de trabajo, dando a la herramienta de inteligencia artificial acceso a grandes cantidades de datos de la empresa.

ChatGPT alcanzó 1 millón de usuarios en solo cinco días en enero de 2023, cifra que se ha disparado a 100 millones, por lo que con un crecimiento a un ritmo nunca antes visto, es esencial considerar si esta herramienta es segura para su organización antes de dar el salto.

Para ayudar a responder la pregunta “¿Es ChatGPT seguro?”, exploraremos los siguientes temas:

Por qué preguntar: ¿ChatGPT es seguro? ¿Cuáles son los 8 principales riesgos de ChatGPT (+ ejemplos)? ¿Cómo te mantienes seguro al usar ChatGPT?

Por qué preguntar: ¿ChatGPT es seguro?

El verdadero peligro de ChatGPT

Es esencial preguntarse si es seguro integrar nuevas herramientas de inteligencia artificial generativa en el flujo de trabajo de su organización, y ChatGPT no es una excepción.

Debe considerar si ChatGPT es seguro porque implica procesar grandes cantidades de datos, lo que plantea muchos riesgos de seguridad si las violaciones de datos llevan a que información confidencial llegue a manos de partes malintencionadas.

Pregúntese si la forma en que utiliza ChatGPT es segura para garantizar la seguridad de los datos de la empresa y para mantener su ventaja competitiva y poder seguir teniendo éxito utilizando medidas de ciberseguridad eficaces junto con una malla de ciberseguridad.

¿Cuáles son los 8 principales riesgos de ChatGPT (+ ejemplos)?

Hay ocho riesgos principales de ChatGPT. Considérelos con sus ejemplos para asegurarse de estar preparado para estos riesgos y proteger su organización.

Fuga de datos y seguridad

Al ingresar información confidencial de terceros o interna de la empresa en ChatGPT, la incorpora al modelo de datos del chatbot, haciéndola accesible para otras personas que planteen preguntas pertinentes.

Esta acción plantea el riesgo de fuga de datos y podría contravenir las políticas de retención de datos de una organización.

Ejemplo

Los detalles sobre un próximo producto, como las especificaciones confidenciales y las estrategias de marketing que su equipo está ayudando a un cliente a lanzar, deben abstenerse de compartirse con ChatGPT para mitigar el potencial de fuga de datos y violaciones de seguridad.

Preocupaciones sobre confidencialidad y responsabilidad

Al igual que el punto anterior, revelar información confidencial de clientes o socios podría violar acuerdos contractuales y mandatos legales para salvaguardar dichos datos.

Si la seguridad de ChatGPT se ve comprometida, la exposición del contenido confidencial es riesgosa, lo que podría poner en peligro la reputación de la organización y exponerla a responsabilidades legales.

Otro riesgo es que el personal utilice ChatGPT sin capacitación o aprobación de TI a través de prácticas de TI en la sombra o IA en la sombra, lo que dificulta monitorear y regular el uso de esta herramienta de IA.

Ejemplo

Considere un escenario en el que una organización de atención médica emplea ChatGPT para atender las consultas de los pacientes.

Compartir información confidencial del paciente, incluidos registros médicos o detalles de salud personales, con ChatGPT podría infringir obligaciones legales e infringir los derechos de privacidad del paciente protegidos por leyes como HIPAA (Ley de Responsabilidad y Portabilidad de Seguros Médicos) en los Estados Unidos.

Sesgo de investigación

Los sesgos del sistema de IA pueden surgir de diversas fuentes, como datos de entrenamiento sesgados, algoritmos defectuosos y sesgos humanos inconscientes.

Estos sesgos pueden dar lugar a resultados discriminatorios o injustos, afectando negativamente a los usuarios y erosionando la confianza en las soluciones de IA.

Los sistemas de inteligencia artificial similares a ChatGPT pueden exhibir diversa información inexacta debido a sesgos demográficos, de confirmación y de muestreo.

Ejemplo

Si los datos comerciales históricos contienen sesgos de género, ChatGPT podría perpetuar, sin saberlo, esos sesgos en las respuestas.

Este sesgo puede conducir a una representación distorsionada de los resultados de la investigación y a una investigación de baja calidad sobre el historial de contratación y retención de una empresa.

ChatGPT también puede brindar información incorrecta a los clientes como parte de un chatbot.

Complejidades de la propiedad intelectual

Determinar la propiedad del código o texto producido por ChatGPT puede resultar complicado.

Según las condiciones del servicio, el resultado parece ser responsabilidad del proveedor de insumos; sin embargo, pueden surgir complicaciones cuando el resultado incorpora datos legalmente protegidos derivados de otros insumos.

También pueden surgir problemas de derechos de autor si se emplea ChatGPT para generar material escrito basado en propiedad protegida por derechos de autor.

Ejemplo

Por ejemplo, si un usuario solicita a ChatGPT que genere material con fines de marketing, el resultado incluirá contenido protegido por derechos de autor de fuentes externas.

Estos resultados no tienen la atribución ni el permiso adecuados; Existe un riesgo potencial de infringir los derechos de propiedad intelectual de los creadores del contenido original.

Esta acción podría tener repercusiones legales y dañar la reputación de la empresa.

Cumplimiento de licencias de código abierto

Si ChatGPT emplea bibliotecas de código abierto e integra ese código en productos, existe la posibilidad de contravenir licencias de software de código abierto (OSS), como GPL, lo que podría resultar en problemas legales para la organización.

Ejemplo

Por ejemplo, si una empresa utiliza ChatGPT para producir código para un producto de software y el origen de los datos de capacitación utilizados para entrenar GPT es ambiguo, existe el riesgo de violar los términos de las licencias de código abierto vinculadas a ese código.

Hacerlo podría generar complejidades legales, que abarcarían acusaciones de infracción de licencia y la posibilidad de recursos legales por parte de la comunidad de código abierto.

Limitaciones al desarrollo de la IA

Los términos de servicio de ChatGPT establecen explícitamente que los desarrolladores no pueden utilizarlo para crear otros sistemas de inteligencia artificial.

Emplear ChatGPT de esta manera podría impedir futuras iniciativas de desarrollo de IA, principalmente si la empresa opera dentro de ese dominio.

Ejemplo

Por ejemplo, considere una empresa especializada en tecnología de reconocimiento de voz que pretende mejorar su sistema actual incorporando las capacidades de procesamiento del lenguaje natural de ChatGPT.

La prohibición explícita descrita en los términos de servicio de ChatGPT desafía la realización de esta mejora de acuerdo con las restricciones establecidas.

Privacidad y cumplimiento del derecho internacional poco claros

Dadas las formidables capacidades de ChatGPT, los actores maliciosos pueden explotar la herramienta para crear malware, producir contenido para ataques de phishing y estafas, y ejecutar ataques cibernéticos utilizando la recopilación de datos a través de la web oscura.

Ejemplo

ChatGPT puede utilizarse junto con bots para fabricar artículos de noticias falsos y otro contenido engañoso para engañar a los lectores.

Crimen como servicio (CaaS)

ChatGPT puede acelerar el desarrollo de malware gratuito, mejorando la facilidad y rentabilidad del crimen como servicio.

Ejemplo

Los ciberdelincuentes podrían aprovechar ChatGPT para producir extensos mensajes de spam, lo que provocaría que los sistemas de correo electrónico se inundaran e interrumpieran las redes de comunicación.

¿Qué hace OpenAI para que ChatGPT sea seguro?

OpenAI afirma priorizar la seguridad de ChatGPT con rigurosas precauciones.

A pesar de los riesgos inherentes, OpenAI subraya su dedicación a la seguridad y la privacidad a través de varias medidas.

Certificaciones de cumplimiento

OpenAI, auditado y compatible con CCPA, GDPR y SOC 2/3, mantiene los estándares de privacidad de datos.

Moderación de contenido

Los filtros integrados evitan el uso infame y monitorean activamente las conversaciones para frustrar el abuso por parte de estafadores y piratas informáticos.

Cumplimiento de la certificación

OpenAI se sometió a auditorías para garantizar el cumplimiento de los estándares de privacidad de datos como CCPA, GDPR y SOC 2/3.[3]

Moderación de contenido

ChatGPT presenta filtros integrados para disuadir el uso malicioso. El seguimiento continuo de las conversaciones en busca de abusos es un elemento disuasivo que impide que los estafadores y piratas informáticos exploten la herramienta.

Programa de recompensas por errores

Los piratas informáticos éticos reciben una compensación de OpenAI por investigar e identificar vulnerabilidades en ChatGPT, con recompensas por errores de seguridad descubiertos.

Protección de datos personales

Los desarrolladores de ChatGPT se esfuerzan por eliminar la información personal de los conjuntos de datos de entrenamiento, asegurándose de no utilizar datos confidenciales para futuros entrenamientos de modelos.

Seguridad de datos

OpenAI realiza una copia de seguridad de todos los datos recopilados, los cifra y los almacena en instalaciones con acceso restringido, limitado únicamente al personal aprobado.

Entrenamiento de refuerzo

Después del entrenamiento inicial del modelo con una gran cantidad de datos de Internet, los entrenadores humanos ajustaron meticulosamente ChatGPT para eliminar la información errónea, el lenguaje ofensivo y los errores.

Si bien pueden ocurrir errores ocasionales, esta moderación de contenido resalta el compromiso de OpenAI de garantizar respuestas y contenido de alta calidad.

Transparencia

Puede revisar las medidas de seguridad detalladas para ChatGPT en el sitio web de OpenAI.

¿Cómo te mantienes seguro usando ChatGPT?

Cinco pasos le permiten mantenerse seguro al usar ChatGPT, comenzando por revisar periódicamente la política de privacidad y los términos de uso.

1. Revise detenidamente la política de privacidad y los términos de uso de ChatGPT.

Antes de revelar información personal a herramientas de IA generativa, es esencial comprender sus políticas.

Guarde estos documentos como favoritos para consultarlos con frecuencia, ya que pueden cambiar sin previo aviso.

Consulte a continuación la política de privacidad, los términos y el uso de ChatGPT de OpenAI:

2. Deshabilite el historial de chat y la capacitación de modelos.

Desactive el historial de chat y el entrenamiento de modelos en su cuenta ChatGPT para proteger sus conversaciones ChatGPT.

Opte por no utilizar sus datos para el entrenamiento del modelo de OpenAI haciendo clic en los tres puntos en la parte inferior, navegando a Configuración > Controles de datos y desactivando “Historial de chat y entrenamiento”.

Incluso si opta por no participar, sus chats permanecen almacenados en los servidores de OpenAI durante 30 días, accesibles al personal para monitorear abusos.

3. Verifique las respuestas de ChatGPT antes de aceptarlas como hechos.

ChatGPT podría generar inadvertidamente información inexacta, lo que coloquialmente se denomina “alucinación”.

Si tiene la intención de confiar en las respuestas de ChatGPT para asuntos cruciales, fundamente su información con citas auténticas mediante una investigación exhaustiva.

4. Utilice ChatGPT exclusivamente a través de su web oficial y aplicaciones para iOS

Para evitar la divulgación de datos personales a estafadores o aplicaciones fraudulentas que se hacen pasar por ChatGPT, acceda a ellos únicamente a través de https://chat.openai.com o descargue la aplicación oficial ChatGPT para iPhone y iPad.

Actualmente, no existe una aplicación ChatGPT para dispositivos Android. Cualquier aplicación en Play Store que pretenda ser ChatGPT no es auténtica.

5. Evite instalar extensiones de navegador y aplicaciones que no sean de su confianza.

Algunas extensiones y aplicaciones que prometen la funcionalidad ChatGPT pueden estar recopilando sus datos. Priorice la búsqueda de extensiones y aplicaciones antes de instalarlas en su computadora, teléfono o tableta.

Evite ingresar datos confidenciales para usar ChatGPT de forma segura

Proteger su privacidad es primordial al interactuar con ChatGPT. Para garantizar una experiencia segura para su organización, absténgase de ingresar información confidencial como datos personales, contraseñas o datos financieros.

ChatGPT no puede proteger ni almacenar dicha información, pero siempre es mejor pecar de precavido. Cíñete a temas generales y disfruta de largas discusiones sin…