Toronto (Canadá) – Los reguladores de privacidad de Canadá dijeron este
miércoles que OpenAI incumplió las leyes canadienses de protección de datos
personales en el desarrollo y despliegue de ChatGPT, al recopilar información
personal de individuos como condiciones médicas, ideología y datos sobre
menores.
Estas
conclusiones están recogidas en un informe presentado hoy por el comisionado de
Privacidad de Canadá, Philippe Dufresne, junto con sus homólogos de las provincias
de Quebec, Columbia Británica y Alberta.
Los
reguladores de privacidad canadienses examinaron en una investigación la
recolección, uso y divulgación de información personal por parte de OpenAI para
entrenar y operar ChatGPT, y concluyeron que el entrenamiento inicial del
chatbot no cumplió las normas federales y provinciales de privacidad.
Entre estos
motivos citaron la recopilación excesiva de datos personales, la falta de
consentimiento válido, la insuficiente transparencia, respuestas con información
personal inexacta o fabricada, problemas para que los individuos pudieran
acceder, corregir o borrar sus datos y la falta de responsabilidad sobre la
información bajo control de la empresa.
Según el
informe, OpenAI recopiló grandes cantidades de información personal a través de
fuentes públicas, redes sociales, foros y otros sitios de internet.
Dufresne
afirmó en un comunicado que OpenAI lanzó ChatGPT “sin haber abordado
plenamente” los riesgos conocidos de privacidad.
«Esto
expuso a los canadienses a posibles daños como filtraciones de datos y
discriminación sobre la base de la información sobre ellos», añadió.
Dufresne
también dijo que tras la investigación, OpenAI mejoró las protecciones de
privacidad y ha aceptado asumir más medidas para atender las preocupaciones de
la Oficina de Privacidad de Canadá.
Entre las
medidas citadas por los reguladores figuran herramientas para detectar y
enmascarar datos personales, como nombres o números de teléfono, en conjuntos
de datos usados para el entrenamiento, mejoras en los mecanismos de acceso y
corrección de información, políticas formales de retención y eliminación de
datos, así como nuevos avisos para informar a los usuarios de que sus
conversaciones pueden ser revisadas o utilizadas para entrenar modelos.
«Estas
medidas limitarán significativamente la información personal que es utilizada
para entrenar nuevos modelos de ChatGPT», explicó el comisionado canadiense.
OpenAI
deberá presentar informes trimestrales a los reguladores canadienses para
demostrar el cumplimiento de los compromisos asumidos.
Dufresne
afirmó que la investigación demuestra la necesidad de modernizar las leyes
canadienses de privacidad ante el avance de la inteligencia artificial, aunque
subrayó que las normas actuales ya se aplican a estas tecnologías. “Las
salvaguardas apropiadas son la piedra angular de la innovación responsable”,
declaró.
La
presentación del informe se produce poco después de que el consejero delegado
de OpenAI, Sam Altman, pidiese disculpas a la localidad canadiense de Tumbler
Ridge por no haber alertado a las autoridades sobre una de sus usuarias, que
posteriormente mató a ocho personas en la comunidad.
En una
carta dirigida a la comunidad, Altman expresó en abril sus “más profundas condolencias”
a las familias de las víctimas y reconoció que la empresa no informó a las
fuerzas del orden cuando detectó actividad alarmante en la cuenta de la autora
del tiroteo.
El tiroteo
se produjo el pasado 10 de febrero, cuando una joven de 18 años que sufría
trastornos mentales mató a cinco niños, una profesora y dos familiares antes de
suicidarse.
Tras
revelarse que OpenAI había detectado interacciones preocupantes a través de las
conversaciones de la autora con ChatGPT, pero que decidió no comunicar esa
información a la Policía, las autoridades canadienses criticaron a la compañía
estadounidense y pidieron explicaciones sobre lo ocurrido.
A finales
de abril, varias familias de la matanza de Tumbler Ridge presentaron una
demanda en San Francisco (EE. UU.) contra OpenAI, en la que reclaman a la
compañía una indemnización de hasta 1.000 millones de dólares. EFE