Lea este Access Alert en Inglés | Read this Access Alert in English
La Superintendencia de Industria y Comercio (SIC) anunció la apertura de una investigación preliminar para determinar el cumplimiento del chatbot de Inteligencia Artificial (IA) ChatGPT frente a la legislación para la protección de datos personales en Colombia.
La investigación surge luego de que en recientes semanas ChatGPT ganara popularidad mundial e inclusive fuera usada por algunos jueces de la República para la elaboración de sentencias judiciales, generando controversia y reviviendo algunos temores relacionados con el cumplimiento de la regulación en materia de protección de datos, o incluso, la determinación de la regulación aplicable para el uso de este tipo de tecnología.
En este contexto, la SIC resalta que su interés fundamental es determinar la manera en la que ChatGPT cumple con lo estipulado en la Ley de Protección de Datos Personales, específicamente en cuanto a la protección de los usuarios y de los datos personales que de éstos obtiene el famoso chatbot.
La regulación colombiana determina responsabilidades de protección para quienes realicen almacenamiento o tratamiento de estos datos, así como principios legales sobre los cuales se deben realizar todas las actividades vinculadas con la explotación, almacenamiento y transferencia de datos personales a terceros países, entre otros.
A pesar de lo anterior, no es el regulador colombiano el primero en tomar acciones frente al auge de ChatGPT. Recientemente, la autoridad de protección de datos italiana, Garante, bloqueó temporalmente las operaciones del chatbot en el país europeo por presuntas violaciones de privacidad, argumentando el incumplimiento por parte de la empresa del Reglamento General de Protección de Datos (GDPR) de la Unión Europea. Como consecuencia, OpenAI, empresa dueña y desarrolladora de ChatGPT, respondió a los cuestionamientos de la autoridad italiana y recientemente recibió el aval para seguir operando, tras cumplir con la regulación europea de protección de datos personales.
¿Qué efectos potenciales puede tener la investigación de la SIC?
A pesar de llevar relativamente poco tiempo en el mainstream tecnológico, ChatGPT goza de gran atención por parte de usuarios y reguladores alrededor del mundo. Con miras al futuro, algunos efectos potenciales que pueden surgir de este tipo de investigaciones incluyen obligar a los desarrolladores de estas tecnologías a cambiar sus modos de operación para cumplir con la regulación de cada país, particularmente la relacionada con la protección de menores de edad, la privacidad y protección de datos personales. Asimismo, tendrán que proveer mayor transparencia hacia los usuarios sobre acerca sobre el tipo de datos recolectados y con qué fines.
En términos de la investigación por parte de la SIC, es posible que el regulador determine las condiciones mínimas de información que la compañía de ChatGPT, Open AI, deba presentar a sus usuarios en territorio colombiano, así como requerimientos para establecer mecanismos de salvaguarda para el almacenamiento y transferencia de datos a terceros, incluso con terceros países.
Finalmente, situaciones como esta empiezan a evidenciar un interés por parte de las autoridades en cuanto al comportamiento y regulación (o falta de esta) frente a plataformas disruptivas de IA generativa. La cuestión sigue siendo si los países deciden que realmente es necesario ahondar en una regulación específica para este tipo de aplicaciones o si los marcos regulatorios actuales están lo suficientemente preparados para los efectos de un uso intensivo y masivo como el que propone ChatGPT. Asimismo, Colombia es el primer país latinoamericano en iniciar una investigación en contra de sistemas generativos de IA, potencialmente inspirando a otros países en la región a seguir este camino.
Access Partnership monitorea permanentemente los desarrollos de políticas públicas y regulación en Latinoamérica. Para más información o contra con nuestros servicios por favor contacte a: Geusseppe Gonzalez en [email protected] , Rodrigo Serrallonga en [email protected] .