La asociación que representa las pequeñas, medianas y grandes empresas tecnológicas del país destacó que esta moción va en la dirección de promover la innovación con esta tecnología de manera segura, y no de estancarla, como ha ocurrido con los anteriores iniciativas legales que se han presentado sobre esta materia.
Se inició en la Comisión de Futuro de la Cámara de Diputados la discusión del proyecto de ley del Gobierno que busca regular el uso y desarrollo de inteligencia artificial (IA) en Chile, y desde la Asociación de Tecnología (Chiletec) hicieron un llamado al Congreso para que la futura legislación de nuestro país se norme por principios, y no por tecnologías específicas.
Según explicó Carlos Parker, especialista en Inteligencia Artificial y Transformación Digital de Chiletec, “esta es una iniciativa que debió haber sido impulsada desde el gobierno desde el inicio. Existen al menos en dos otros esfuerzos previos en el Congreso por legislar la IA en nuestro país, algunos mejores que otros, y que por un lado muestran una cierta improvisación y falta de comunicación entre nuestras autoridades a la hora de legislar, pero por otro demuestran que exista conciencia sobre la importancia de este tema de manera transversal, lo cual es ciertamente rescatable”.
Parker agregó que “este proyecto hace bien basándose en el sistema de riesgos inspirado en la ley aprobada en la Unión Europea, que clasifica a las tecnologías de Inteligencia Artificial de acuerdo a su riesgo. Este es un sistema flexible que permite a la autoridad enfocarse en regular tecnologías que presentan un peligro mayor para la sociedad y no estancar la innovación de todas las formas de desarrollo con IA. Es bueno que el espíritu de esta ley vaya en la dirección de promover la innovación con esta tecnología de manera segura, y no de estancarse. Se ve que hay un entendimiento de que utilizar e integrar esta tecnología en nuestra industria es necesario para el futuro productivo del país”.
En relación a las dificultades que están asociadas a este proyecto de ley, el miembro de Chiletec afirmó que “el problema principal para este tipo de regulaciones va a ser siempre su implementación. El desarrollo de la capacidad regulatoria y técnica para hacer cumplir estas normas es crucial, lo cual puede requerir recursos significativos y coordinación entre varias entidades gubernamentales y privadas. Se va a tener que dar la pelea para que eventualmente la Agencia de Protección de Datos personales cuente con los recursos necesarios para fiscalizar de manera efectiva.”
“Regular ciertas tecnologías siempre va a ser problemático. Las tecnologías y las definiciones cambian constantemente. Lo que hoy llamamos Inteligencia Artificial, mañana puede tener otro nombre, otro funcionamiento, y otras tecnologías involucradas. Por lo que es difícil prever qué tan útil se va a mantener esta legislación a mediano y largo plazo. Es por esto, que siempre es mejor legislar frente a principios, y no tecnologías específicas”, añadió el especialista.
Frente a los desafíos que le implica al Ejecutivo la regulación de esta tecnología, el especialista de IA de Chiletec aseguró “la IA no va a plantear desafíos solamente desde el punto de vista criminal y penal, si no que tendrá consecuencias profundas en nuestra forma de vida desde distintos ámbitos. En el ámbito laboral va a presentar retos profundos en el re-skilling de profesionales para lograr utilizar esta tecnología de manera productiva, y atender a los miles que perderán sus trabajos con el avance de la automatización”.
En ese sentido, añadió que “en materia educacional, va a cambiar profundamente en la que los seres humanos aprendemos y nos relacionamos con la tecnología en nuestro aprendizaje, y además los que tengan acceso a esta tecnología tendrán enormes ventajas sobre los que no tengan. Y así suma y sigue. El gobierno va a tener que empezar a tomarse en serio los efectos sociales que esta tecnología tendrá en nuestro país, y empezar a establecer las herramientas y recursos necesarios para afrontarlo”.
Cuidados en la regulación del uso de la IA
De acuerdo a la visión de Alejandro Barros, director invitado de la asociación gremial, “la regulación enfrenta un importante desafío, ya que la IA como cualquier herramienta carece de intenciones y por lo tanto al momento de determinar responsabilidades el problema no está en la IA sino en sus usos. Se deben establecer estándares objetivos, y la IA debe ser considerada como un agente riesgoso sin intenciones. Por lo tanto, la responsabilidad final debe recaer en las personas y organizaciones que utilizan dicha tecnología”
Barros agregó que “la falta de intenciones de la IA significa que debe ser regulada a través de estándares objetivos para mitigar los riesgos para la sociedad. Algunos ejemplos de ello, por ejemplo, desde un punto de vista de las alucinaciones y el contenido difamatorio, deben ser reguladas responsabilizando a los diseñadores y usuarios por negligencia en el diseño y uso. En el caso del derecho de autor, las soluciones deben incluir licenciamiento de uso de propiedad intelectual, y filtros para evitar que genere contenido amparado por propiedad intelectual de un tercero. Por lo tanto, una regulación efectiva de la IA debe centrarse en la responsabilidad de las personas involucradas en su despliegue y uso, asegurando que los riesgos se gestionen a través de estándares legales objetivos”.
Deja un comentario