En una charla que ya circula ampliamente en plataformas de streaming, la abogada y autora Liliana Molina Soljian encendió las alarmas sobre los riesgos crecientes del uso indiscriminado de inteligencia artificial (IA) y la falta de legislación adecuada en Argentina. En conversación con la periodista especializada Desirée Jaimovich, Molina advirtió: «Estamos frente a un punto sin retorno. La inteligencia artificial crece más rápido que nuestra capacidad para regularla.»
El debate sobre los marcos regulatorios para la IA no es nuevo, pero adquiere nueva urgencia en el país ante la proliferación de herramientas generativas como ChatGPT, deepfakes, y sistemas de vigilancia que impactan directamente en la vida cotidiana, la justicia, la privacidad y la educación.
Actualmente, en el Congreso argentino hay más de 20 proyectos de ley relacionados con inteligencia artificial, pero ninguno ha sido aprobado aún. Mientras tanto, la Unión Europea ha dado un paso decisivo al sancionar su Ley de IA en 2024, estableciendo categorías de riesgo (prohibida, alto, medio y bajo riesgo) y obligaciones diferenciadas según el nivel. Estados Unidos, por su parte, ha adoptado un enfoque fragmentado: algunos estados como Nueva York ya avanzaron con normas específicas como la RACE Act, que regula IAs con más de 100 millones de dólares de inversión.
Frente a estos precedentes, Molina propuso una alternativa intermedia: implementar “sandbox regulatorios”, es decir, marcos experimentales aplicados por empresas bajo supervisión pero sin fuerza de ley, como una forma de ensayo antes de definir normativas permanentes.
Un llamado a la acción: estrategia, ética y educación digital
Para Molina, la ausencia de legislación no es el único problema: «Más allá de las leyes, Argentina necesita una estrategia nacional de inteligencia artificial», remarcó. Esto implica no solo legislar, sino también fomentar el talento humano, proteger a las startups tecnológicas, garantizar energía escalable, y planificar a corto, mediano y largo plazo en áreas como el agro, la biotecnología y la educación.
La especialista también pidió tomar como referencia los lineamientos éticos de organismos internacionales como UNESCO, OCDE y ONU, los cuales promueven que la IA sea “transparente, trazable, equitativa e inclusiva”. Argentina, de hecho, adhirió a estos principios mediante la resolución 2/2023, pero aún carece de una normativa vinculante.
Riesgos concretos: deepfakes, violencia digital y datos personales
Durante el streaming, Molina repasó varios riesgos jurídicos concretos de la IA en Argentina. Entre ellos:
Las deepfakes, ya utilizadas para dañar la reputación de personas, especialmente menores, mediante montajes pornográficos.
La viralización no consentida de contenido íntimo, que en Buenos Aires solo es considerada una contravención y no un delito.
El uso de IA generativa sin controles, que puede provocar “alucinaciones” (respuestas falsas) y ha generado escándalos incluso en tribunales de EE.UU., donde abogados han sido sancionados por presentar pruebas inexistentes generadas por IA.
La desprotección de datos personales, regulada por una ley obsoleta de 2000, pese a que se han presentado nuevos proyectos que aún no avanzan en el Congreso.
Molina remarcó: «El Estado no puede dejar la inteligencia artificial en manos de las empresas. Necesitamos un compromiso institucional y una cultura digital que comience desde la educación escolar».
¿Qué sigue?
El desafío para Argentina es doble: evitar convertirse en un laboratorio sin reglas donde se vulneren derechos fundamentales, y al mismo tiempo no sofocar la innovación con leyes rígidas. La clave, según la especialista, es el equilibrio: “Una legislación basada en la ética pero lo suficientemente flexible como para adaptarse al ritmo vertiginoso de la tecnología”.
En un mundo donde los algoritmos ya deciden sobre nuestra salud, nuestras finanzas y hasta la justicia, la pregunta deja de ser si regular o no, y pasa a ser cómo, cuándo y con qué enfoque.
Redacción: Diario Inclusión.