Riesgos del uso de la IA en nuestras profesiones

El Tribunal Constitucional en su nota informativa nº 90/2024, de 19 de septiembre, comunica la decisión de la Sala Primera, por unanimidad de sus seis magistrados, por la que se impone al abogado firmante de una demanda de amparo la sanción de apercibimiento, al haber presentado en varios apartados de dicha demanda la cita supuestamente literal de pasajes de 19 sentencias del propio Tribunal Constitucional, cuando resulta que ninguna de ellas era real.

Es importante destacar que, aunque no se mencione directamente, es evidente que este hecho, está muy relacionado con el auge del uso de herramientas de Inteligencia Artificial, como Chat GPT o Copilot, que permiten obtener, de una forma muy rápida, una recopilación sintetizada de mucha información y presentarla a través de una respuesta contextualizada con la consulta realizada, simulando ser aportada por una persona real. Este uso, se ha extendido especialmente en sectores y profesiones que requieren de redacción de escritos, análisis y estudio de gran cantidad de documentación, con el riesgo de rigor y exactitud que esto supone, puesto que, estas herramientas, para conseguir el resultado, vectorizan las palabras, suprimen las innecesarias, y analizan la relación entre las palabras para generar un contexto.

El problema surge, en primer lugar, porque tiene incorporado un sesgo algorítimico para que no se escoja la palabra más probable, y así evitar que la respuesta sea predecible, no tan creativa, sorprendente o innovadora, como se busca. Pero esto a su vez genera el problema de que parte de lo que responde no es cierto, sencillamente, si no sabe la respuesta, se la inventa. Como prueba de ello, la sanción del tribunal Constitucional antes mencionada por inventarse las sentencias citadas.

Para evitar estos riesgos y usos indebidos que pueden generar inseguridad jurídica, cada estado miembro de la UE, cuenta con una agencia que supervise el cumplimento del Reglamento que regula la Inteligencia Artificial (Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial), el cual, a pesar de ya estar en vigor desde el pasado 1 de agosto de 2024, aún no será aplicable hasta el 2 de agosto de 2026. En España, esta agencia es la Agencia Española de Supervisión de la Inteligencia Artificial, AESIA, la cual tiene cinco misiones principales.

La primera es actuar como think & do tank, anticipando tendencias, divulgando conocimiento y dinamizando el debate social sobre las posibilidades y límites de la IA. La segunda es el desarrollo de las funciones que le asigna el Reglamento europeo de IA, supervisando los sistemas de IA de alto riesgo, coordinando la supervisión con las autoridades de vigilancia del mercado, promoviendo estándares y buenas prácticas y evaluando los modelos de IA. La tercera es la coordinación en la aplicación del Reglamento con la Oficina Europea de IA y el resto de autoridades de supervisión nacionales de la Unión Europea para garantizar su aplicación uniforme y su adaptación a los cambios tecnológicos y de mercado. La cuarta, es promover la innovación en IA tanto en el sector público como en el privado; en este sentido, uno de los cometidos principales de la institución será el desarrollo de entornos de prueba (sandboxes) sectoriales. Y la quinta, participar en el debate global sobre IA, para evitar la fragmentación regulatoria, y abogando por una IA confiable, responsable y humanista, en línea con la visión sobre esta tecnología plasmada en la Estrategia española de IA.

No es cuestión de ser alarmistas ni cerciorar el uso de estas tecnologías, no nos debemos de oponer al avance de las mismas, usos, cambio de la forma de trabajar o prestar servicios, pero sí que debemos de velar porque este avance e innovación se hagan con las garantías necesarias.

Comparte este artículo en tus redes
Toll Free
1-885-245-45635
New York
1-455-245-45623
Toronto
1-657-544-45623