El pasado 6 de julio, en el curso organizado por la Universidad Menéndez Pelayo junto con la Agencia Española de Protección de Datos, en Santander, sobre los Retos para la protección de datos en el momento actual, una de las ponencias ha sido sobre los últimos desarrollos de la protección de datos en el ámbito internacional y estado de situación en Inteligencia Artificial, impartida por D. Joaquín Pérez Catalán, Director de la División de Relaciones Internacionales de la AEPD.
Uno de los aspectos principales de la ponencia, fue el uso y riesgos de la inteligencia artificial, sobre la cual, ya existe una propuesta de Reglamento Europeo por el que se establecen normas armonizadas en materia de inteligencia artificial, así como por parte del Consejo de Europa, se está trabajando en una Propuesta de Convenio internacional sobre IA.
El objeto de esta normativa es regular la introducción en el mercado, puesta en servicio y utilización de la IA en la UE, recogiendo expresamente prácticas de inteligencia artificial prohibidas, como aquellas que puedan vulnerar derechos fundamentales, manipulen y se aprovechen de personas vulnerables y/o lleven a cabo calificación social, entre otras.
Brevemente, podemos decir que la inteligencia artificial se origina, entre otros, gracias a Santiago Ramón y Cajal, premio Nobel, por su estudio de la neurona. Cincuenta años después, en 1943, Walter Pitts y Warren McCulloch desarrollan el primer modelo matemático de red neuronal basado en lógica proposicional: “A logical calculus of the ideas immanent in nervous activity”.
La explosión actual de la IA se produce por la confluencia de capacidad de las redes, memoria, y, sobre todo, por la cantidad de datos y acceso a los mismos, de las que no se disponía anteriormente.
Actualmente, el mayor uso de IA se está ejemplarizando a través de la aplicación Chat GPT, pero su uso, antes de que se regule por la normativa específica en desarrollo, supone graves riesgos.
Chat GPT, ha destacado por sus respuestas contextualizadas, simulando una conversación, lo cual, facilita la aplicación de los resultados obtenidos porque sencillamente parecen aportados por una persona real. Sin embargo, para conseguir este resultado, la herramienta vectoriza las palabras, suprime las innecesarias, y las relaciona, por ejemplo: las palabras vaso y agua están muy relacionadas, pero vaso y jirafa no. De acuerdo a este patrón en el que analiza la probabilidad de relacionar palabras genera contextos. El problema surge, en primer lugar, porque tiene incorporado un sesgo algorítimico para que no se escoja la palabra más probable, para evitar ser predecible y no ser tan creativa, sorprendente o innovadora su respuesta. Pero esto a su vez genera el problema de que parte de lo que responde no es cierto, sencillamente, si no sabe la respuesta, se la inventa. Como prueba de ello, lo sucedido al abogado americano Steven Schwartz, con más de 30 años de ejercicio, que decidió usar Chat GPT en la fundamentación de sus alegaciones en la demanda contra una aerolínea. El resultado, al menos seis de los casos citados eran inventados y, como consecuencia de ello, el abogado fue inhabilitado un tiempo.
Por lo que, debemos de tener claro que, es necesaria una legislación que regule el uso de la IA, puesto que, de no ser así, nos encontramos expuestos a los riesgos provocados por su uso y, todo ello seguirá sucediendo mientras no exista transparencia en cuanto a los criterios y algoritmos de las aplicaciones, para poder garantizar que no son discriminatorios, sesgados o inventados. Y, sobre todo, poder limitar su uso o que muestre resultados que atenten contra derechos fundamentales, seguridad colectiva, etc…
La regulación no se opone a la innovación o al avance, se opone a que se haga sin las garantías necesarias para toda la sociedad.
Para más información contacte con nosotros, le informamos sin compromiso en el teléfono 988 609 224 y en de******@ar***********.com
Síganos en Facebook y vea nuestro blog de protección de datos, para mantenerse informado de todas las novedades.