La inminente regulación europea de la inteligencia artificial va a suponer nuevas obligaciones, la implantación de nuevos marcos de gobernanza y procedimientos internos para las organizaciones que presten servicios en la Unión Europea. En efecto, la Comisión Europea está avanzando en su objetivo de alcanzar un entorno de inteligencia artificial confiable y publicó una propuesta de reglamento el pasado mes de abril que aplicará, cuando entre en vigor, a todas aquellas organizaciones (públicas o privadas) que suministren o utilicen sistemas de inteligencia artificial entendidos en su sentido más amplio.
Utilizando una metodología similar a la del conocido Reglamento europeo General de Protección de Datos, las organizaciones deberán realizar y documentar autoevaluaciones que identifiquen la existencia (o inexistencia) de algoritmos o sistemas de inteligencia artificial. En el caso de que esas autoevaluaciones confirmen que, en efecto, se utilizan o suministran sistemas de inteligencia artificial, estos deberán clasificarse de acuerdo con su nivel de riesgo (sin riesgo, con riesgo mínimo, alto o con riesgo inaceptable y, por tanto, prohibidos) para, en base a ello, determinar qué requisitos y obligaciones aplican. Sobre esa base, deberán desarrollarse sistemas de cumplimiento que permitan evitar, por una parte, daños a las personas y a los derechos fundamentales y, por otra, la aplicación del severo régimen sancionador que se propone.
A continuación, en el siguiente documento, algunas preguntas y respuestas sobre el contenido de esta propuesta de reglamento.