Blog

Actualidad

COMENTARIO A LA SENTENCIA DEL TRIBUNAL GENERAL DE LUXEMBURGO, DE 7 DE JULIO DE 2021, ASUNTO T-492/20, “OSO”

I.- ANTECEDENTES

La empresa china Zhejiang China-Best Import & Export Co. Ltd, es titular del dibujo comunitario nº 4422343-0012 , registrado desde el año 2017, para iluminación (en adelante, el “diseño controvertido”).

La firma de joyería española S.Tous, S.L. (en adelante, “Tous”), cuya imagen de un oso se ha convertido en el buque insignia de la firma, y el cual configura muchos de sus diseños  ( ), solicitó ante la Oficina de Propiedad Intelectual de la Unión Europea (en adelante, “EUIPO”), que se declarase la nulidad del diseño controvertido por carecer de carácter singular y, además, por incluir el diseño una marca renombrada que confiera al titular del mismoen la Unión Europea prohibir a terceros su uso.

Tanto la División de Anulación como la Tercera Sala de Recurso de la EUIPO, desestimaron la pretensión denulidad, al considerar que el dibujo comunitario controvertido tenía carácter singular y no se daba el supuesto para queexistiese riesgo de confusión con los derechos invocados por Tous.

Así, la firma de joyería, considerando que la EUIPO no había satisfecho sus pretensiones, y teniendo firmeza de su razón, presentó recurso ante el Tribunal General.

II.- ANÁLISIS DEL TRIBUNAL GENERAL 

El recurso se plantea por la infracción de dos preceptos del Reglamento de diseño comunitario. Por un lado, infracción del artículo 25.1.b, en relación con los artículos 6 y 7, es decir, por carecer el diseño de carácter singular1 y, por otro lado, por infracción del artículo 25.1.e, en relación con el artículo

9.2.c del Reglamento de marcas de la Unión Europea, por incluir el diseño una marca renombrada que confiera al titular del mismo en la Unión Europea prohibir a terceros su uso2.

Primer motivo: ausencia de carácter singular

Con carácter previo, antes de valorar lo que dice el Tribunal sobre el este primer motivo, es menester definir qué se entiende por carácter singular. El artículo 6 del Reglamento de diseño comunitario establece que un diseño posee carácter singular cuando la impresión general producida en los usuarios informados difiera de la impresión general producida por cualquier otro diseño que haya sido hecho público: antes de que se haya hecho público por primera vez cuando estamos ante diseños o dibujos no registrados; o, si están registrados, antes del día de su solicitud o prioridad. Además, es muy importante tener en cuenta el grado de libertad del autor al realizar el diseño.

Una vez establecido qué es el carácter singular, veamos lo que se alega por las partes. Tous, considera que existen múltiples coincidencias entre los osos en cuestión, las diferencias existentes (la estilización de las patas, la dimensión de las orejas) son detalles insignificantes si se compara con los elementos comunes que hay entre los diseños, produciendo una misma impresión general; además, considera que, aunque a pesar de la amplia libertad de creación de losdiseñadores en cualquier campo artístico y de todas las posibles formas a disposición del titular del dibujo o modelo controvertido para representar en su lámpara la figura de un osito, dicho titular ha escogido

1 Artículo 25.1.b) del Reglamento nº 6/2002, del Consejo, de 12 de diciembre de 2001 sobre los dibujos y modelos comunitarios.

El dibujo o modelo comunitario sólo podrá declararse nulo en los siguientes casos: b) si no cumple los requisitos previstos en los artículos 4 a 9. 

2 Artículo 25.1.e) del Reglamento nº 6/2002, del Consejo, de 12 de diciembre de 2001 sobre los dibujos y modelos comunitarios.

El dibujo o modelo comunitario sólo podrá declararse nulo en los siguientes casos: e) si se utiliza un signo distintivo en un dibujo o modelo posterior, y el Derecho comunitario o la legislación del Estado miembro de que se trate por la que se rige dicho signo confiere al titular del signo el derecho a prohibir tal uso.

Dicho artículo se relaciona con el artículo 9.2.c) del Reglamento 2017/1001, del Parlamento Europeo y del Consejo, de 14 de junio de 2017, sobre la marca de la Unión Europea:

Sin perjuicio de los derechos de los titulares adquiridos antes de la fecha de presentación de la solicitud o la fecha de prioridad de la marca de la Unión, el titular de esta estará facultado para prohibir a cualquier tercero, sin su consentimiento, el uso en el tráfico económico decualquier signo en relación con productos o servicios cuando: […] el signo sea idéntico o similar a la marca de la Unión, independientemente de si se utiliza en relación con productos o servicios que sean idénticos o sean o no similares a aquellos para los que la marca de la Unión esté registrada, si esta goza de renombre en la Unión y si con el uso sin justa causa del signo se obtiene una ventaja desleal del carácter distintivo o del renombre de la marca de la Unión o es perjudicial para dicho carácter distintivo o dicho renombre.

representar la forma de un osito en todo punto similar al representado en los registros anteriores de la recurrente para Tous solo existen diferencias en detalles secundarios o irrelevantes. Dichas alegaciones son rebatidas por la EUIPO, que considera que la decisión recurrida es conforme a derecho.

El Tribunal comienza a resolver el primer motivo realizando una apreciación en cuanto al carácter singular, el examen de éste se debe realizar desde la perspectiva de un usuario informado, la impresión general que se produzca debe ser lo suficientemente clara y marcada como para que dicho usuario no considere que el diseño es similar. Es por ello que para alcanzar una conclusión tiene que valorarse si desde el punto de vista del usuario informado y habida cuenta del grado de libertad del que puede disfrutar el autor del diseño, la impresión general que produce el diseño controvertido difiere con las marcas anteriores de Tous.

En cuanto al grado de libertad del autor, cuanto mayor es el grado de libertad menor es la posibilidad de que las diferencias secundarias causen una impresión general distinta y viceversa. La decisión recurrida no yerra al aseverar que en los aparatos de alumbrado el grado de libertad del autor es elevado respecto a las partes individuales de la lámpara, pero limitado o medio respecto de la lámpara en general ya que todas las lámparas tienen una base y un dispositivo de iluminación.

No obstante, dicha impresión general es harto importante analizarla desde la perspectiva de un usuario informado. Pero, ¿quién es el usuario informado? Es la persona que utiliza un producto (usuario) y conoce los diferentes dibujos o modelos en el sector que se trate (informado), es decir, este usuario informado no puede ser el autor o diseñador deldibujo. En este caso, para el Tribunal, también concluye acertadamente la Sala de Recursos al indicar que el usuario informado es una persona que conoce bien la categoría de productos en la que puede utilizarse el diseño controvertido. Así dicho usuario conoce las lámparas disponibles en el mercado, a través de publicidad, catálogos, asistencia a tiendas y ferias.

El último elemento, no por ello el menos importante, es la impresión general que se produce en dicho usuario informado. Nos encontramos ante una lámpara con forma de oso de peluche -diseño controvertido-, con muchas luces y espejos; por su lado, los derechos de Tous consisten en un oso de peluche con un rostro indicado por tres puntos. Para la Sala de Recursos, aunque existen similitudes en el contorno estilizado del oso, las diferencias son mayores, conclusión queasume acertada el Tribunal. El efecto de iluminación que existe en el diseño controvertido no se encuentra en las marcas anteriores; el contorno de los osos son distintos: en el diseño controvertido el oso está de pie, con unas patas más delgadas y orejas más grandes y hacia arriba, mientras que el oso de Tous está sentado, con unas patas más gruesas yorejas hacia abajo proyectadas desde los laterales de la cabeza es, en general, más voluminoso.

Así, a juicio del Tribunal, no existe ninguna infracción por parte de la Sala de Recursos de la EUIPO, cuyo análisis del carácter singular es sobradamente acertado. Por ello, se desestima el primer motivo.

 

Segundo motivo: incorporación de una marca renombrada en el diseño

Se alegó por parte de Tous que las marcas que consistían en el conocido oso, eran renombradas, para ello aportaron documentación que, en su opinión, acreditaba dicho renombre. Para que se pueda dar la prohibición de uso contenida en el artículo 9.2.c del Reglamento de marcas de la Unión y, por ende, haya infracción del 25.1.e del Reglamento de diseños, tienen que cumplirse tres requisitos acumulativos (la falta de uno da lugar a la no aplicación del artículo 9.2.c):

1º. Tiene que haber identidad o similitud del signo controvertido con la marca anterior;

2º. La marca anterior tiene que ser renombrada;

3º. El uso sin justa causa del signo controvertido conlleva la obtención de una ventaja desleal o perjuicio del carácter distintivo o del renombre de la marca anterior.

Para la Sala de Recursos no se cumple el segundo requisito, esto es, que la marca anterior sea renombrada, las pruebas aportadas por Tous no acreditan el renombre de las marcas que consisten en el oso, ya que dichas pruebas (o la mayoría de ellas) se refieren a las marcas “TOUS”. En este sentido, no queda acreditado que el oso aislado de lacitada parte denominativa tenga renombre, por lo que no ha habido infracción por parte de la Sala de Recursos alresolver esta cuestión y, por ello, el Tribunal General desestima este segundo motivo.

Es interesante, además, que Tous trató de introducir en el procedimiento ante el Tribunal General nuevos documentos, siendo de sobra conocido que las partes que en el procedimiento traído ante el Tribunal General no se pueden presentar documentos o alegaciones que modifiquen el objeto del litigio planteado y, mucho menos, documentos que se traen porprimera vez ante dicho Tribunal, por lo que todos los documentos que presenta Tous ante el Tribunal General por primera vez los inadmite llanamente.

III.- CONCLUSIÓN A LA SENTENCIA

 La problemática en la comparativa de diseños comunitarios, normalmente, genera muchas controversias. En el caso resuelto por el Tribunal General, si bien es cierto que tanto el diseño controvertido, como las marcas figurativas de Tousconsisten en un oso, la impresión general no puede ser la misma puesto que las diferencias eclipsan las similitudes. En mi  opinión, el grosor del oso y la disposición dan lugar a considerar que no estamos ante una imagen similar.

Por otro lado, aunque Tous hubiese dejado acreditado el renombre de su oso como marca aislada del elemento denominativo, aun así, tampoco se podría haber dado infracción del artículo 25.1.e del Reglamento de diseño comunitario en relación con el artículo 9.2.c del Reglamento de marcas de la Unión Europea, puesto que, como he considerado anteriormente, la impresión general entre ambas figuras es distinta y, por ende, no se cumpliría con el primer requisito exigido en dicho precepto: identidad o similitud entre el signo controvertido y la marca anterior.

Actualidad

El Uso De Fotografías Y Videos De Terceros En Redes Sociales

Las redes sociales sirven como altavoz para que todo el mundo conozca parte de la vida que sus usuarios quien mostrar: restaurantes a los que acuden, espectáculos, viajes, vida diaria…, todo ello, además, ha dado lugar a un nuevo espectro de personajes públicos, los denominados influencers –personas que, a través de su perfil público en una red social, como puede ser Instagram ® o Tik Tok ® han destacado y obtenido gran éxito gracias a sus seguidores y suscriptores-.
No obstante, las redes sociales se han globalizado, siendo utilizadas por personajes públicos y público en general, haciendo todos mismo uso de ellas, esto es, subiendo fotografías o videos con su imagen, así como comentarios, que puedan ser accesibles para todos los usuarios o para un grupo privado de ellos. En cualquier caso, dichas imágenes están protegidas

¿Cómo está protegida mi imagen en las redes sociales?
Todas las personas tenemos derecho a que nuestra imagen esté protegida de injerencias de terceros, es un derecho fundamental que se consagra en el artículo 18 de la Constitución Española, y forma parte del elenco de derechos de la personalidad o personalísimos que tenemos las personas, sin que podamos renunciar a ellos (cosa distinta es que ante una vulneración no actuemos).
En este sentido, una fotografía o video con nuestra imagen subida por un tercero o “cogida” de nuestra red social sin nuestro consentimiento, podría ser considerado como una intromisión ilegítima a nuestro derecho de imagen; además, podría estar vulnerando los derechos de autor del fotógrafo (ya sea mera fotografía u obra fotográfica), si no se ha publicado libre de derechos.

¿Qué ocurre si he sido yo mismo el que ha subido la imagen a la red social?
El hecho de haber subido una imagen a tu perfil en una red social siendo accesible al público en general no da lugar a que terceros puedan utilizar dicha imagen. Sobre este extremo se ha debatido mucho, pero, nuestro Tribunal Supremo lo tiene claro y en cualquier situación -incluso cuando se trate de un personaje público- prima el derecho que una persona tiene a su propia imagen.

¿Bajo ningún concepto pueden utilizar mi imagen sin mi consentimiento?
El uso de la imagen sin consentimiento de un tercero no está exento de matizaciones, como bien se recoge en la Ley que regula el derecho de imagen, sí que se podrá utilizar esta cuando (i) se trate de personas con proyección pública y su imagen se capte en un acto público o lugar abierto al público; (ii) se trate de caricaturas de personas con proyección pública conforme a los usos sociales; o (iii), se haya captado la imagen de forma accesoria para una noticia.

¿Qué tipo de consentimiento tengo que dar para que un tercero pueda utilizar mi imagen?
El consentimiento para que no podamos alegar que hay intromisión ilegítima en la imagen, habrá de ser expreso e inequívoco. Si bien son dos términos muy imprecisos, veremos que es muy simple, se trata de tener conocimiento del fin para el que se va a emplear la imagen y el interesado pueda decidir si otorgar o no permiso para el uso de la misma.

¿Se otorga consentimiento por el hecho de subir una imagen a una red social?
Bajo ningún concepto el interesado está otorgando consentimiento alguno por el hecho de utilizar su propia imagen en su perfil en una red social, por lo que la publicación por terceros, como ya hemos explicado vulneraría sus derechos.
En cualquier caso, aunque se haya otorgado el consentimiento, éste se puede revocar en cualquier momento.

Actualidad

Ganancias deportivas. ¿Oportunidad de negocio o fraude de inversores?

Ganancias Deportivas S.A. es una empresa, registrada en Costa Rica, creada, supuestamente, para invertir el dinero depositado por los clientes en distintas apuestas deportivas, mayoritariamente en competiciones europeas, y a través de estas obtener beneficios para repartir entre sus inversores.

El principal atractivo de la entidad Ganancias Deportivas es que se garantiza unas ganancias de un 20% mensual, es decir, un 240% anual, pudiendo incrementar el porcentaje si los usuarios eran capaces de captar nuevos clientes que hicieran aportaciones patrimoniales a la entidad.

La garantía de los beneficios reside en que supuestamente utilizan inteligencia artificial para realizar las apuestas, lo que asegura el éxito de las mismas a fin de satisfacer las retribuciones a todos sus inversores.

Pues bien, veamos si Ganancias Deportivas reúne las características propias de una estafa piramidal, de cara a concluir que estamos ante un fraude de inversores:

1.- La estafa piramidal tiene la característica principal de no estar soportado por ninguna actividad real y si la hay es insuficiente para generar los beneficios que corresponderían a cada uno de los inversores.

Echando un vistazo a diversos foros, podemos encontrarnos a inversores que hablan de las bondades de Ganancias deportivas y otros que se muestran como inversores afectados por la misma, que no puede recuperar su inversión y que no obtienen los beneficios prometidos.

Esta situación es muy normal en una estafa piramidal puesto que para la eficacia del engaño resulta fundamental que los primeros inversores cobren, a fin de que puedan acreditar respecto de los ulteriores inversores que el sistema funciona y que las ganancias son reales, cuando sin embargo las supuestas ganancias no son más que las nuevas inversiones de aquellos.

2.- Ofrecen unas rentabilidades garantizadas y muy elevadas, que están fuera de los niveles que ofrece el mercado.

Ganancias Deportivas ofrece una rentabilidad de las aportaciones de sus inversores de un 20% mensual, lo que supone un tipo muy elevado respecto de cualquier oferta de inversión convencional, lo cual, no es posible garantizar con la supuesta actividad que se realiza, puesto que las apuestas tienen un carácter aleatorio que imposibilita desarrollar un plan de negocio del que puedan derivar unos beneficios estimados.

3.- Suelen ofrecer beneficios o comisiones en forma de dinero mediante bonus o premios a aquellos que captan a inversores adicionales.

En este sentido, Ganancias Deportivas establece un aumento del porcentaje de ganancias a medida que el inversor consiga que nuevos clientes se unan. De esta forma, se consigue mantener las entradas de capital que serán las que posteriormente se utilicen para pagar a los primeros inversores.

4.- Toda la información y gestión del negocio está monopolizada por sus propietarios, sin que exista auditoria de cuentas.

En este sentido, resulta especialmente preocupante que la página web de la empresa no tenga ningún apartado en el que se informe de la regulación de la plataforma, obedeciendo al prototipo de páginas web que de ordinario utilizan los chiringuitos financieros.

5.- Situación geográfica de la sociedad de inversión.

Ganancias Deportivas, a pesar de tener vocación de captar inversores en todo el mundo, especialmente en España y Argentina, ha decidido registrarse en Costa Rica, que tiene un marco regulatorio muy pobre y no tiene suscritos convenios de cooperación jurídica internacional eficaces para luchar contra este tipo de fraudes.

6.– Falta de transparencia: no se publican las operaciones realizadas ni el destino de las ganancias.

Este requisito también concurre en Ganancias Deportivas, la compañía no publica las supuestas apuestas que se realizan ni el resultado de las mismas.

7.- Advertencias de organismos reguladores.

En este sentido debemos señalar, por resultar muy importante, que la CNMV recoge una advertencia realizada por el regulador de inversiones italiano en la que ha señalado que Ganancias Deportivas es una entidad no regulada en Italia, a fin de evitar que los inversores inviertan en la misma.

Por todo ello, existen claros indicios de que la actividad realizada por Ganancias Deportivas es la propia de una estafa piramidal, lo que supondría un fraude para sus inversores, que en su mayoría van a perder todo el capital invertido.

Actualidad

LEY DE INTELIGENCIA ARTIFICIAL. PROPUESTA DE REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO POR EL QUE SE ESTABLECEN NORMAS ARMONIZADAS SOBRE LA INTELIGENCIA ARTIFICIAL (21 04 2021). Primera Parte

Propuesta de Reglamento de la UE sobre Inteligencia Artificial.

 

  1. Exposición de Motivos

1.1.- Motivos y Objetivos de la Ley de Inteligencia Artificial.

Con fecha 21 de abril de 2021, el Parlamento Europeo y el Consejo Europeo publican la esperada propuesta de Reglamento/Ley de Inteligencia Artificial. En la misma, se expresan, a través de la correspondiente exposición de motivos, los motivos y objetivos del denominado Reglamento.

La inteligencia artificial (“IA”) es una familia de tecnologías en rápida evolución que puede aportar una amplia gama de beneficios económicos y sociales en todo el espectro de industrias y actividades sociales. Al mejorar la predicción, optimizar las operaciones y la asignación de recursos y personalizar la prestación de servicios, el uso de la inteligencia artificial puede respaldar resultados beneficiosos desde el punto de vista social y medioambiental y proporcionar ventajas competitivas clave a las empresas y a la economía europea.

La IA es especialmente necesarias en sectores de gran impacto, como el cambio climático, el medio ambiente y la salud, el sector público, las finanzas, la movilidad y la agricultura.

Sin embargo, la IA también pueden acarrear nuevos riesgos o consecuencias negativas para las personas o la sociedad.

Es interés de la Unión Europea preservar el liderazgo tecnológico de la UE y garantizar que los europeos puedan beneficiarse de las nuevas tecnologías desarrolladas y que funcionan de acuerdo con los valores, derechos fundamentales y principios de la Unión.

La propuesta pretende llevar a la práctica el objetivo de desarrollar un ecosistema de confianza proponiendo un marco jurídico para la IA digna de confianza.

La propuesta se basa en los valores y derechos fundamentales de la UE y pretende dar a las personas y a otros usuarios la confianza necesaria para adoptar soluciones basadas en la IA, al tiempo que anima a las empresas a desarrollarlas.

La IA debe ser una herramienta para las personas y ser una fuerza para el bien en la sociedad con el objetivo final de aumentar el bienestar humano. Por lo tanto, las normas relativas a la IA disponible en el mercado de la Unión o que afecten a las personas en la Unión deben centrarse en el ser humano, para que la gente pueda confiar en que la tecnología se utiliza de forma segura y conforme a la ley, incluido el respeto de los derechos fundamentales.

Su objetivo estriba en que la Unión Europea sea un líder mundial en el desarrollo de sistemas de inteligencia artificial seguros, fiables y éticos.

Junto a los citados objetivos, la propuesta de reglamento sobre la inteligencia artificial tiene los siguientes objetivos específicos:

  • garantizar que los sistemas de IA comercializados y utilizados en la Unión Europea sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión Europea;
  • garantizar la seguridad jurídica para facilitar la inversión y la innovación en IA;
  • mejorar la gobernanza y la aplicación efectiva de la legislación vigente en materia de derechos fundamentales y requisitos de seguridad aplicables a los sistemas de IA;
  • facilitar el desarrollo de un mercado único de aplicaciones de IA legales, seguras y fiables y evitar la fragmentación del mercado.

Para lograr esos objetivos, esta propuesta se limita a los requisitos mínimos necesarios para abordar los riesgos y problemas vinculados a la IA, sin limitar ni obstaculizar indebidamente el desarrollo tecnológico ni aumentar de otro modo desproporcionadamente el coste de la comercialización de soluciones de IA.

La propuesta establece un marco jurídico sólido y flexible.

La propuesta establece normas armonizadas para el desarrollo, la comercialización y el uso de los sistemas de IA en la Unión Europea siguiendo un enfoque proporcionado basado en el riesgo. Propone una única definición de IA a prueba de futuro. Se prohíben determinadas prácticas de IA especialmente perjudiciales por ser contrarias a los valores de la Unión Europea, mientras que se proponen restricciones y salvaguardias específicas en relación con determinados usos de los sistemas de identificación biométrica a distancia con fines policiales.

La propuesta establece una sólida metodología de riesgo para definir los sistemas de IA de «alto riesgo» que plantean riesgos significativos para la salud y la seguridad o los derechos fundamentales de las personas. Esos sistemas de IA tendrán que cumplir una serie de requisitos horizontales obligatorios para una IA fiable y seguir procedimientos de evaluación de la conformidad antes de que esos sistemas puedan comercializarse en la Unión.

También se imponen obligaciones predecibles, proporcionadas y claras a los proveedores y usuarios de esos sistemas para garantizar la seguridad y el respeto de la legislación vigente que protege los derechos fundamentales durante todo el ciclo de vida de los sistemas de IA. Para algunos sistemas específicos de IA, solo se proponen obligaciones mínimas de transparencia, en particular cuando se utilizan chatbots o «deep fakes«.

También se proponen medidas adicionales de apoyo a la innovación, en particular a través de los «Sandbox» reglamentarios de la IA y otras medidas para reducir la carga reglamentaria y apoyar a las pequeñas y medianas empresas («PYME«) y a las empresas de nueva creación.

La propuesta pretende garantizar la coherencia con la Carta de los Derechos Fundamentales de la UE y el Derecho derivado de la Unión vigente en materia de protección de datos, protección de los consumidores, no discriminación e igualdad de género.

Además, la propuesta complementa el Derecho de la Unión vigente en materia de no discriminación con requisitos específicos que tienen por objeto minimizar el riesgo de discriminación algorítmica, en particular en relación con el diseño y la calidad de los conjuntos de datos utilizados para el desarrollo de los sistemas de IA complementados con obligaciones en materia de pruebas, gestión de riesgos, documentación y supervisión humana a lo largo del ciclo de vida de los sistemas de IA.

La propuesta se entiende sin perjuicio de la aplicación del Derecho de la competencia de la Unión.

Por lo que respecta a los sistemas de IA de alto riesgo que son componentes de seguridad de los productos, la propuesta se integrará en la legislación sectorial de seguridad existente para garantizar la coherencia, evitar duplicaciones y minimizar las cargas adicionales.

Por lo que respecta a los sistemas de IA proporcionados o utilizados por las entidades de crédito reguladas, las autoridades responsables de la supervisión de la legislación de servicios financieros de la Unión Europea deben ser designadas como autoridades competentes para la supervisión de los requisitos de la propuesta, a fin de garantizar una aplicación coherente de las obligaciones derivadas de la misma y de la legislación de servicios financieros de la Unión Europea cuando los sistemas de IA estén regulados en cierta medida de forma implícita en relación con el sistema de gobernanza interna de las entidades de crédito.

La propuesta también es coherente con la legislación de la Unión Europea aplicable a los servicios, incluidos los servicios de intermediación regulados por la Directiva sobre comercio electrónico 2000/31/CE15 y la reciente propuesta de la Comisión sobre la Ley de Servicios Digitales (DSA).

En relación con los sistemas de IA que son componentes de sistemas informáticos de gran magnitud en el Espacio de Libertad, Seguridad y Justicia gestionados por la Agencia de la Unión Europea para la Gestión Operativa de Sistemas Informáticos de Gran Magnitud (eu-LISA), la propuesta no se aplicará a aquellos sistemas de IA que hayan sido comercializados o puestos en servicio antes de que haya transcurrido un año desde la fecha de aplicación del Reglamento, a menos que la sustitución o modificación de dichos actos jurídicos suponga un cambio significativo en el diseño o la finalidad prevista del sistema o sistemas de IA en cuestión.

1.2.- Propuesta de Ley de Inteligencia Artificial. Detalle General de su Contenido.

1.2.1. Título I. Ámbito de Aplicación y Definiciones.

El Título I define el objeto de la Ley de Inteligencia Artificial y el ámbito de aplicación de dicha norma en cuanto a su comercialización, puesta en servicio y uso de los sistemas de IA.

Igualmente, en dicho Título se establecen las definiciones de los términos utilizados en todo el instrumento.

La definición de sistema de IA en el marco jurídico pretende ser lo más neutra posible desde el punto de vista tecnológico y estar preparada para el futuro, teniendo en cuenta la rápida evolución tecnológica y del mercado relacionado con la IA.

También se definen claramente los principales participantes en la cadena de valor de la IA, como los proveedores y los usuarios de los sistemas de IA, que abarcan tanto a los operadores públicos como a los privados, para garantizar la igualdad de condiciones.

1.2.2. Título II. Prohibiciones.

El Título II establece una lista de IA prohibida. Se sigue un enfoque basado en el riesgo, diferenciando entre los usos de la IA que crean (i) un riesgo inaceptable, (ii) un riesgo alto, y (iii) un riesgo bajo o mínimo.

La lista de prácticas prohibidas en el Título II comprende todos aquellos sistemas de IA cuyo uso se considera inaceptable por contravenir los valores de la Unión Europea, por ejemplo, por violar derechos fundamentales.

Las prohibiciones abarcan las prácticas que tienen un potencial significativo para manipular a las personas mediante técnicas subliminales más allá de su conciencia o explotar las vulnerabilidades de grupos vulnerables específicos, como los niños o las personas con discapacidad, con el fin de distorsionar materialmente su comportamiento de manera que pueda causarles a ellos o a otra persona un daño psicológico o físico.

Otras prácticas de manipulación o explotación que afectan a los adultos y que podrían ser facilitadas por los sistemas de IA podrían estar cubiertas por la legislación existente sobre protección de datos, protección de los consumidores y servicios digitales, que garantizan que las personas físicas estén debidamente informadas y tengan la libre elección de no ser sometidas a la elaboración de perfiles u otras prácticas que puedan afectar a su comportamiento.

Se propone prohibir la puntuación social basada en la IA para fines generales realizada por las autoridades públicas. Por último, también se recomienda prohibir el uso de sistemas de identificación biométrica a distancia «en tiempo real» en espacios de acceso público con fines policiales, a menos que se apliquen ciertas excepciones limitadas.

1.2.3. Título III. Sistemas de AI de Alto Riesgo.

El Título III contiene normas específicas para los sistemas de IA que crean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas.

Estos sistemas de IA de alto riesgo se autorizan en el mercado europeo siempre que se cumplan determinados requisitos obligatorios y se realice una evaluación de conformidad ex ante.

El capítulo 1 del Título III establece las normas de clasificación e identifica dos categorías principales de sistemas de IA de alto riesgo:

  • Los sistemas de IA destinados a ser utilizados como componente de seguridad de los productos que están sujetos a la evaluación de la conformidad ex-ante de terceros;
  • Otros sistemas autónomos de IA con implicaciones principalmente en los derechos fundamentales.

El capítulo 2 establece los requisitos legales para los sistemas de IA de alto riesgo en relación con los datos y la gobernanza de los mismos, la documentación y el mantenimiento de registros, la transparencia y el suministro de información a los usuarios, la supervisión humana, la solidez, la precisión y la seguridad.

El capítulo 3 establece un conjunto claro de obligaciones horizontales para los proveedores de sistemas de IA de alto riesgo. También se imponen obligaciones proporcionadas a los usuarios y a otros participantes en la cadena de valor de la IA (por ejemplo, importadores, distribuidores, representantes autorizados).

El capítulo 4 establece el marco para que los organismos notificados participen como terceros independientes en los procedimientos de evaluación de la conformidad, mientras que el capítulo 5 explica detalladamente los procedimientos de evaluación de la conformidad que deben seguirse para cada tipo de sistema de IA de alto riesgo.

Los sistemas de IA destinados a ser utilizados como componentes de seguridad de productos regulados por la legislación del nuevo marco legislativo (por ejemplo, maquinaria, juguetes, productos sanitarios, etc.) estarán sujetos a los mismos mecanismos de cumplimiento y ejecución ex ante y ex post de los productos de los que son componentes. La diferencia clave es que los mecanismos ex-ante y ex-post garantizarán el cumplimiento no sólo de los requisitos establecidos por la legislación sectorial, sino también de los requisitos establecidos por la Ley de Inteligencia Artificial.

Por lo que respecta a los sistemas autónomos de IA de alto riesgo, se establecerá un nuevo sistema de cumplimiento y ejecución. Éste sigue el modelo de la legislación del nuevo marco legislativo, aplicado mediante controles internos por parte de los proveedores, con la excepción de los sistemas de identificación biométrica a distancia, que estarían sujetos a una evaluación de la conformidad por parte de terceros.

Una vez que el proveedor haya realizado la correspondiente evaluación de la conformidad, deberá registrar esos sistemas autónomos de IA de alto riesgo en una base de datos de la UE que será gestionada por la Comisión para aumentar la transparencia y el control públicos y reforzar la supervisión a posteriori por parte de las autoridades competentes. En cambio, por razones de coherencia con la legislación vigente en materia de seguridad de los productos, las evaluaciones de conformidad de los sistemas de IA que sean componentes de seguridad de los productos seguirán un sistema con procedimientos de evaluación de la conformidad de terceros ya establecidos en la legislación sectorial pertinente en materia de seguridad de los productos.

Serán necesarias nuevas reevaluaciones ex ante de la conformidad en caso de que se produzcan modificaciones sustanciales en los sistemas de IA (y, en particular, cambios que vayan más allá de lo predeterminado por el proveedor en su documentación técnica y comprobado en el momento de la evaluación ex ante de la conformidad).

1.2.4. Título IV. Transparencia.

El Título IV se refiere a determinados sistemas de IA para tener en cuenta los riesgos específicos de manipulación que plantean. Las obligaciones de transparencia se aplicarán a los sistemas que (i) interactúen con personas, (ii) se utilicen para detectar emociones o determinar la asociación con categorías (sociales) a partir de datos biométricos, o (iii) generen o manipulen contenidos («deep fakes»).

Cuando las personas interactúan con un sistema de IA o se reconocen sus emociones o características a través de medios automatizados, las personas deben ser informadas de esa circunstancia. Si se utiliza un sistema de IA para generar o manipular contenidos de imagen, audio o vídeo que se parezcan sensiblemente a los contenidos auténticos, debe existir la obligación de revelar que el contenido se genera por medios automatizados. Esto permitirá a las personas tomar decisiones informadas o dar un paso atrás en una situación determinada.

1.2.5. Título V. Apoyo a la Innovación.

El Título V contribuye al objetivo de crear un marco jurídico favorable a la innovación, preparado para el futuro y resistente a las perturbaciones. Para ello, anima a las autoridades nacionales competentes a crear «Sand Boxes» reguladores y establece un marco básico en términos de gobernanza, supervisión y responsabilidad. Los “Sand Boxes” establecen un entorno controlado para probar tecnologías innovadoras durante un tiempo limitado sobre la base de un plan de pruebas acordado con las autoridades competentes.

Se reduce la carga reglamentaria para las PYMEs y las empresas de nueva creación.

1.2.6. Títulos VI, VII y VII. Gobernanza.

El Título VI establece los sistemas de gobernanza a nivel de la Unión Europea y nacional. A nivel de la Unión, la propuesta establece un Consejo Europeo de Inteligencia Artificial (el «Consejo»), compuesto por representantes de los Estados Miembros y de la Comisión.

A nivel nacional, los Estados Miembros deberán designar una o varias autoridades nacionales competentes y, entre ellas, la autoridad nacional de control, con el fin de supervisar la aplicación y ejecución de la Ley de Inteligencia Artificial.

El Supervisor Europeo de Protección de Datos actuará como autoridad competente para la supervisión de las instituciones, agencias y organismos de la Unión cuando entren en el ámbito de aplicación la Ley de Inteligencia Artificial.

El Título VII pretende facilitar la labor de control de la Comisión y de las autoridades nacionales mediante la creación de una base de datos a escala de la UE para los sistemas autónomos de IA de alto riesgo con implicaciones principalmente en los derechos fundamentales.

El Título VIII establece las obligaciones de control e información para los proveedores de sistemas de IA en lo que respecta a la vigilancia y la información posterior a la comercialización y a la investigación de los incidentes relacionados con la IA y su mal funcionamiento. Las autoridades de vigilancia del mercado también controlarían el mercado e investigarían el cumplimiento de las obligaciones y requisitos para todos los sistemas de IA de alto riesgo ya comercializados.

1.2.5. Título IX. Códigos de Conducta.

El Título IX crea un marco para la creación de códigos de conducta, cuyo objetivo es animar a los proveedores de sistemas de IA que no sean de alto riesgo a aplicar voluntariamente los requisitos obligatorios para los sistemas de IA de alto riesgo. Los proveedores de sistemas de IA que no sean de alto riesgo podrán crear y aplicar los códigos de conducta ellos mismos. Estos códigos también pueden incluir compromisos voluntarios relacionados, por ejemplo, con la sostenibilidad medioambiental, la accesibilidad para las personas con discapacidad, la participación de las partes interesadas en el diseño y desarrollo de los sistemas de IA y la diversidad de los equipos de desarrollo.

1.2.7. Títulos X, XI y XII. Disposiciones Finales.

El Título X hace hincapié en la obligación de todas las partes de respetar la confidencialidad de la información y los datos y establece normas para el intercambio de la información obtenida durante la aplicación de la Ley de Inteligencia Artificial. El Título X también incluye medidas para garantizar la aplicación efectiva de la Ley mediante sanciones eficaces, proporcionadas y disuasorias en caso de infracción de las disposiciones de la misma.

El Título XI establece normas para el ejercicio de las competencias de delegación y ejecución. La propuesta faculta a la Comisión a adoptar, en su caso, actos de ejecución para garantizar la aplicación uniforme de la Ley de Inteligencia Artificial o actos delegados para actualizar o completar las listas previstas en los anexos de la Ley.

El Título XII contiene la obligación de la Comisión de evaluar periódicamente la necesidad de actualizar determinados anexos de la Ley de Inteligencia Artificial y de elaborar informes periódicos sobre la evaluación y la revisión de la misma. También establece disposiciones finales, entre las que se incluye un periodo transitorio diferenciado para la fecha inicial de aplicabilidad del reglamento con el fin de facilitar la aplicación sin problemas para todas las partes interesadas.

 

  1. Disposiciones Generales

2.1.- Objeto del Reglamento/Ley de Inteligencia Artificial.

La Ley tiene por objeto, entre otros, establecer:

  • normas armonizadas para la comercialización, la puesta en servicio y el uso de sistemas de inteligencia artificial en la Unión Europea;
  • prohibiciones de determinadas prácticas de inteligencia artificial;
  • requisitos específicos para los sistemas de IA de alto riesgo y obligaciones para los operadores de dichos sistemas;
  • normas de transparencia armonizadas para los sistemas de IA destinados a interactuar con personas físicas, los sistemas de reconocimiento de emociones y los sistemas de categorización biométrica, así como los sistemas de IA utilizados para generar o manipular contenidos de imagen, audio o vídeo;
  • normas de control y vigilancia del mercado.

2.2.- Ámbito de Aplicación del Reglamento.

El Reglamento de Inteligencia Artificial es aplicable a:

  • los proveedores que comercialicen o pongan en servicio sistemas de IA en la Unión Europea, con independencia de que dichos proveedores estén establecidos en la Unión o en un tercer país;
  • los usuarios de sistemas de IA ubicados en la Unión Europea;
  • los proveedores y usuarios de sistemas de IA que están situados en un tercer país, cuando el resultado producido por el sistema se utiliza en la Unión Europea.

El Reglamento no se aplicará a los sistemas de IA desarrollados o utilizados exclusivamente con fines militares.

El Reglamento no se aplicará a las autoridades públicas de un tercer país ni a las organizaciones internacionales que entren en el ámbito de aplicación del Reglamento, cuando dichas autoridades u organizaciones utilicen sistemas de IA en el marco de acuerdos internacionales de cooperación policial y judicial con la Unión Europea o con uno o varios Estados Miembros.

2.3.- Definiciones.

Se proponen las como definiciones los términos utilizados a lo largo del Reglamento, que se reseñan en el Anexo I del presente artículo.

 

  1. Prácticas de IA Prohibidas

El Reglamento establece las siguientes prohibiciones, quedando, por tanto, fuera del orden público:

  • la comercialización, puesta en servicio o uso de un sistema de IA que despliegue técnicas subliminales más allá de la conciencia de una persona para distorsionar materialmente el comportamiento de una persona de manera que cause o pueda causar a esa persona o a otra un daño físico o psicológico;
  • la comercialización, puesta en servicio o uso de un sistema de IA que explote cualquiera de las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental, con el fin de distorsionar materialmente el comportamiento de una persona perteneciente a ese grupo de manera que cause o pueda causar a esa persona o a otra un daño físico o psicológico;
  • la comercialización, puesta en servicio o utilización de sistemas de IA por parte de las autoridades públicas o en su nombre para la evaluación o clasificación de la fiabilidad de las personas físicas durante un determinado período de tiempo en función de su comportamiento social o de sus características personales o de personalidad conocidas o previstas, con la puntuación social que lleva a una de las dos cosas o a ambas;
  • el tratamiento perjudicial o desfavorable de determinadas personas físicas o grupos enteros de ellas en contextos sociales que no guardan relación con los contextos en los que se generaron o recogieron originalmente los datos;
  • un trato perjudicial o desfavorable a determinadas personas físicas o a grupos enteros de ellas, injustificado o desproporcionado a su comportamiento social o a su gravedad;
  • el uso de sistemas de identificación biométrica a distancia «en tiempo real» en espacios de acceso público con fines policiales, a menos y en la medida en que dicho uso sea estrictamente necesario para uno de los siguientes objetivos la búsqueda específica de posibles víctimas de delitos, incluidos los niños desaparecidos;

El uso de sistemas de identificación biométrica a distancia «en tiempo real» en espacios de acceso público con fines policiales tendrá en cuenta los siguientes elementos

  • la naturaleza de la situación que da lugar a la posible utilización, en particular la gravedad, la probabilidad y la magnitud del daño causado en ausencia de la utilización del sistema;
  • las consecuencias de la utilización del sistema para los derechos y libertades de todas las personas afectadas, en particular la gravedad, la probabilidad y la magnitud de dichas consecuencias.

Además, el uso de sistemas de identificación biométrica a distancia «en tiempo real» en espacios de acceso público con fines policiales, deberá cumplir con las garantías y condiciones necesarias y proporcionadas en relación con el uso, en particular en lo que respecta a las limitaciones temporales, geográficas y personales.

La utilización individual a efectos de aplicación de la ley de un sistema de identificación biométrica a distancia «en tiempo real» en espacios de acceso público estará sujeta a una autorización previa concedida por una autoridad judicial o por una autoridad administrativa independiente del Estado miembro en el que vaya a tener lugar la utilización, expedida previa solicitud motivada y de conformidad con las normas detalladas de la legislación nacional. No obstante, en una situación de urgencia debidamente justificada, la utilización del sistema podrá iniciarse sin autorización y ésta sólo podrá solicitarse durante o después de la utilización.

La autoridad judicial o administrativa competente sólo concederá la autorización cuando esté convencida, basándose en pruebas objetivas o indicios claros que se le presenten, de que la utilización del sistema de identificación biométrica a distancia «en tiempo real» en cuestión es necesaria y proporcionada.

  • la prevención de una amenaza específica, sustancial e inminente para la vida o la seguridad física de las personas físicas o de un ataque terrorista;
  • la detección, localización, identificación o enjuiciamiento de un autor o sospechoso de una infracción penal castigada en el Estado Miembro de que se trate con una pena privativa de libertad o una medida de seguridad privativa de libertad de una duración máxima de al menos tres años, según determine la legislación de dicho Estado miembro.

 

 

ANEXO I

DEFINICIONES

 

A efectos de lo establecido en el Reglamento de IA se habrán de tener en cuenta las siguientes definiciones:

  • «sistema de inteligencia artificial» (sistema de IA): software desarrollado con una o varias de las técnicas y enfoques enumerados en el anexo I del Reglamento, a definir, y que puede, para un conjunto determinado de objetivos definidos por el ser humano, generar resultados como contenidos, predicciones, recomendaciones o decisiones que influyen en los entornos con los que interactúan;
  • «proveedor«: una persona física o jurídica, autoridad pública, agencia u otro organismo que desarrolle un sistema de IA o que haga desarrollar un sistema de IA con el fin de comercializarlo o ponerlo en servicio bajo su propio nombre o marca, ya sea a cambio de una remuneración o de forma gratuita;
  • proveedor a pequeña escala«: proveedor que es una micro o pequeña empresa;
  • usuario«: cualquier persona física o jurídica, autoridad pública, organismo o cualquier otra entidad que utilice un sistema de IA bajo su autoridad, excepto cuando el sistema de IA se utilice en el curso de una actividad personal no profesional;
  • representante autorizado«: toda persona física o jurídica establecida en la Unión Europea que haya recibido un mandato escrito de un proveedor de un sistema de IA para, respectivamente, cumplir y ejecutar en su nombre las obligaciones y procedimientos establecidos por el Reglamento de IA;
  • «importador«: toda persona física o jurídica establecida en la Unión Europea que comercialice o ponga en servicio un sistema de IA que lleve el nombre o la marca de una persona física o jurídica establecida fuera de la Unión Europea;
  • Distribuidor«: cualquier persona física o jurídica de la cadena de suministro, distinta del proveedor o del importador, que pone a disposición un sistema de IA en el mercado de la Unión Europea sin afectar a sus propiedades;
  • operador«: el proveedor, el usuario, el representante autorizado, el importador y el distribuidor;
  • «comercialización«: la primera puesta a disposición de un sistema de IA en el mercado de la Unión Europea;
  • puesta en el mercado«: todo suministro de un sistema de IA para su distribución o uso en el mercado de la Unión Europea en el curso de una actividad comercial, ya sea a cambio de una remuneración o de forma gratuita;
  • puesta en servicio«: el suministro de un sistema de IA para su primera utilización directamente al usuario o para su propio uso en el mercado de la Unión Europea para su finalidad prevista;
  • Finalidad prevista«: el uso al que el proveedor destina un sistema de IA, incluidos el contexto y las condiciones específicas de uso, tal como se especifica en la información facilitada por el proveedor en las instrucciones de uso, los materiales de promoción o venta y las declaraciones, así como en la documentación técnica;
  • Uso indebido razonablemente previsible«: el uso de un sistema de IA de forma no conforme con su finalidad prevista, pero que puede resultar de un comportamiento humano razonablemente previsible o de la interacción con otros sistemas;
  • Componente de seguridad de un producto o sistema«: un componente de un producto o de un sistema que cumple una función de seguridad para dicho producto o sistema o cuyo fallo o mal funcionamiento pone en peligro la salud y la seguridad de las personas o los bienes;
  • instrucciones de uso«: la información proporcionada por el proveedor para informar al usuario, en particular, sobre la finalidad prevista y el uso adecuado de un sistema de IA, incluido el entorno geográfico, conductual o funcional específico en el que se prevé utilizar el sistema de IA de alto riesgo;
  • «Recuperación de un sistema de IA«: cualquier medida destinada a lograr el retorno para el proveedor de un sistema de IA puesto a disposición de los usuarios;
  • retirada de un sistema de IA«: cualquier medida destinada a impedir la distribución, exhibición y oferta de un sistema de IA;
  • Rendimiento de un sistema de IA«: la capacidad de un sistema de IA para lograr su objetivo;
  • Autoridad notificante«: la autoridad nacional responsable de establecer y aplicar los procedimientos necesarios para la evaluación, designación y notificación de los organismos de evaluación de la conformidad, así como de su seguimiento;
  • Evaluación de la conformidad«: el proceso de verificar si se han cumplido los requisitos establecidos en el capítulo 2 del título III del Reglamento en relación con un sistema de IA;
  • Organismo de evaluación de la conformidad«: un organismo que realiza actividades de evaluación de la conformidad de terceros, incluidos los ensayos, la certificación y la inspección;
  • Organismo notificado«: un organismo de evaluación de la conformidad designado con arreglo al presente Reglamento y a otra legislación pertinente de armonización de la Unión Europeo;
  • Modificación sustancial«: un cambio en el sistema de IA tras su comercialización o puesta en servicio que afecte a la conformidad del sistema de IA con los requisitos establecidos en el capítulo 2 del título III del presente Reglamento o que dé lugar a una modificación de la finalidad prevista para la que se ha evaluado el sistema de IA;
  • Marcado CE de conformidad» (marcado CE)”: un marcado por el que un proveedor indica que un sistema de IA es conforme a los requisitos establecidos en el título III, capítulo 2, del Reglamento;
  • Seguimiento posterior a la comercialización«: todas las actividades realizadas por los proveedores de sistemas de IA para recoger y revisar de forma proactiva la experiencia adquirida con el uso de los sistemas de IA que comercializan o ponen en servicio, con el fin de identificar cualquier necesidad de aplicar inmediatamente las acciones correctivas o preventivas necesarias;
  • «Autoridad de vigilancia del mercado«: la autoridad nacional que realiza las actividades y adopta las medidas;
  • «Norma armonizada«: una norma europea;
  • Especificaciones comunes«: un documento, distinto de una norma, que contiene soluciones técnicas que proporcionan un medio para cumplir determinados requisitos y obligaciones establecidos en el Reglamento;
  • Datos de entrenamiento«: datos utilizados para entrenar un sistema de IA mediante el ajuste de sus parámetros aprendibles, incluidos los pesos de una red neuronal;
  • «Datos de validación» los datos utilizados para proporcionar una evaluación del sistema de IA entrenado y para ajustar sus parámetros no aprendibles y su proceso de aprendizaje, entre otras cosas, con el fin de evitar el sobreajuste; mientras que el conjunto de datos de validación puede ser un conjunto de datos separado o parte del conjunto de datos de entrenamiento, ya sea como una división fija o variable;
  • Datos de prueba«: los datos utilizados para proporcionar una evaluación independiente del sistema de IA entrenado y validado con el fin de confirmar el rendimiento esperado de dicho sistema antes de su comercialización o puesta en servicio;
  • Datos de entrada«: los datos proporcionados a un sistema de IA o adquiridos directamente por éste, a partir de los cuales el sistema produce un resultado;
  • Datos biométricos«: los datos personales resultantes de un tratamiento técnico específico relativo a las características físicas, fisiológicas o de comportamiento de una persona física, que permiten o confirman la identificación única de dicha persona física, como las imágenes faciales o los datos dactiloscópicos;
  • “Sistema de reconocimiento de emociones«: un sistema de IA destinado a identificar o inferir emociones o intenciones de personas físicas a partir de sus datos biométricos;
  • Sistema de categorización biométrica«: un sistema de IA destinado a asignar a las personas físicas a categorías específicas, como el sexo, la edad, el color del pelo, el color de los ojos, los tatuajes, el origen étnico o la orientación sexual o política, sobre la base de sus datos biométricos;
  • Sistema de identificación biométrica a distancia«: un sistema de IA destinado a identificar personas físicas a distancia mediante la comparación de los datos biométricos de una persona con los datos biométricos contenidos en una base de datos de referencia, y sin que el usuario del sistema de IA sepa previamente si la persona estará presente y podrá ser identificada;
  • «Sistema de identificación biométrica a distancia en tiempo real» se entiende un sistema de identificación biométrica a distancia en el que la captación de datos biométricos, la comparación y la identificación se producen sin un retraso significativo. Esto comprende no sólo la identificación instantánea, sino también breves retrasos limitados para evitar la elusión.
  • Sistema de identificación biométrica a distancia «posterior«: sistema de identificación biométrica a distancia distinto de un sistema de identificación biométrica a distancia «en tiempo real»;
  • Espacio de acceso público«: cualquier lugar físico accesible al público, independientemente de que se apliquen determinadas condiciones de acceso;
  • «Autoridad policial» significa:
  • cualquier autoridad pública competente en materia de prevención, investigación, detección o enjuiciamiento de delitos o de ejecución de sanciones penales, incluida la salvaguardia y la prevención de amenazas a la seguridad pública; o
  • cualquier otro organismo o entidad al que el Derecho de los Estados Miembros haya encomendado el ejercicio de la autoridad pública y de los poderes públicos a efectos de la prevención, investigación, detección o persecución de delitos o de la ejecución de sanciones penales, incluidas la salvaguardia y la prevención de las amenazas a la seguridad pública;
  • Aplicación de la ley«: las actividades llevadas a cabo por las autoridades policiales y judiciales para la prevención, la investigación, la detección o el enjuiciamiento de delitos o la ejecución de sanciones penales, incluida la salvaguardia y la prevención de las amenazas a la seguridad pública;
  • Autoridad nacional de supervisión«: la autoridad a la que un Estado miembro asigna la responsabilidad de ejecutar y aplicar el presente Reglamento, de coordinar las actividades encomendadas a dicho Estado miembro, de actuar como punto de contacto único para la Comisión y de representar al Estado miembro en el Consejo Europeo de Inteligencia Artificial;
  • Autoridad nacional competente«: la autoridad nacional de supervisión, la autoridad de notificación y la autoridad de vigilancia del mercado;
  • Incidente grave«: cualquier incidente que directa o indirectamente conduzca, pueda haber conducido o pueda dar lugar a alguno de los siguientes hechos: (i) la muerte de una persona o un daño grave a la salud de una persona, a la propiedad o al medio ambiente, o (ii) una interrupción grave e irreversible de la gestión y el funcionamiento de las infraestructuras críticas.

 

Primera Parte

Seguna Parte

Tercera Parte

Cerrar Cookies

Éste sitio web usa cookies, si permanece aquí acepta su uso. Puede leer más sobre el uso de cookies en nuestra política de privacidad