📡La Ley europea de I.A. y los ciudadanos📹

Biometric Hardware Firms Display Security Solutions
La Ley europea de IA se queda corta en la protección de los derechos fundamentales, advierten grupos de la sociedad civil

LLa sociedad civil ha estado estudiando minuciosamente los detalles de la propuesta de la Comisión Europea de un marco basado en el riesgo para regular las aplicaciones de inteligencia artificial que fue propuesta por el ejecutivo de la UE en abril.

El veredicto de más de cien organizaciones de la sociedad civil es que el proyecto de ley está muy lejos de proteger los derechos fundamentales de los daños provocados por la IA, como la discriminación a gran escala y el sesgo de caja negra, y han publicado un llamamiento para que se realicen revisiones importantes.
declaracion “Reconocemos específicamente que los sistemas de IA exacerban los desequilibrios estructurales de poder, y los daños a menudo recaen sobre los más marginados de la sociedad. Como tal, esta declaración colectiva es el llamamiento de 11[5] organizaciones de la sociedad civil hacia una Ley de Inteligencia Artificial que ponga en primer plano los derechos fundamentales”, escriben, y luego identifican nueve “objetivos” (cada uno con una variedad de revisiones sugeridas) en la declaración completa de recomendaciones.

espiaLa Comisión, que redactó la legislación, presentó el reglamento de IA como un marco para la inteligencia artificial «confiable» y «centrada en el ser humano«. Sin embargo, corre el riesgo de acercarse bastante a un marco propicio para el abuso basado en datos, según el análisis de los grupos de la sociedad civil, dada la falta de controles y equilibrios esenciales para prevenir daños automatizados.

La declaración de hoy fue redactada por European Digital Rights (EDRi), Access Now, Panoptykon Foundation, epicenter.works, AlgorithmWatch, European Disability Forum (EDF), Bits of Freedom, Fair Trials, PICUM y ANEC, y ha sido firmada por un total de 115 organizaciones sin ánimo de lucro de toda Europa y de fuera de sus fronteras.

Los grupos de defensa esperan que sus recomendaciones sean recogidas por el Parlamento Europeo y el Consejo mientras los colegisladores continúan debatiendo y modificando la propuesta de la Ley de Inteligencia Artificial (AIA) antes de que se adopte y aplique cualquier texto final en toda la UE.

Las sugerencias clave de las organizaciones de la sociedad civil incluyen la necesidad de enmendar la regulación para tener un enfoque flexible y preparado para el futuro que evalue los riesgos impulsados ​​por la IA, lo que significa que permitiría actualizar la lista de casos de uso que se consideran inaceptables (y por tanto prohibidos) y aquellos en que la regulación solo limita, así como la posibilidad de ampliar la lista (actualmente fijada) de los usos denominados de “alto riesgo”.

palomaLa propuesta de la Comisión para categorizar los riesgos de la IA es demasiado «rígida» y está mal diseñada (la declaración de los grupos la llama literalmente «disfuncional«) para seguir el ritmo de las tecnologías de IA iterativa y de rápido desarrollo y los casos de uso cambiantes de las tecnologías basadas en datos, en el punto de vista de las ONG.

“Este enfoque de designación ex ante de sistemas de IA para diferentes categorías de riesgo no considera que el nivel de riesgo también depende del contexto en el que se implementa un sistema y no puede determinarse completamente por adelantado”, escriben.

“Además, si bien la AIA incluye un mecanismo mediante el cual se puede actualizar la lista de sistemas de IA de ‘alto riesgo’, no brinda margen para actualizar las listas de ‘inaceptable’ (Art. 5) y riesgo limitado (Art. 52)«. “Además, aunque el Anexo III se puede actualizar para agregar nuevos sistemas a la lista de sistemas de IA de alto riesgo, los sistemas solo se pueden agregar dentro del alcance de los ocho títulos de área existentes. Actualmente, dichos epígrafes no se pueden modificar en el marco de la AIA. Estos rígidos aspectos del marco socavan la relevancia duradera de la AIA y, en particular, su capacidad para responder a desarrollos futuros y riesgos emergentes para los derechos fundamentales”.

También han criticado a la Comisión por su falta de ambición al enmarcar casos de uso prohibidos de IA, instando a una «prohibición total» de todos los sistemas de puntuación social; en toda la identificación biométrica remota en espacios de acceso público (no solo límites estrechos sobre cómo las fuerzas del orden pueden usar la tecnología); en todos los sistemas de reconocimiento de emociones; sobre toda categorización biométrica discriminatoria; en toda la fisonomía de la IA; en todos los sistemas utilizados para predecir futuras actividades delictivas; y en todos los sistemas para perfilar y evaluar riesgos en un contexto migratorio, defendiendo prohibiciones “en todos los sistemas de IA que representen un riesgo inaceptable para los derechos fundamentales”.

buhoespiaSobre esto, las recomendaciones de los grupos se hacen eco de las peticiones anteriores de que la regulación vaya más allá y prohíba por completo la vigilancia biométrica remota, incluso del supervisor de protección de datos de la UE.

Los grupos de la sociedad civil también quieren que las obligaciones regulatorias se apliquen a los usuarios de sistemas de IA de alto riesgo, no solo a los proveedores (desarrolladores), y piden que los usuarios tengan la obligación de realizar y publicar una evaluación de impacto en los derechos fundamentales para garantizar que la rendición de cuentas en torno a los riesgos no se pueda eludir por el enfoque predominante de la regulación en los proveedores.

Después de todo, una tecnología IA que se desarrolla para un propósito aparente podría aplicarse para un uso diferente que plantea distintos riesgos de derechos.

Por lo tanto, quieren obligaciones explícitas para los usuarios de IA de «alto riesgo» de publicar evaluaciones de impacto, que, según dicen, deberían cubrir los impactos potenciales en las personas, los derechos fundamentales, el medio ambiente y el interés público en general.

“Si bien parte del riesgo que plantean los sistemas enumerados en el Anexo III provienen de cómo están diseñados, los riesgos significativos se derivan de cómo se utilizan. Esto significa que los proveedores no pueden evaluar de manera integral el impacto potencial total de un sistema de IA de alto riesgo durante la evaluación de la conformidad y, por lo tanto, los usuarios también deben tener la obligación de defender los derechos fundamentales”, apremian.

anonimusTambién abogan por que los requisitos de transparencia se extiendan a los usuarios de sistemas de alto riesgo, sugiriendo que deberían tener que registrar el uso específico de un sistema de IA en una base de datos pública que la regulación propone establecer para los proveedores de dicho sistema.

“La base de datos de la UE para sistemas autónomos de IA de alto riesgo (Art. 60) brinda una oportunidad prometedora para aumentar la transparencia de los sistemas de IA frente a las personas afectadas y la sociedad civil, y podría facilitar enormemente la investigación de interés público. Sin embargo, la base de datos actualmente solo contiene información sobre sistemas de alto riesgo registrados por proveedores, sin información sobre el contexto de uso”, dicen y advierten: “Esta laguna socava el propósito de la base de datos, ya que evitará que el público se entere. dónde, por quién y con qué propósito(s) se utilizan realmente los sistemas de IA de alto riesgo”.

Otra recomendación aborda una crítica clave de la sociedad civil al marco propuesto: que no ofrece derechos a las personas ni vías de reparación cuando se ven afectadas negativamente por la IA.

Esto marca una desviación sorprendente de la ley de protección de datos de la UE existente, que confiere una serie de derechos a las personas adjuntas a sus datos personales y, al menos en papel, les permite buscar reparación por infracciones, así como que terceros busquen reparación en nombre de los individuos. (Además, el Reglamento General de Protección de Datos incluye disposiciones relacionadas con el tratamiento automatizado de datos personales; el artículo 22 otorga a las personas sujetas a decisiones con un efecto legal o similar que se basen únicamente en la automatización el derecho a la información sobre el tratamiento; y/o a solicitar una revisión humana o impugnar la decisión).

La falta de «significado de derechos y compensación» para las personas afectadas por los sistemas de IA representa un gran vacío en la capacidad del marco para protegerse contra la automatización del alto riesgo de daños crecientes, argumentan los grupos.

file90“Actualmente, la AIA no confiere derechos individuales de las personas afectadas por los sistemas de IA, ni contiene ninguna disposición para la reparación individual o colectiva, o un mecanismo por el cual las personas o la sociedad civil puedan participar en el proceso de investigación de los sistemas de IA de alto riesgo. Como tal, la AIA no aborda por completo los innumerables daños que surgen de la opacidad, la complejidad, la escala y el desequilibrio de poder en los que se implementan los sistemas de IA”, advierten. Recomiendan que se modifique la legislación para incluir dos derechos individuales como base para los recursos judiciales, a saber

1.- El derecho a no ser sometido a sistemas de IA que supongan un riesgo inaceptable o no cumplan con la Ley; y

2.- El derecho a recibir una explicación clara e inteligible, de forma accesible para las personas con discapacidad, de las decisiones tomadas con la ayuda de los sistemas incluidos en el ámbito de aplicación de la Ley;

También sugieren un derecho a un «recurso efectivo» para quienes vean vulnerados sus derechos «como consecuencia de la puesta en servicio de un sistema de IA«. Y, como era de esperar, las organizaciones de la sociedad civil quieren un mecanismo para que los grupos de interés público, como ellos, puedan presentar una queja ante las autoridades nacionales de supervisión por una infracción o en relación con los sistemas de IA que socavan los derechos fundamentales o el interés público, lo que, según especifican, debería desencadenar una investigación. (El hecho de que los organismos de supervisión simplemente ignoren las quejas relacionadas con el RGPD es un problema importante para la aplicación efectiva de ese régimen).

tonanteOtras recomendaciones en la declaración de los grupos incluyen la necesidad de que la accesibilidad se considere a lo largo del ciclo de vida del sistema de IA, y llaman la atención sobre la falta de requisitos de accesibilidad en el reglamento – advirtiendo que se corre el riesgo de llevar al desarrollo y uso de la IA con «más barreras para las personas con discapacidad«; También quieren que se establezcan límites explícitos para garantizar que las normas armonizadas de seguridad de los productos que el reglamento propone delegar en organismos de normalización privados sólo cubran los aspectos «genuinamente técnicos» de los sistemas de IA de alto riesgo (para que las decisiones políticas y de derechos fundamentales «permanezcan firmemente dentro del control democrático de los legisladores de la UE«, como dicen); y quieren que los requisitos para los usuarios y proveedores de sistemas de IA se apliquen no sólo cuando los productos se apliquen dentro de la UE, sino también en otros lugares, «para evitar el riesgo de discriminación, vigilancia y abuso a través de tecnologías desarrolladas en la UE«.

La sostenibilidad y la protección del medio ambiente también se han pasado por alto, según la evaluación de los grupos.

En este sentido, piden «requisitos de transparencia horizontales y públicos sobre el consumo de recursos y el impacto de las emisiones de gases de efecto invernadero de los sistemas de IA», independientemente del nivel de riesgo, y que abarquen el diseño del sistema de IA, la gestión de datos y la formación, la aplicación y las infraestructuras subyacentes (hardware, centros de datos, etc.).

oopsLa Comisión Europea justifica con frecuencia su objetivo de fomentar la actualización de la IA al pregonar que la automatización es una tecnología clave para hacer posible la transición del bloque hacia un continente «neutro desde el punto de vista climático» para el año 2050; sin embargo, el propio consumo de energía y recursos de la IA es un componente que se pasa por alto en estos llamados sistemas «inteligentes«. Si no se aplican unos sólidos requisitos de auditoría medioambiental también a la IA, es simplemente PR afirmar que la IA proporcionará la respuesta al cambio climático.

Se ha contactado con la Comisión para que responda a las recomendaciones de la sociedad civil.

El mes pasado, los eurodiputados del Parlamento Europeo votaron a favor de la prohibición total de las tecnologías de vigilancia biométrica a distancia, como el reconocimiento facial, la prohibición del uso de bases de datos privadas de reconocimiento facial y la prohibición de la vigilancia policial predictiva basada en datos de comportamiento.

También han votado a favor de la prohibición de los sistemas de puntuación social que tratan de calificar la fiabilidad de los ciudadanos en función de su comportamiento o personalidad, y de la prohibición de que la IA ayude en las decisiones judiciales, otro ámbito muy controvertido en el que ya se aplica la automatización.

file14Así que es probable que los eurodiputados tomen buena nota de las recomendaciones de la sociedad civil cuando trabajen en las enmiendas a la Ley de IA. Paralelamente, el Consejo está determinando su mandato de negociación sobre el reglamento, y las propuestas actuales abogan por la prohibición de la puntuación social por parte de las empresas privadas, pero buscan excepciones para los usos de I+D y de seguridad nacional de la IA.

Los debates entre la Comisión, el Parlamento y el Consejo determinarán la forma final del reglamento, aunque el Parlamento también debe aprobar el texto final del reglamento en una votación plenaria, por lo que las opiniones de los eurodiputados desempeñarán un papel fundamental.

🇵🇱Polonia: un nuevo ataque a los derechos reproductivos de las mujeres –

🇬🇧Worstward Ho? Notas sobre la partida de Liz Truss

Anuncio publicitario

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: