Compartir:

El AI Now 2019 Report destaca que esa falta de medidas efectivas contrasta con la generalización de las tecnologías de reconocimiento facial y la aparición de otras nuevas, como el reconocimiento de emociones de las personas, particularmente intrusivas.

A pesar de la abundancia de propuestas sobre criterios éticos aplicables a la Inteligencia Artificial (IA), los sistemas basados en esta tecnología continúan desplegándose rápidamente en ámbitos de considerable importancia social como la salud, la educación, el empleo, la justicia penal y muchos otros, sin que se hayan implantado a la vez sistemas de salvaguardias adecuadas o estructuras de rendición de cuentas (accountability).

En este contexto, destaca, en particular, el desarrollo de nuevos sistemas de reconocimiento de emociones (affect recognition), una subclase de las tecnologías de reconocimiento facial orientada a detectar aspecto como la personalidad, las emociones, la salud mental y otros estados interiores de la persona, de carácter particularmente intrusivo para la intimidad.

Además, hay que tener en cuenta también que cada vez son más los aspectos estratégicos derivados de la utilización de la IA, como los considerables daños ambientales causados por estos sistemas, o sus efectos sobre la asistencia sanitaria, donde la creciente dependencia de los sistemas de IA para la toma de decisiones, puede tener consecuencias sobre la vida o la muerte de las personas. Además, estos sistemas son particularmente propensos a las vulnerabilidades de seguridad.

Por otra parte, la IA está ampliando la desigualdad, en diversos ámbitos y contextos, al poner la información y su control en manos de quienes ya tienen poder, desempoderando aún más a quienes no lo tienen.

Por ello no es de extrañar que durante el año que concluyen grupos sociales, investigadores, responsables políticos y trabajadores estén exigiendo que se pongan límites a las actividades basadas en la IA más arriesgadas y peligrosas.

Estas son las principales conclusiones del informe AI Now 2019, presentado por el IA Now Institute, un centro radicado en la Universidad de Nueva York, dedicado a la investigación interdisciplinar sobre las implicaciones sociales de la IA. El informe, de enfoque notoriamente crítico sobre los efectos de estas tecnologías sobre el trabajo y los derechos civiles y sociales de las personas, analiza el estado de aplicación y regulatorio de estas tecnologías a nivel global, identifica la actual situación de su uso, y propone una serie de recomendaciones para poner solución a los problemas localizados.

Tendencias actuales sobre Inteligencia Artificial

El estudio ha identificado también las siguientes tendencias durante el año que ahora concluye:

1. La difusión de las tecnologías de gestión algorítmica en el lugar de trabajo está aumentando la asimetría de poder entre trabajadores y empleadores. La IA amenaza con ello no sólo con desplazar de manera desproporcionada a los trabajadores con salarios más bajos, sino también con reducir los salarios, la seguridad laboral y otras protecciones para los que más lo necesitan.

2. Los colectivos sociales, trabajadores, periodistas e investigadores y no las declaraciones éticas y políticas corporativas sobre AI, han sido los principales responsables de presionar a las empresas tecnológicas y a los gobiernos para que pongan barreras al uso de AI.

Empresas, gobiernos, entidades sociales y académicas están dedicando enormes esfuerzos para elaborar principios éticos aplicables a la IA. Pero la mayoría de los mismos dicen muy poco de sobre la implementación, la accountability o la forma en que estos principios deben ser medidos y aplicados en la práctica. Paralelamente se aprecia una severa diferencia entre el enunciado de estos principios y lo su práctica.

3. Se están realizando esfuerzos para regular los sistemas de IA (por ejemplo, en los EEUU, la Commercial Facial Recognition Privacy Act de 2019, la Facial Recognition Technology Warrant Act y la No Biometric Barriers Act de 2019, y en Europa, determinados aspectos del RGPD), pero estos esfuerzos se están viendo superados por la implantación por parte de los gobiernos de sistemas de IA para vigilar y controlar a los ciudadanos.

4. Los sistemas de IA continúan siendo un medio para ampliar las disparidades raciales y de género a través de técnicas como el reconocimiento de afectos, que no tiene una base científica sólida.

Sin embargo, en vez de reconocer la escala y la naturaleza sistémica del problema, las empresas de tecnología han respondido a las crecientes pruebas de existencia de sesgos y del mal uso de esta tecnología centrándose principalmente en soluciones de alcance limitado. También han intentado solucionar el desajuste técnico en los datos trabajando para “arreglar” los algoritmos y diversificar los conjuntos de datos, a pesar de que estos enfoques han demostrado ser insuficientes y plantean serias preocupaciones sobre la privacidad y el alcance del consentimiento otorgado para estos fines. En particular, ninguno de los dos enfoques aborda las desigualdades estructurales subyacentes. Tampoco abordan la creciente asimetría de poder entre quienes producen y se benefician de la IA y quienes están sujetos a las aplicaciones de la IA.

5. El aumento de las inversiones y el desarrollo de la IA tiene profundas repercusiones en ámbitos que van desde el cambio climático a los derechos de los pacientes de atención de salud, pasando por el futuro de la geopolítica y las desigualdades que se están reforzando en las regiones del Sur global.

El estudio resalta el peligro de dejar las soluciones a estas cuestiones en manos de un pequeño número de individuos y empresas, cuyos propósitos y visión del mundo a menudo están en desacuerdo con los intereses de aquellos que soportan las consecuencias de tales decisiones.

Recomendaciones

El informe incluye una lista de 12 recomendaciones para los desarrolladores, los reguladores y los gobiernos:

1. Los reguladores deberían prohibir el uso del reconocimiento de las emociones para la toma de decisiones relevantes que afecten a la vida de las personas y al acceso a las oportunidades. Hasta entonces, las empresas que desarrollen o utilicen IA deberían dejar de utilizarlo.

El informe destaca que esta tecnología se basa en unos controvertidos fundamentos científicos por lo que no se debería permitir que tenga relevancia en la adopción de decisiones importantes para las personas, como la contratación laboral, el precio de un seguro, las evaluaciones del dolor de los pacientes o el rendimiento de los estudiantes en la escuela.

2. Los gobiernos y las empresas deberían detener todo uso del reconocimiento facial en contextos sociales y políticos sensibles hasta que se estudien completamente los riesgos y se establezcan las regulaciones adecuadas para su uso.

Según el informe, en 2019 se ha producido una rápida expansión del reconocimiento facial en muchos ámbitos. Sin embargo, cada vez hay más pruebas de que esta tecnología tiene graves efectos, sobre todo a las personas de color y los pobres. Por ello debería establecerse una moratoria en todos los usos del reconocimiento facial en ámbitos sociales y políticos sensibles –incluyendo la vigilancia, el mantenimiento del orden, la educación y el empleo– en los que el reconocimiento facial plantea riesgos y consecuencias que no se pueden remediar de manera retroactiva.

Adicionalmente, esta moratoria debería incluir una fijación de los requisitos de transparencia sobre el funcionamiento de estos sistemas, que permitan a los investigadores, los responsables de la formulación de políticas y las comunidades evaluar y comprender el mejor enfoque posible para restringir y regular el reconocimiento facial.

3. La industria de la IA necesita introducir cambios estructurales significativos para abordar el racismo sistémico, la misoginia y la falta de diversidad en sus sistemas.

4. La investigación sobre los sesgos de la IA debe ir más allá de las meras soluciones técnicas, para abordar las políticas y consecuencias del uso de la IA en un conjunto general.

5. Los gobiernos deben exigir la divulgación pública del impacto climático de la industria de la IA.

6. Los trabajadores deben tener el derecho a oponerse a la utilización invasiva de la IA en el ámbito laboral.

7. Los trabajadores técnicos deben tener derecho a saber lo que están construyendo y a impugnar los usos poco éticos o perjudiciales de su trabajo con IA.

8. Los Estados deben elaborar leyes más amplias sobre la privacidad de los datos biométricos, dirigidas tanto a los actores públicos como a los privados, como la Illinois Biometric Information Privacy Act (BIPA),

9. Los legisladores deben regular la integración de las infraestructuras de vigilancia públicas y privadas.

10. Las evaluaciones de impacto algorítmico deben tener en cuenta el impacto de la IA en el clima, la salud y los desplazamientos geográficos.

11. Los investigadores del aprendizaje automático (machine learning) deben tener en cuenta los posibles riesgos y daños que puedan derivarse de su uso, y documentar mejor los orígenes de sus modelos y datos.

12. Los legisladores deben exigir el consentimiento informado para el uso de cualquier dato personal en las aplicaciones de IA relacionada con la salud.

 

 

 

 

 

 

 

Publicado inicialmente  Wolters Kluwer

Carlos B Fernández