Ética en la aplicación de la Inteligencia Artificial

El uso de la Inteligencia Artificial (IA) se ha convertido en una realidad y los expertos coinciden en subrayar el impacto de este desarrollo en nuestras vidas, una realidad que ha reavivado el debate sobre la importancia de una ética de la IA.

Ante la expansión de la IA en muy diversos ámbitos es necesaria una ética que asegure su uso y aplicación adecuadas.

La Inteligencia Artificial (IA) está detrás de la mayoría de los proyectos de transformación digital de las empresas y uso se extiende a multitud de ámbitos con aplicaciones que van desde los servicios de atención al cliente para asegurar su satisfacción hasta la mejora de la producción industrial en los entornos Industria 4.0, pasando por la gestión avanzada del talento.

Esta realidad demuestra que las empresas son cada vez más conscientes del potencial de la IA en muy diversos entornos y, al mismo tiempo, consideran clave contar con expertos en tecnología con formación en ética, además de ser cada vez más numerosas las organizaciones en las que existe un protocolo y/o comité específico para asegurar el buen uso de la IA.

Por supuesto, los Gobiernos tiene mucho que decir sobre esta materia. Es el caso de la Unión Europea (UE), tras la propuesta de la Comisión Europea (CE) en abril de 2021 del primer marco legal sobre la IA, actualmente está en tramitación una nueva regulación para poner coto a los potenciales excesos asociados al uso de la IA y potenciar al mismo tiempo la posición de Europa para desempeñar un papel de liderazgo a nivel mundial.

La Propuesta de Reglamento sobre IA de la CE, que va de mano del Plan Coordinado sobre IA, tiene el objetivo de abordar los riesgos de usos específicos de la IA, que clasifica en cuatro niveles diferentes: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.

Actualmente, los europarlamentarios y países miembros de la UE están analizando el borrador de esta normativa, considerada bastante ambiciosa. Así, por ejemplo, contempla prohibir los usos de la IA considerados inaceptables y requerirá verificaciones adiciones en los considerados de “alto riesgo”, es decir, aquellos con mayor riesgo de perjudicar a las personas, incluyendo por ejemplo sistemas para la evaluación de exámenes, para la selección de personas en procesos de contratación o para la asignación de ayudas gubernamentales.

El nuevo Reglamento también podría restringir el uso del reconocimiento facial por parte de las agencias y cuerpos de seguridad en lugares públicos, e incluso prohibir los sistemas policiales predictivos que aplican IA al análisis de grandes volúmenes de datos.

Una vez aprobado, el Reglamento sobre la IA sería la primera normativa que aborda la regulación la IA y podría convertirse en un nuevo estándar global para su supervisión; pero requerirá tiempo. Teniendo en cuenta que el Reglamento General de Protección de Datos (RGPD), que afecta directamente a actividades como, por ejemplo, el comercio electrónico, tardó más de cuatro años en tramitarse y trascurrieron seis años hasta su entrada en vigor, es muy posible que sea necesario al menos otro año antes de contar con un texto final y otros dos años para la obligación de cumplimiento sea efectiva.

Así las cosas, en aggity ponemos el acento en las ventajas de la aplicación de la IA y al mismo tiempo consideremos fundamental dotar a la tecnología de principios y valores. A la hora de incorporar la IA en los procesos de producción de las empresas, nos guiamos por el compromiso de incluir la ética en los algoritmos que la rigen para asegurar un uso y aplicación adecuados.