En nuestro primer artículo hablábamos de la importancia de tener una buena estrategia de datos  https://www.linkedin.com/feed/update/urn:li:share:7192873475332591616 

 

Entre los muchos beneficios, además del sempiterno ganador ROI, tenemos el nuevo oro en esta nueva era de la IA:  la Precisión.  Aunque es más ajustado decir la reducción de sesgo y el asunto da para un artículo completo en si por la complejidad que implica, dado que la total precisión en IA aún no existe. 

 

Eliminarlo por completo será desafío complejo que exigirá un esfuerzo conjunto y muy sostenido en el tiempo por parte de diversos actores y factores: Investigadores, desarrolladores, responsables políticos y la sociedad en general.

Demasiados factores para poder determinar fechas exactas, ni orientativas me atrevería para estimar el objetivo. 

 

Es importante entender de manera general tipos y sobre todo, consecuencias:

 

 

Tipos de Sesgos en IA:

 

  • Sesgo de datos: Este tipo afecta principalmente en reconocimiento por imágenes, ya que sigue habiendo dificultad con los tonos de piel y si además se entrena un modelo con no suficiente cantidad de muestra puede acrecentar el ya de por si existente problema.

 

En este caso en concreto, en España, existe esa autorización legal para el control de acceso y jornada en empresas y en la Administración pública, así como para fines de prevención, detección, investigación y enjuiciamiento de infracciones penales y de ejecución de sanciones penales, por lo que entendemos que se han tomado las medidas necesarias para evitar ese problema.

 

En el resto de la EU, se aprobó en febrero de 2024 una ley para el uso de sistemas de reconocimiento facial y/o biométricos por parte de las autoridades aeroportuarias, pero NO así por parte de aerolíneas u operadores aeroportuarios.

 

  • Sesgo de diseño: produce cuando el propio algoritmo de IA está diseñado de una manera que sesga los resultados. Por ejemplo, un algoritmo que utiliza la edad como factor para determinar la elegibilidad para un préstamo puede discriminar a los solicitantes jóvenes.

 

  • Sesgo de Interpretación: Este tipo de sesgo se produce cuando los humanos interpretan los resultados de un modelo de IA de forma sesgada.

 

Como conclusión, el único camino para reducir sesgos es trabajar con datos propios, resultantes de históricos de negocio propio y no comprar datasets externos, algo que es comúnmente propuesto y personalmente no recomiendo a no ser que sea para procesos muy poco relevantes. Aunque si ese es el caso, quizá tampoco es relevante para hacer una inversión en IA y una automatización o similar es suficiente. 

 

Es muy importante tener, además de un buen equipo técnico, un consultor especializado en la tecnología capaz de analizar en etapas previas estas casuísticas para evitar sumar un problema que antes no existía.

No siempre tenemos en cuenta todos los aspectos relevantes y las prisas pueden resultar muy costosas a medio y largo plazo en términos de reputación y penalizaciones.

 

 

 Veamos ahora algunas de las consecuencias:

 

 

 

 

 

Consecuencias del sesgo en la IA:

 

El sesgo en la IA puede tener consecuencias significativas y perjudiciales en diversos aspectos de la sociedad.

Cada vez más son los profesionales relacionados con el mundo judicial que utilizan herramientas de IA (IDP – Intellingent Document Processing) por poner un ejemplo. 

Bajo mi punto de vista, un grandísmo avance tecnológico. Entiendo que si no lo han adoptado ya, poco tardarán las administraciones de justicia. Creo que no hace falta decir lo que puede suponer las consecuencias en Justicia penal…

 

En el sistema bancario, cada vez hay más presencia de esta tecnología. Si la discriminación en la concesión de  créditos se produjera por un sesgo, ya sea de diseño o de interpretación, ambas partes tienen mucho que perder

 

El sesgo en la IA puede tener consecuencias significativas y perjudiciales en diversos aspectos de la sociedad y para las empresas contratantes.

 

 

 Pongámonos en manos de especialistas. 

 

 

 

 

 

LEGISLACIÓN E IMPORTANCIA DE LA PROCEDECENCIA DE LOS SERVICIOS: 

 

Hay ya disponibles bundles de servicios muy completos, que cubren muchos y muy variados servicios de IA, pero ¿nos estamos haciendo las preguntas correctas en el momento correcto?

 

Antes de nada, debemos asegurarnos que se está atendiendo todo lo relevante a nuestro negocio y posibles riesgos. Pero, sobre todo, no incurrir en posibles riesgos que antes no existían como veremos un poquito más abajo. 

 

Una de las primeras preguntas que deberíamos hacernos cuando queramos abordar un proyecto es qué cantidad de histórico de datos necesitamos para poder empezar entrenar un modelo de aprendizaje. Y la respuesta no es estándar.

 

Siempre dependerá de la complejidad del problema, pero si hay unas pautas específicas:

 

  • Para tareas de clasificación simples: Unos pocos miles de ejemplos de datos pueden ser suficientes.
  • Para tareas de clasificación más complejas: Se pueden necesitar decenas de miles o incluso cientos de miles de ejemplos de datos.
  • Para tareas de aprendizaje profundo: como el reconocimiento de imágenes o el procesamiento del lenguaje natural se pueden necesitar millones de ejemplos de datos.

Por supuesto, se puede complementar comprando datos, pero ahí es exactamente donde empezará la temida desviación. 

 

Si hablamos de transacciones de comportamiento para entrenar motores anti fraude o imágenes para ayudar a detectar enfermedades… ya hablamos de más preferiblemente más cercano a 1MM si puede ser 2MM, mejor, teniendo en cuenta que tratamos con datos HIPAA , PCI etc … 

Pero cada industria es diferente y tiene, en consecuencia, diferentes necesidades. 

 

 

 

Veámoslo con un ejemplo práctico:

Acordamos un contrato de servicio donde se nos implementa un bundle en el que viene incluido:

  • Servicio de chatbot
  • Reconocimiento de voz
  • Análisis de sentimiento
  • Búsqueda de Documentos impulsada por el negocio y respuesta focalizada
  • Análisis, detección y remediación antifraude en tiempo real.

 

 

Interesantísimo. Realmente los hyperescalers han hecho un trabajo fascinante para poder poner a disposición de las empresas la tecnología y en paquetes muy atractivos, ahora bien, asegurémonos de hacer muchas preguntas y muy concretas.

 

Algunas preguntas que debemos hacernos:

¿nos hemos informado en profundidad de si son la solución correcta para nuestra empresa? ¿sabemos dónde están alojados todos los servicios? ¿qué cantidad de histórico de datos realmente necesito para que la precisión sea alta? ¿cada cuanto tiempo vamos a revisar el modelo? ¿es realmente el modelo relevante para mi negocio o voy a estar pagando horas de computación que realmente no necesito porque era suficiente con un proyecto de Big Data o similar? *

 

*Hay al menos uno de los 3 grandes hyperscalers que ha tenido muy en cuenta el tema del aumento del precio de la computación y ha puesto a disposición una solución por la que puedes optar a precios de hasta un 70% menos del coste habitual, sin trucos, ni trampa ni cartón. Pero ojo con los contratos (desconozco el resto de fórmulas de otros hyperscalers, es una observación agnóstica) mucho, mucho, ojo con los contratos de 1 o 3 años al x % y el 3 año castañazo.

 

Dentro de esos paquetes de servicios, los microservicios no siempre están alojados en las mismas zonas. Puedes tener el 90% de los servicios en Europa pero uno de ellos, en la región de USA. O en India. Oh …. Wait! 

 

 

 

 

 

LEGISLACIÓN DE LA INTELIGENCIA ARTIFICIAL POR GEOS

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • LEGISLACIÓN IA EUROPA:

El Parlamento Europeo y el Consejo de la Unión Europea aprobó en abril de 2023 

Ley de Inteligencia Artificial, también conocida como Reglamento (UE) 2023/1387 entrando en vigor el 16 de diciembre de 2023.

Esta Ley de IA es un marco regulatorio integral que establece normas para el desarrollo, la implementación y el uso de la IA en la Unión Europea. Su objetivo es garantizar que la IA se use de manera segura, responsable y ética, y que respete los derechos fundamentales de las personas.

 

Y como toda ley nos protege, pero también nos marca una serie de obligaciones. 

 

Obligaciones para las empresas: 

Las empresas que desarrollen, implementen o utilicen sistemas de IA tienen una serie de obligaciones, como:

  • Realizar evaluaciones de riesgos.
  • Aplicar medidas de transparencia.
  • Implementar sistemas de gestión de riesgos.
  • Garantizar la seguridad de los datos.
  • Establecer mecanismos de vigilancia y control interno.

 

Es importante tener en cuenta que la Ley de IA es relativamente nueva y aún se encuentra en sus primeras etapas de implementación. Es probable que la interpretación y aplicación de la ley continúen evolucionando en los próximos años a medida que se desarrolle jurisprudencia y se adquiera experiencia práctica. 

También hay que tener en consideración que la jurisprudencia irá íntimamente ligada a la GDPR ya que muchos aspectos se cruzan, combinan y el caos puede resultar en un 5% de multa de la facturación global de la empresa implicada. 

 

En el resto de Europa la adopción de Inteligencia Artificial es más común, pero en España, las primeras en adoptarlo han sido, ya por reputación, ya por ser las únicas que podían permitírselo, IBEX y empresas corporate. Un 5% de facturación global de ese tipo de empresa no es poquita cosa.

 

 

 

LEGISLACIÓN IA USA:

 

Hay una realidad en Tecnología y es que nace en USA. Por lo que cuando queremos adoptar una solución puntera, probablemente los primeros dos años, esté alojada en USA.

Esto es debido principalmente a que los mejores especialistas están allí y que hasta que no despierta esa tecnología en el resto de geografías, por lógica, no está disponible en el resto de regiones. Por lo que es la segunda región más recurrente que nos encontraremos.

A diferencia de la Unión Europea, que tiene una regulación de la IA más prescriptiva, los Estados Unidos siguen un enfoque de principios en la regulación de la IA. Esto significa que hay varias iniciativas que abordan diferentes aspectos de la IA en lugar de una sola ley que regule toda la IA.

Lo más cercano a una ley es la Orden ejecutiva del primer punto. Y no deben las empresas perder de vista que mientras den servicio a sus clientes en suelo europeo, estarán sujetos a la ley arriba mencionada vigente desde el 16 de diciembre del 2023. 

Recordemos también que el desconocimiento de la ley no exime de su cumplimiento. 

 

1. Orden Ejecutiva sobre IA Segura y Fiable (30 de octubre de 2023):

Establece principios para el desarrollo, uso y gobierno de la IA federal.

Se centra en la protección de los derechos civiles, la equidad, la seguridad y la transparencia.

No crea obligaciones directas para las empresas, sino que las anima a adoptar las mejores prácticas.

 

2. Ley de Divulgación de Derechos de Autor de IA Generativa (en proyecto):

Exige a las empresas que revelen la información sobre las obras protegidas por derechos de autor utilizadas para entrenar sus sistemas de IA generativa.

Busca proteger los derechos de los autores y promover la transparencia en el desarrollo de la IA.

 

3. Acuerdos entre la Administración Biden y las empresas de IA (julio de 2023):

Las empresas se comprometen a garantizar la seguridad y la confiabilidad de sus sistemas de IA.

Se acuerdan medidas como pruebas de seguridad previas al lanzamiento, transparencia en los resultados y etiquetado de contenidos generados por IA.

 

4. Iniciativas de diversas agencias federales:

Existen varias agencias federales que trabajan en la regulación de la IA en sus respectivos ámbitos, como la Comisión Federal de Comercio (FTC), la Food and Drug Administration (FDA) y el Departamento de Transporte (DOT).

Estas agencias están desarrollando directrices, normas y reglamentos específicos para abordar los riesgos y desafíos de la IA en sus áreas de competencia.

 

5. Enfoque en la investigación y el desarrollo:

Se está invirtiendo en investigación para desarrollar herramientas y métodos para evaluar la seguridad, la confiabilidad y la equidad de los sistemas de IA.

Se busca fomentar el desarrollo de estándares y mejores prácticas para la IA.

 

 

 

 

 

DESAFIOS DE LA REGULACIÓN A NIVEL GLOBAL:

 

 

A nivel mundial, la UNESCO ha aprobado un marco ético sobre la inteligencia artificial, que define valores y principios comunes para guiar el desarrollo saludable de esta tecnología. Este acuerdo histórico busca garantizar que las transformaciones digitales promuevan los derechos humanos y contribuyan a los Objetivos de Desarrollo Sostenible, abordando cuestiones como la gobernanza de los datos, la educación y la economía.

En otras regiones, la legislación sobre IA varía significativamente, pero muchas están siguiendo el ejemplo de la UE y desarrollando sus propias regulaciones. la discusión sobre la regulación de la IA está en curso, con propuestas que buscan abordar la privacidad de los datos, la seguridad y la ética en el uso de la IA. 

En Asia, países como China y Japón también están avanzando en la creación de marcos legales que aborden los desafíos específicos planteados por la IA, incluyendo la protección de datos personales y la seguridad de los sistemas de IA.

En India no existe una ley única y completa que regule la Inteligencia Artificial, pero el gobierno indio está tomando medidas activas para establecer un marco regulatorio para la IA. Se están realizando inversiones en investigación para comprender mejor los desafíos éticos y sociales de la IA.

El objetivo es desarrollar herramientas y métodos para evaluar la seguridad, confiabilidad y equidad de los sistemas de IA. A lo largo de los últimos meses han producido avances importantes:

Hay que tener en cuenta que es un país que tecnológicamente evoluciona exponencialmente más rápido de lo que actualmente lo hace cualquier otro país y por supuesto de la capacidad que tiene su, o cualquier otro gobierno, tiene de legislar.

 

 

En conclusión, estamos aún lejos de tener legislación en todos los países, incluso en aquellos países en los que si existe regulación, siguen existiendo muchos vacíos legales que serán difíciles de abordar. 

 

Pero tenemos soluciones a mano muy fáciles:

  1. Preguntar, preguntar, preguntar y volver a preguntar.
  2. Ponernos en manos de profesionales que estén realmente especializados y sean capaces de tener una visión global que no sólo abarque lo técnico, sino que se avance a futuros potenciales problemas si los cimientos no se construyen sólidos.
  3. ¿Hay alguien que realmente esté mirando esto de manera global?

No podemos legislar de manera global, ni pretender solucionar en breve el tema del sesgo pero si tenemos a mano herramientas sencillísimas para hacer un uso responsable de la IA y que además nos lleve a sacarle el mayor rendimiento con el menor riesgo de penalizaciones.

 

Un consultor especializado y 5 minutos de preguntas incómodas pueden evitar mucho tiempo de situaciones incómodas .

 

 

 

 

Os dejo una pequeña batería de preguntas

 

¿Es realmente la tecnología que necesito? ¿son suficientes mis datos?¿Dónde están alojados los servicios que contrato? ¿Son un todo o son micro servicios?  ¿Es un modelo de responsabilidad compartida o en los TyC he firmado el descargo de responsabilidad y/o que acepto estar regulado bajo la ley de x país en caso de litigio? ¿A qué otras leyes debo atender según mi negocio? ¿Hay alguien que realmente esté mirando de manera global?

 

 

 

Carolina Monge
 

REFERENCIAS:

Europa:

https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206

www.trai.gov.in/sites/default/files/CP_05082022.pdf

https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex%3A52021PC0206

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

 

USA:

https://confilegal.com/20231102-estados-unidos-quiere-liderar-la-regulacion-juridica-de-la-inteligencia-artificial/

https://www.garrigues.com/es_ES/garrigues-digital/asi-esta-regulando-ia-ue-eeuu-ocde-dificil-equilibrio-seguridad-fomento

https://www.nytimes.com/es/2023/11/04/espanol/inteligencia-artificial-orden-biden.html

 

 

India:

https://www.thehindu.com/news/national/regulating-deepfakes-generative-ai-in-india-explained/article67591640.ece

 

https://www.reuters.com/technology/india-drawing-up-laws-regulate-deepfakes-minister-2023-11-23/

 

https://www.orfonline.org/expert-speak/digital-personal-data-protection-bill-2022

 

UNESCO:

https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

 

 

IA: LEGISLACIÓN, SESGOS Y LA IMPORTANCIA LA PROCEDENCIA DE LOS SERVICIOS

©Derechos de autor. Todos los derechos reservados.

Necesitamos su consentimiento para cargar las traducciones

Utilizamos un servicio de terceros para traducir el contenido del sitio web que puede recopilar datos sobre su actividad. Por favor revise los detalles en la política de privacidad y acepte el servicio para ver las traducciones.