Oímos falar da Intelixencia Artificial por todas partes. Utilízase tanto para facer predicións de vendas ou optimizar stocks como para chatbots ou creación de contidos pero, sabemos realmente como funciona e por que realiza determinadas accións?

A IA non é misterio nin maxia; é tecnoloxía e, como tal, funciona en base a unha serie de técnicas e parámetros. A dúbida xorde cando o seu desenvolvemento e o seu comportamento nos resultan alleos e non somos quen de entender por que di o que di.

E aquí aparece un novo concepto: Intelixencia Artificial Explicable, en inglés "Explainable Artificial Intelligence", á que habitualmente nos referimos como XAI.

Intelixencia Artificial: da innovación á explicación

A Intelixencia Artificial Explicable (XAI) alude a aqueles métodos mediante os que o ser humano pode comprender os resultados creados polos algoritmos de aprendizaxe automática ou machine learning; é dicir, ás accións e decisións establecidas pola IA.

É dicir, un algoritmo é explicable cando se pode interpretar e entender como obtivo as súas predicións ou resultados.

De entrada, o sistema habitual de traballo da IA baséase no que comunmente se coñece como "caixa negra", que é xerada directamente a partir dos datos e resulta practicamente imposible de interpretar. Na maioría dos casos, nin sequera os propios desarrolladores e enxeñeiros son quen de determinar por que a IA chegou a determinada conclusión.

A Intelixencia Artificial Explicable (XAI) implementa métodos específicos que permiten rastrexar e explicar todas as decisións tomadas durante o proceso de aprendizaxe automática. Para as empresas, monitorizar e xestionar modelos que promovan a “explicabilidade” afianza a súa confianza na IA e anima a incrementar o seu uso. Pero, como facemos explicable a IA?

As claves da Intelixencia Artificial Explicable (XAI)

De maneira xeral, son tres as claves que conducen á “explicabilidade” da IA.

En primeiro lugar, facer seguimento da trazabilidade dos datos, implementando limitacións nos alcances ou nas tomas de decisións.

Tamén medir a precisión nas predicións, comparando os datos de adestramento cos datos finais achegados polos modelos de IA.

Por último, o máis importante e o que seguramente marque a diferenza, aplicar o factor humano. Será quen, en última instancia, valide e certifique as conclusións ás que chega a IA.

A Intelixencia Artificial Explicable e o dereito á explicación

A Intelixencia Artificial Explicable (XAI) está estreitamente relacionada co dereito á explicación; é dicir, a saber como funciona un sistema e cales son as razóns que provocan as súas conclusións, accións, recomendacións ou predicións. En resumo, alude a que os sistemas automatizados sempre deben ser comprensibles e transparentes para os/as usuarios/as.

Na práctica, este dereito á explicación persegue varios obxectivos:

• Achegar a tecnoloxía a toda a sociedade (non só aos/ás expertos/as)

• Democratizar e evitar a discriminación tecnolóxica

• Mellorar a transparencia e a confianza na tecnoloxía

• Combater sesgos

• Maior responsabilidade e ética nos desenvolvementos da IA

• Acelerar, optimizar e personalizar resultados

• Aumentar as liñas de negocio ás que lles resulta aplicable a IA

• Propiciar a auditabilidade de algoritmos e modelos

Pero, á súa vez, tamén presenta certas dúbidas relacionadas coa protección de datos e cos dereitos de propiedade intelectual. Este é un dos aspectos que están a abordar as regulacións sobre IA nas que traballan os diferentes países.

Doutra banda, a XAI tamén está estreitamente relacionada co concepto de IA responsable. Aínda non sendo o mesmo, comparten a necesidade de desenvolver a IA de maneira ética e apostan por unha tecnoloxía cuxos patróns de comportamento estean ben definidos e da que poidan beneficiarse as empresas e o conxunto da sociedade.

Se queres saber máis sobre as nosas solucións tecnolóxicas para empresas, subscríbete ao noso boletín ou contacta co/coa teu/túa asesor/a persoal ou co noso equipo da área comercial empresas a través do seguinte formulario. E para estar ao día das últimas noticias síguenos en LinkedIn.