• 01/05/2024 09:37

11.45h a 12.45h Explicabilidad y confianza, claves para escalar la IA

Tiempo estimado de lectura: 4 minutos, 14 segundos

Explicabilidad y confianza, claves para escalar la IA

28 septiembre 2023 | 11.45h a 12.45h

Para conseguir una adopción a escala de las soluciones basadas en IA, es necesario construir una relación de confianza con el usuario. La explicabilidad de la IA es un elemento clave en esta relación, puesto que permite dilucidar las decisiones que toman los modelos y ofrece información complementaria de valor. Asimismo, es un elemento crucial para obtener algoritmos auditables. ​ 

​En esta sesión veremos los últimos desarrollos y ejemplos de técnicas que profundizan en la explicabilidad de la IA con el objetivo de avanzar hacia un uso fiable y cada vez menos opaco.

Presenta:

Gemma Batlle, Business Development Manager, Eurecat

Participan:

Ricardo Moya, Technological Specialist in Artificial Intelligence & Big Data de Telefónica I+D

Karina Gibert, catedrática, directora de IDEAI y decana del COEINF

Joan Vidal, Director de Risk Analytics en CaixaBank

Javier Matamoros, Arquitecto de IA en CaixaBank Tech

Ponentes

RICARDO MOYA

Technological Specialist in Artificial Intelligence & Big Data de Telefónica I+D

Doctor en Ciencias y Tecnologías de la Computación e ingeniero Informático por la UPM, especializado en Inteligencia Artificial. Actualmente, trabaja en Telefónica I+D como Especialista tecnológico en IA y Big Data, diseñando y liderando el desarrollo de productos con Inteligencia Artificial. También desempeña labores docentes como profesor de IA en Masters y Grados Universitarios. Ha trabajado como investigador en proyectos relacionados con Sistemas de Recomendación y Deep & Machine Learning y ha ejercido como director de Proyecto en DEVO, liderando proyectos de Big Data en tiempo real. Es Cofundador de la asociación profesional de Inteligencia Artificial «AI-Network» y cofundador de la web jarroba.com donde publica contenido técnico sobre IA e Informática.

Métodos de explicabilidad local basada en datos con XAIoGraphs

En octubre del 2018 Telefónica publicó sus 5 principios de IA siendo uno de ellos la “transparencia y explicabilidad”, garantizando que las decisiones tomadas por la IA han de ofrecer un nivel de comprensión y explicabilidad adecuado. Los esfuerzos por conseguir una IA explicable han llevado a los equipos de I+D de Telefónica a proponer nuevos métodos de explicabilidad e interpretabilidad que se ajusten a sus necesidades de negocio, siendo uno de estos métodos LIDE (Local Interpretable Data Explanations) capaz de calcular las explicaciones basándose únicamente en los datos. Este método ha sido implementado en XAIoGraphs, una herramienta Open Source que se expondrá en la ponencia.

KARINA GIBERT

Catedrática, directora de IDEAI y decana del COEINF

Catedrática de la Universidad Politécnica de Cataluña-BarcelonaTech (UPC). Licenciada y doctora en Ingeniería Informática con especialidades en Estadística Computacional e Inteligencia Artificial. Postgrado en Docencia Universitaria. Miembro del equipo de trabajo gubernamental Catalonia.AI (oct 2018-) y miembro del grupo de expertos que escriben el Plan estratégico de IA de Cataluña (Gencat, aprobado el 02/28/2020). Decana del COEINF (2023) y ex vicedecana de Big Data, Ciencia de Datos e Inteligencia Artificial (2017-2020-). Secretaria y cofundadora del centro de investigación en Ciencia inteligente de datos e Inteligencia Artificial (IDEAl) (cot 2017-). Fundadora de la Comisión dones COEINF para la brecha de género en Ingeniería Informática (mayo 2018-), miembro de la comisión de género de la Intercolegial (2019-) y otras comisiones de género. Miembro electo de la junta directiva de la Intl Environmental Modeling and Software Society (IEMS, a partir de julio de 2016). Asesora del High Level Expert Group de Inteligencia Artificial de la Comisión Europea (septiembre de 2019-) en temas de ética de la Inteligencia Artificial y del Senado Español.

Explicabilidad o la inserción del dato en los procesos de decisión

JOAN VIDAL

Director de Risk Analytics en CaixaBank

Joan Vidal es licenciado en matemáticas por la Universitat de Barcelona, posgraduado en matemáticas financieras por la UPC y MBA por el Instituto de Empresa. Tras unos años de docencia en la Facultad de Matemáticas de la Universidad de Barcelona, inició su trayectoria de +20 años en el sector financiero (principalmente Santander y CaixaBank), siempre vinculado a los aspectos de modelización de riesgos. Actualmente es director de Risk Analytics en CaixaBank, donde, entre otras cosas, ha liderado la transición al desarrollo y uso de modelos de machine learning para los procesos de gestión del riesgo de crédito.

JAVIER MATAMOROS

Arquitecto de IA en CaixaBank Tech

Javier Matamoros Morcillo, PhD (Sabadell, 1982). Javier es ingeniero de telecomunicaciones por la UPC (2005) y Doctor en procesado de señales por la UPC (2010 – Cum Laude). Antes de unirse al grupo CaixaBank trabajó como investigador durante +10 años en el CTTC (Centre Tecnològic de Telecomunicacions de Catalunya). Durante este periodo realizó numerosos trabajos de investigación sobre optimización distribuida, estimación distribuida y teoría de la información aplicada a diferentes verticales (IoT, comunicaciones, ML, y Smart Grids). Además dirigió 3 Tesis doctorales y participó en varios proyectos de investigación nacionales e europeos con diferentes roles (Researcher y Principal researcher). Durante este tiempo publicó varios artículos de investigación en revistas y congresos de alto impacto (+50, h-index 15). En 2017 se unió al equipo de Cognitive de CaixaBank para dar soluciones transversales de IA al grupo. En 2020, Javier se unió a CaixaBank Tech, donde su rol es de Arquitecto de IA y technical lead. Durante este tiempo ha participado en el diseño y desarrollo de soluciones de vanguardia de IA con alto impacto en la organización.

Integrando la IA en CaixaBank: Transparencia, eficiencia e innovación

CaixaBank, siempre pionera en el uso de las nuevas tecnologías, lleva impulsando con fuerza el uso de la IA en diferentes verticales dentro de la organización. En esta sesión explicaremos varias aplicaciones y retos, desde modelos con alta exigencia por parte del regulador, como son los modelos de rating, hasta el uso de la IA en aplicaciones transversales.

En primer lugar repasaremos los principales retos que se han abordado y superado por el equipo de modelización de riesgos. Estos retos conllevan, desde los aspectos relacionados con las metodologías de modelización, hasta los elementos esenciales para conseguir la confianza de los usuarios y el regulador. Entre ellos, se encuentran la explicabilidad, fairness y gobernanza, que forman parte ahora del hype sobre AI Ethics y potenciales regulaciones a la inteligencia artificial.

Continuaremos la sesión con unas pinceladas sobre el uso de la IA en la organización de forma transversal. En esta línea, el CoE IA de CaixaBank Tech explicará diferentes aplicaciones dentro de la organización. Comenzaremos con el uso de técnicas computer vision y NLP para la automatización de la gestión documental. Finalmente, exploraremos los potenciales usos de algoritmos fundacionales/ LLMs dentro de nuestra organización.

Presenta

GEMMA BATLLE

Business Development Manager, Eurecat

Gemma Batlle, Responsable desarollo de negocio TIC y sector publico en EURECAT (Centro Tecnologico de Cataluña). Ingeniera superior de Telecomunicaciones de la Salle, MBA por BES La Salle, Universidad Ramon Llull, de Barcelona y Postgrado de automatización y control de edificios para BES La Salle. Miembro junta directiva Clúster Digital De Cataluña en Eurecat es responsable del sector TIC, y AAPP. Sus esfuerzos actuales se dirigen hacia el establecimiento de patrones de colaboración y negocio entre empresas de base tecnológica para promover y crear ideas y proyectos innovadores para el sector TIC. Previamente ha trabajado como jefe de desarrollo de negocio de La Salle Parque de Innovación, responsable de identificar las diferentes áreas del conocimiento y la innovación para proseguir la colaboración entre las empresas. Anteriormente, trabajó como coordinadora de Área de Innovación Tecnológica en Edificación, en La Salle URL división de Transferencia de Tecnología.

The post 11.45h a 12.45h <br>Explicabilidad y confianza, claves para escalar la IA appeared first on AI & Big Data Congress.


Artículo de andrea.rius publicado en https://aicongress.barcelona/es/xpai/