• 03/07/2024 09:40

10.15h a 11.00h EXPLICABILIDAD: AVANCES EN MODELOS DE CAJA NEGRA

Tiempo estimado de lectura: 2 minutos, 39 segundos

EXPLICABILIDAD: AVANCES EN MODELOS DE CAJA NEGRA

10 octubre 2024 | 10.15h a 11.00h | Sala 1

La explicabilidad es un aspecto crucial de la IA, especialmente en la evaluación de resultados obtenidos con modelos de caja negra que suelen ser difíciles de comprender e interpretar, debido a una complejidad interna que a menudo permanece oculta.

Para conseguir una adopción a escala de las soluciones basadas en IA, es necesario construir una relación de confianza con el usuario. La explicabilidad de la IA es un elemento clave en esta relación, puesto que permite dilucidar las decisiones que toman los modelos y ofrece información complementaria de valor. Asimismo, es un elemento crucial para obtener algoritmos auditables.

En esta sesión veremos los últimos desarrollos y ejemplos de técnicas que profundizan en la explicabilidad de la IA con el objetivo de avanzar hacia un uso fiable y cada vez menos opaco.

Participan:

Toni Manzano, CSO and co-founder, Aizon

Vasja Urbancic, Lead Data Scientist, Intelygenz

Ponentes

TONI MANZANO

CSO and co-founder, Aizon

Es el cofundador y CSO de Aizon, una empresa en la nube que proporciona una plataforma SaaS de IA para la industria biotecnológica y farmacéutica. Es miembro del Consejo Asesor de Asuntos Reguladores y Calidad de la PDA, colaborador activo en la iniciativa de IA para AFDO e imparte asignaturas de IA en la Universidad (URV y OBS), experto de Naciones Unidas en temas de IA para Ciencias de la Vida. Ha escrito numerosos artículos en el ámbito farmacéutico y posee una docena de patentes internacionales relacionadas con el cifrado, la transmisión, el almacenamiento y el procesamiento de grandes volúmenes de datos para entornos regulados en la nube. Toni es Físico, Máster en Sociedad de la Información y el Conocimiento y Postgrado en Sistemas de Calidad para la fabricación y la investigación de procesos farmacéuticos.

IA en productos biofarmacéuticos: cuando la explicabilidad del modelo se convierte en un requisito

La industria farmacéutica ha sido siempre muy conservadora, en parte debido a la regulación que obliga a disponer de elevados niveles de calidad en el producto final. Pero la implementación de IA en procesos industriales requiere robustez y alta disponibilidad y por ese motivo, el cloud se presenta como una alternativa potente para dar respuesta a los requerimientos industriales. Por otro lado, la regulación existente no acepta la interpretación de los modelos de IA como «cajas negras» y todo el proceso debe estar validado. La utilización de estándares como ONNX para la gestión de modelos de IA en el cloud ha resultado clave para alinear los requerimientos regulatorios con la alta disponibilidad de los outputs de los modelos en entornos industriales.

VASJA URBANCIC

Lead Data Scientist, Intelygenz

Vasja tiene una formación académica en ciencias de la vida, habiendo estudiado Biología Molecular en la Universidad de Bath y completado su doctorado y postdoc en Neurobiología del Desarrollo en la Universidad de Cambridge, estudiando los procesos de desarrollo implicados en la construcción de redes neuronales biológicas . Vasja empezó su carrera en ciencia de datos en 2016, primero completando el programa de formación en ciencia de datos S2DS en Londres (año 2017) y trabajando en Data Science en una empresa de consultoría (Tessella) de 2018 a 2019. Ha sido en Intelygenz desde 2019, trabajando en una variedad diversa de proyectos que abarcan el procesamiento del lenguaje natural, la visión por computador y la generación de imágenes. En los últimos 18 meses, ha trabajado para un cliente del sector fintech ayudando a construir una solución para detectar y prevenir transacciones fraudulentas en tiempo real.

Fraud AI: Una solución eficaz e interpretable para la detección de fraudes

Hemos implementado una solución de detección de fraude altamente eficaz para una importante institución fintech. Los retos técnicos implicados han incluido la exigencia de cubrir un volumen elevado de transacciones (millones al día, hasta 150 por segundo) a una latencia muy baja para permitir al cliente utilizar la solución para la prevención del fraude en tiempo real en el momento de la transacción. La implementación de esta solución requirió precalcular un gran número de funciones interpretables basadas en transacciones anteriores de las cuentas de clientes y comerciantes involucradas en la transacción. Además, era muy importante que la solución no se presentara como caja negra, sino que ofreciera explicabilidad de predicción, es decir, la importancia de las características que contribuyen individualmente, no sólo a escala global (conjunto de datos), sino también a escala local, específicas de cada transacción. Por esta razón, hemos utilizado una combinación de un algoritmo basado en árboles de aumento de gradiente de alto rendimiento y métodos de interpretación post-hoc basados en valores SHAP.

The post 10.15h a 11.00h <br>EXPLICABILIDAD: AVANCES EN MODELOS DE CAJA NEGRA appeared first on AI & Big Data Congress.


Artículo de ana.vazquez publicado en https://aicongress.barcelona/es/explicabilidad-avances-en-modelos-de-caja-negra/