• 03/12/2022 23:51

El reto de una inteligencia artificial (con)fiable

Tiempo estimado de lectura: 3 minutos, 5 segundos

Roberto Ruiz Oliva.- EFEverde.- La inteligencia artificial (IA), cada vez más presente en sectores de la industria, la automoción, la salud o la mercadotecnia, está llamada a ser una de las revoluciones de este siglo, aunque su desarrollo futuro está a su vez condicionado a su capacidad para ser confiable, transparente, explicable y ética.

Situar al ser humano en el centro de la tecnología, sin dejar atrás aspectos sobre regulación y ética, resulta clave para que esta disciplina con grandísimo potencial siga avanzando en la mejora de la calidad de vida de los ciudadanos, preservando los derechos fundamentales y la privacidad de las personas.

Así lo han expuesto, en una entrevista conjunta con EFE, el profesor titular de Filosofía y experto en ética tecnológica Francisco Damián Lara y el catedrático de Ciencias de la Computación e Inteligencia Artificial Francisco Herrera.

Este último, uno de los de los científicos españoles más influyentes del mundo en el ámbito de la informática y la ingeniería, ha explicado que una IA «confiable» debe basarse en tres pilares: el desarrollo de sistemas conforme a la ley, la ética y un correcto funcionamiento que prevea medidas ante cualquier efecto adverso.

A estos tres pilares fundamentales, se suman otros siete requisitos que se piden a los sistemas inteligentes: intervención humana, robustez, gestión de la privacidad de datos, transparencia, diversidad y no discriminación, bienestar social y medioambiental y rendición de cuentas.

«Con esos siete requisitos, además de los tres pilares anteriores, que dependerán de cada escenario, el gran reto de la IA es la transparencia, que quienes la usen puedan comprender cómo es la toma de decisiones y así la entiendan y confíen en ella», ha señalado Herrera, partidario de avanzar en esa línea de fiabilidad en un ámbito en el que queda muchísimo por desarrollar y donde «solo estamos viendo la punta del iceberg».

El catedrático de Ciencias de la Computación e Inteligencia Artificial Francisco Herrera (i) y el profesor titular de Filosofía y experto en ética tecnológica Francisco Damián Lara (d), durante una entrevista con EFE, en la Zubia, Granada. EFE/Pepe Torres.

Cuarta revolución

En el mismo sentido, Lara apunta que los expertos en ética se encuentran «abrumados», dado que lo está por venir es «tremendo»: «Nunca la humanidad se ha enfrentado a retos tecnológicos tan grandes, es una cuarta revolución industrial que afecta a los valores esenciales», ha señalado.

«¿Hasta qué punto la inteligencia artificial puede suponer ciertas discriminaciones por cuestiones técnicas? ¿Si entrenas a una máquina con datos históricos ya sesgados, acabará por repetir tales sesgos?», se ha preguntado este experto, quien defiende el diseño de sistemas de IA que no supongan, por ejemplo, una amenaza a la igualdad.

Casos en China, donde existen cámaras de vigilancia controladas mediante IA para el reconocimiento facial e incluso un sistema de crédito social por puntos para comprobar la fiabilidad y la honradez, ponen en evidencia que la tecnología puede por tanto coaccionar a los ciudadanos o restringir sus libertades.

También existen otras formas de manipulación menos explícitas, como aquellas que inducen determinados comportamientos, usan las redes sociales para dirigir el voto o para generar una mayor adicción en la ciudadanía, ha explicado Lara, para quien esta realidad pone «muchos valores esenciales en juego».

«Hay problemas éticos a largo plazo, cuando se plantea hasta qué punto la inteligencia artificial podría cambiar al ser humano», ha sentenciado.

Una regulación necesaria

En este contexto, especialmente China y también Estados Unidos están «mirando hacía Europa», ha explicado Herrera, a la hora de trabajar en un modelo de regulación sobre la IA, que aplique principios éticos en su desarrollo.

«En Europa probablemente exista una defensa mayor de las democracias y el Estado de Derecho, se apuesta más por la no discriminación y la solidaridad entre ciudadanos. Tenemos unos principios de respeto hacia la persona que nos va a llevar a una regulación», ha explicado el catedrático, quien precisamente forma parte del Consejo Asesor de Inteligencia Artificial de España y que es además concejal de Ciencia e Innovación en Granada.

En este ámbito, ha recordado Herrera, el Gobierno negoció con la Unión Europea ser país piloto sobre esta materia, que cuenta con una Secretaria de Estado específica sobre IA y que prevé la creación de una Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuya sede física aspira acoger la ciudad de Granada.

España se convertirá de esta forma en el primer país de la Unión Europea con una agencia estatal de supervisión y se antepondrá a la entrada en vigor del futuro Reglamento europeo de IA.

«No estamos hablando de una inteligencia artificial que sustituya al humano, va a colaborar con él. Y para que confiemos en ella tiene que tener unas garantías éticas y técnicas», ha insistido Herrera, mientras que Lara cree igualmente que la confianza es precisamente la clave y «cemento» de la sociedad en a todos los niveles.

«El reto de la inteligencia artificial es el de la confianza. Es importante que nos tomemos en serio explicar cómo una maquina ha podido aprender, que sea transparente, si es capaz de ser autónoma, cómo se respondería si genera un daño, quién paga el jarrón roto», ha señalado este experto en ética tecnológica, que concluye que es «urgente» investigar y llegar a conclusiones sobre esta materia. EFEverde

© Universidad de Granada

Sigue a EFEverde en Twitter

La entrada El reto de una inteligencia artificial (con)fiable se publicó primero en EFEverde.

Acerca del autor:
Tell us something about yourself.

Artículo de generico publicado en https://efeverde.com/reto-inteligencia-artificial/

Generated by Feedzy