Judea Pearl (Tel Aviv, 1936) se ríe cuando le presentan como el padre de la inteligencia industrial y rechaza la fórmula. Sin incautación, compara el mejora de las máquinas con la crianza de los hijos y cree que los ordenadores deberían considerarse como una nueva engendramiento de niños a los que hay que formar y educar con la esperanza de que se ajusten al sistema de títulos de sus padres, los humanos.
Y es en esa raya en la que destaca la tributo de este ingeniero computacional y filósofo: ha traducido a habla matemático el razonamiento probabilístico y las relaciones causa-efecto para que los robots aprendan a pensar como lo hacen los seres humanos y comprendan la verdad de su entorno y no sólo acumulen datos como ocurre con la inteligencia industrial basada en deep learning.
Sus contribuciones conceptuales y matemáticas -con implicaciones en el ámbito de la informática e inteligencia industrial (IA) pero todavía en estadística, psicología, epidemiología y las ciencias sociales- le han respetado diversos y destacados galardones, entre ellos el premio Fundación BBVA Fronteras del Conocimiento en Tecnologías de la Información y la Comunicación, que le fue entregado el pasado jueves 16 de junio en Bilbao y propició esta entrevista con La Vanguardia.
¿Cuál diría usted que ha sido su contribución a la expansión de herramientas de inteligencia industrial que vivimos?
Sólo he trabajado sobre dos problemas que he pensado que merecían un desafío por mi parte: cómo abordamos en inteligencia industrial todo el ruido y el entorno tan incierto que vemos a nuestro en torno a cuando tomamos decisiones -que es poco que las personas hacemos todo el día-, y la relación causa-efecto. En eso sabemos que tenemos una teoría admisiblemente definida que no he manido en ninguna otra ámbito de la inteligencia industrial.
¿Puede ponerme un ejemplo práctico?
Puedo darte un ejemplo de una nueva aplicación que no se ha tocado ayer. No puedo proponer que se esté usando ya, pero sí que es un ámbito extraordinariamente prometedora: la medicina personalizada y la toma de decisiones personalizadas. Sabemos cómo hacer que la inteligencia industrial tome datos de distintas fuentes y te ofrezca información acerca de un individuo concreto, no de la población en militar ni una media o una mediana, sino, por ejemplo, de si tú vas a beneficiarte de un fármaco o de si ese fármaco va a fracasar contigo.
Otras áreas en que se está utilizando es para ensayar teorías, para descubrir de guisa rápida si la teoría que tienes es compatible con los datos o no. Ese sí es un uso que se está haciendo, constatar qué variable deberías tener en cuenta cuando quieres descubrir respuestas a una pregunta secreto como qué sucederá si aplico determinada medicina, si uso una cierta táctica o una política, qué cambia en la verdad con eso que yo hago.
A los legos nos sorprende todo lo que puede hacer ya la inteligencia industrial y tememos que nos supere y nos desplace en el trabajo, en la toma de decisiones... ¿Qué opina usted?
No diría que hemos de tener miedo de la inteligencia industrial pero sí que hemos de observarla, estar vigilantes. Normalmente utilizo para explicarlo la metáfora de que es como criar a los niños, que todavía son más inteligentes que nosotros. Verdaderamente nos la jugamos con ellos, porque existe la probabilidad de que un hijo nuestro se convierta en un Putin, pero todavía tenemos la oportunidad de que absorban nuestro sistema de títulos, el que compartimos como seres humanos. Pero hay que estar al tanto.
- ¿Quién debería establecer ese sistema de títulos o límites para las máquinas?
Diga lo que diga tendré problemas con los filósofos. Ellos tienen algunas teorías de valía sobre este sistema de títulos y los psicólogos todavía. Pero nosotros, los expertos en inteligencia industrial, tenemos una mejor porque sabemos cómo aplicar un sistema de títulos a una máquina, como juguetear con distintas teorías y ver si encajan. Así que finamente serán los científicos de computación quienes programen el sistema que permitirá a robots compartir principios, comunicarse como con un nene para transmitir esos títulos de una guisa congenial, concorde a su condición. Se hará en inteligencia industrial ayer de que lo resuelva el campo de la filosofía.
- ¿Y cada desarrollador decidirá qué títulos aplica o deberían consensuarse?
Creo que debería acontecer consenso. Deberían celebrarse conferencias y crearse comités sobre la cuestión de cómo puntualizar un sistema de títulos, cómo comunicarlo y cómo comprobar de otorgarle a un androide los principios que queremos que tenga. Debería acontecer un debate continuo del sistema de inteligencia industrial, con los científicos sociales y los filósofos todavía participando. Pero para eso ellos tienen que cultivarse nuestro habla, el de las máquinas, porque es una pérdida de tiempo que vayamos a dialogar sobre Aristóteles para desarrollar este sistema de títulos, porque Aristóteles no tenía un ordenador.
- Usted ha permitido a las máquinas establecer relaciones causa-efecto. ¿Cree que todavía podrán algún día razonar e imaginar?
Hoy ya lo hacen. Establecer la relación causa-efecto es razonar, y el nivel contrafactual (la simulación mental de diferentes alternativas que pudieron haberse cedido y que no se dieron) es su imaginación. Por ejemplo: sabiendo que el avión no salió a tiempo, ¿qué habría pasado si hubiese surgido a su hora, se hubiese llegado a la reunión y se hubiera hecho una liquidación estupenda? Eso es la imaginación de la inteligencia industrial, pensar en los caminos que no se han tomado.
- Usted parece dar por seguro que cualquier cosa que podamos hacer los humanos todavía serán capaces de hacerla las máquinas. ¿Todavía reparar y comprender emociones?
Sí, y no soy la primera persona que lo dice. Marvin Minsky lo explicaba en su tomo La máquina de las emociones (Debate). De hecho las emociones son fáciles de programar, lo que no es tan casquivana es controlar las emociones.
- ¿Significa eso que los robots podrán sustituir a las personas? ¿En qué plazo podemos ver todo eso?
No sé cuánto tardará, pero la respuesta es sí, en muchas áreas. No veo ningún tipo de impedimento teórico para que esto suceda. El cuándo va a suceder no lo sé, no soy futurista, soy sabio incremental; demuestro solo una teoría cada vez y sólo avanzo las cosas que puedo demostrar.
- ¿Y no deberíamos regular límites a su mejora ayer de que nos superen?
Como he dicho ayer, hay que observar, estar expectantes. No creo que ahora podamos regular nadie porque en este momento no sabemos qué es lo que hemos de regular, es prematuro. Quienes quieren regular primero tienen que entender los sistemas.
- Hay quien cree que, en el ámbito del mejora tecnológico, no todo lo posible es deseable. ¿Qué piensa usted? ¿Se ha de seguir avanzando en máquinas más listas y eficientes?
Siquiera lo podemos detener. La ciencia avanza hagamos lo que hagamos, porque cultivarse acerca de las máquinas es cultivarse acerca de nosotros mismos, y no puedes amurallar el deseo de las personas de entender las cosas.
- La cuestión es que hoy ya se utilizan algoritmos que toman decisiones que luego las personas no entienden ni saben explicar. ¿No sustancia eso mucho aventura? ¿Quién se responsabilizará de esas decisiones?
Aquí hay dos cuestiones. La primera, el hacer que una maquina sea explicable, y ahí entra en engranaje mi teoría de causa-efecto. No puedes tener un sistema que explique sus recomendaciones a no ser que la máquina tenga un maniquí causal del mundo, que la máquina entienda cuales son las implicaciones de las decisiones para el mundo vivo, no solo a nivel de datos. Y hoy lo que tenemos y se utiliza son máquinas de big data, que no entienden el mundo, solo los datos, y ese es maduro obstáculo que tenemos en la hogaño. Una vez que las máquinas estén equipadas para entender la verdad tendremos un sistema explicable.
¿Y respecto a la responsabilidad de sus decisiones?
Es una combinación de responsabilidades. Si colocas un maniquí inexacto de la verdad en una máquina y por ejemplo la haces funcionar en pulvínulo a fuerzas sobrenaturales de modo que su recomendación para conseguir que te den un préstamo sea 'vete a rezar', el responsable es el programador que ha asumido el aventura de describir la verdad en términos de fuerzas sobrenaturales. Pero por otra parte del maniquí de verdad hay que aplicar la método correcta para conectarla con los datos, de modo que son responsables tanto quien proporciona el maniquí de verdad como quienes conocen la método de conectarla con los datos.
- ¿Usted se dejaría cuidar por un androide o dejaría en manos de una inteligencia industrial decisiones sobre su trabajo o su sanidad?
Si el androide lee ayer mi tomo, sí.
¿Por qué?
Porque la inteligencia industrial causal es mucho más transparente (y comprensible)
-¿Y qué pueden hacer los ciudadanos para ceñir los riesgos que comporta la expansión de los sistemas de inteligencia industrial?
Educarse poco de tecnología. Todas las personas preocupadas con las implicaciones sociales de la inteligencia industrial deberían cultivarse filosofía de la ciencia, la epistemología, cómo adquirimos el conocimiento, que nos hace creer que lo que sabemos es verdad, cómo podemos comunicar el conocimiento para así poder dialogar de forma coherente y no solo manotear sobre el tema.
Publicar un comentario