Es la primera vez que imparte una conferencia en su tierra. Es lo que tiene pertenecer a la generación de cerebros ‘fugados’. El de Pablo Rosado (Jerez, 1986) ha recorrido varios países. Después de estudiar Física en la Universidad de Sevilla se trasladó a Alemania, donde terminó la carrera, y luego hizo el doctorado —en ondas gravitacionales— en el instituto Max Planck de Física de la Gravitación, también llamado Albert Einstein. También hizo un máster en Física Nuclear, e incluso llegó a ganar un prestigioso concurso, el Fast Forward Science, que premia vídeos que versan sobre ciencia e investigación. En Australia, donde estuvo hasta el año pasado, hizo un postdoctorado en el Centro de Astrofísica y Supercomputación de la Universidad de Swinburne (Melbourne), y ahora trabaja en Barcelona como data scientist para una consultora alemana, GFT, que aplica inteligencia artificial para hacer las cosas más fáciles a sus clientes del sector financiero.
Es difícil predecir adonde nos lleva la inteligencia artificial, pero a corto plazo creo que podremos tener coches autónomos“Soy una persona polifacética”, se autodefine Rosado. “No me haría llamar astrofísico, ni data scientist, porque he probado diferentes campos”, explica. “También me gusta hacer vídeos y música, de hecho estuve en el Conservatorio Profesional de Música de Jerez”. Su sueño, dice, sería poder dedicarse al mismo tiempo a la música y a la ciencia, “pero es difícil encontrar algo así”, por lo que de momento se centra en lo segundo. A su ciudad natal viene a hablar de inteligencia artificial, en una conferencia ofrecida en el Ateneo de Jerez, donde no se cabe para escucharlo.
¿Cómo explicaría brevemente qué es la inteligencia artificial?
La computación clásica consiste en que al ordenador le metes reglas y le dices que si ocurre una condición, haga una tarea. El machine learning se basa en que la máquina crea sus propias reglas de manera que va optimizando su conocimiento. El ejemplo clásico consiste en entrenarla con imágenes de perros y gatos. La red neuronal crea sus propias reglas internas y cuando le metes una imagen nueva es capaz de reconocer al perro o al gato.
¿Qué aplicaciones puede tener la inteligencia artificial en un futuro inmediato?
Está cambiando todo muy rápidamente y es difícil predecir adonde nos lleva. Pero a corto plazo creo que podremos tener coches autónomos, que nos pueden dar miedo, pero van a salvar muchísimas vidas, porque los accidentes son la segunda causa de muerte en España, y los coches autónomos nunca van a estar borrachos ni van a sobrepasar el límite de velocidad. No van a fallar tanto como los seres humanos. Eso va a pasar pronto, pero depende de las compañías automovilísticas. Hay muchas posibles aplicaciones en medicina, donde el objetivo no es reemplazar al médico, sino ayudarlo y hacer diagnósticos más precisos. El doctor tiene que basarse en unos pocos gráficos o en su intuición, pero no tiene la capacidad de haber visto millones de casos similares, mientras que a una máquina la puedes entrenar con muchísimos datos de pacientes sanos y enfermos para que sea capaz de decir qué paciente tiene riesgo de padecer una determinada enfermedad.
Hablar de inteligencia artificial suena futurista, ¿cree que somos conscientes de la que nos rodea en la actualidad?
La gente llama inteligencia artificial a todo lo que vendrá en el futuro, los coches autónomos, los robots que hablan… pero no a las cosas que ya tenemos, como que nuestro móvil detecte caras, que organice tus fotos según el contenido, o que puedas hablar con un bot. Todo eso ya es inteligencia artificial, pero es algo tan mundano que no lo llamamos así.
¿Está justificado el miedo que pueden tener muchas personas a esta tecnología?
Es razonable que la gente tenga miedo porque es una tecnología disruptiva, nueva, y con muchas posibilidades, tanto para buenas aplicaciones como para algunas poco éticas y perjudiciales para la humanidad, como podrían ser las armas autónomas. Todo esto es peligroso. Lo podemos comparar con la tecnología nuclear, que tiene muchas aplicaciones en el campo de la energía, en medicina, pero también tiene aplicaciones como las bombas nucleares, que han matado a muchas personas.
Entonces no es peligrosa la tecnología, sino las manos en las que cae…
Exacto. Al final el peligro no es la inteligencia artificial, sino la ignorancia humana. La inteligencia artificial va a hacer lo que le pidas que haga. La inteligencia artificial es una tecnología disruptiva y tiene el ingrediente añadido de que es accesible a todo el mundo. Ahora ponemos en manos de todo el mundo cosas que, potencialmente, son peligrosas. En ese sentido, hay que andarse con cuidado.
El autor de Sapiens, Yuval Noah Harari, asegura que “la inteligencia artificial expulsará a cientos de millones de personas del mercado laboral y las convertirá en una nueva clase inútil”. ¿Está de acuerdo con esta afirmación?
Espero que no sea cierto. Es decir, hay tecnología, como podría ser internet, que cuando empezó y surgieron los mercados online, la gente decía que no iba a haber tiendas físicas. Ha habido que ir adaptándose al mercado. La inteligencia artificial no va a significar, necesariamente, que nos quedemos sin trabajo. Saldrán nuevos trabajos que no tenemos ahora y habrá que adaptarse a los tiempos nuevos. Es nuestra decisión como seres humanos inteligentes si queremos llegar a ese punto o no. Efectivamente, podríamos reemplazar a todos los seres humanos por máquinas, pero al final son los seres humanos los que compran los productos o los que hacen que las cosas funcionen. Si a la gente no le gusta un producto porque está hecho por una máquina, o no quiere contribuir a ese mercado, nosotros somos los que decidimos si queremos que eso triunfe o no. Y aparte, los gobernantes también tienen que poner regulaciones para evitar que una empresa pueda despedir a personas y poner a un robot. A fin de cuentas, la inteligencia artificial está para ayudarnos. Por otra parte, no veo ningún problema ético en tener esclavos robots. Si haces que sufra dolor, que sea consciente, estás haciéndole daño, pero tenemos que hacer robots esclavos que hagan las funciones que queremos que hagan, si es posible. A lo mejor de forma natural los robots desarrollan su propia conciencia y quieren rebelarse contra nosotros, como pasa en muchísimas películas. Pero yo diría, más bien, que van a estar limitados a lo que nosotros los entrenemos.
Hablando de películas, ¿cuánto daño hace la ciencia ficción a tecnologías como la inteligencia artificial?
De forma natural, tendemos a fijarnos en lo malo. Por eso hay muchas más películas en las que aparece la inteligencia artificial como algo destructivo que en las que sale un mundo ideal.
¿Hay forma de invertir esa tendencia?
Supongo que con un poco de educación, informándose bien y no teniendo miedo a la tecnología. Hay que tener miedo a los humanos que hay detrás usando esa tecnología, eso sí. Al final siempre entendemos que lo malo no es la tecnología, sino el que la usa.
Envía tu noticia a: participa@andaluciainformacion.es