En los últimos meses, expertos de renombre, incluyendo líderes de OpenAI y Google DeepMind, han emitido advertencias sobre los posibles riesgos de la inteligencia artificial (IA), incluso llegando a mencionar la amenaza de la extinción humana. Este llamado a la precaución se suma a la creciente discusión global sobre la regulación de la IA y su impacto en la sociedad.
Según una declaración publicada en la página web del Centro para la Seguridad de la IA, mitigar el riesgo de extinción a manos de la IA debería ser una prioridad mundial, equiparando este peligro con otros desafíos sociales como las pandemias y la guerra nuclear. El respaldo de figuras destacadas, como Sam Altman de OpenAI y Demis Hassabis de Google DeepMind, subraya la gravedad del debate.
No obstante, existe una corriente de expertos, liderada por el profesor Yann LeCunn de la Universidad de Nueva York, que considera estas advertencias como exageradas. LeCunn, junto con Geoffrey Hinton y Yoshua Bengio, ha contribuido significativamente al campo de la IA y defiende que las preocupaciones actuales son prematuras.
Arvind Narayanan, informático de la Universidad de Princeton, es uno de los críticos de las advertencias apocalípticas. En marzo pasado, afirmó a la BBC que la IA actual no posee la capacidad suficiente para materializar estos riesgos y que el enfoque debería centrarse en los daños a corto plazo, como el sesgo en los sistemas.
El debate se intensifica con la cobertura mediática de la supuesta amenaza "existencial" de la IA, especialmente desde la publicación de una carta abierta en marzo de 2023, firmada por expertos, incluyendo a Elon Musk de Tesla.
La carta plantea la pregunta fundamental: ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo?
En contraste, la nueva declaración del Centro de la Seguridad de la IA busca abrir el debate, comparando la superinteligencia con el riesgo de una guerra nuclear. Esta perspectiva se ha discutido anteriormente en un blog de OpenAI, sugiriendo una regulación similar a la energía nuclear en el futuro.
Figuras influyentes como Sam Altman y Sundar Pichai, director ejecutivo de Google, participan en un lobby que aboga por la regulación de la IA. En una reunión con líderes mundiales, el primer ministro británico, Rishi Sunak, destacó los beneficios de la IA para la economía y la sociedad, pero subrayó la necesidad de establecer límites y regulaciones para garantizar la seguridad.
La cumbre del G7 en Japón, celebrada a mediados de mayo, resultó en la creación de un grupo de trabajo sobre IA, evidenciando la creciente importancia de abordar esta cuestión a nivel internacional. A medida que la IA continúa avanzando, el debate sobre los riesgos y la necesidad de regulación se intensificará, definiendo el camino futuro de esta tecnología innovadora.
Envía tu noticia a: participa@andaluciainformacion.es