En la frontera de la Inteligencia

Coincido en que es muy difícil para los humanos, incluso para quienes crearon la tecnología, prever todos los peligros y problemas potenciales

Carlos de Icaza

Albert Camus, al recibir el Premio Nobel de Literatura en 1957, dijo en su discurso de aceptación: «…cada generación se cree destinada a rehacer el mundo. La mía sabe, sin embargo, que no podrá hacerlo. Pero su tarea es quizás mayor. Consiste en impedir que el planeta se deshaga». 

A más de seis décadas de distancia, nos encontramos frente a una disyuntiva similar. Sabemos que tampoco podremos cambiar este mundo cada vez más complejo y dividido. Pero también estamos obligados a evitar que se destruya.

En esta perspectiva, no me refiero solamente a los graves conflictos que acechan la convivencia pacífica internacional, ni a los inmensos retos globales que urge enfrentar mejor. Estamos en el umbral de una nueva era que puede transformar positivamente la sociedad mundial, aprovechando los grandes avances tecnológicos para el bien de la humanidad.

No obstante, la Inteligencia Artificial (IA) es una espada de dos filos que, si no se regula y supervisa correctamente, puede también llevarnos a un futuro incierto donde se comprometa nuestra capacidad de controlar esta formidable tecnología. No me cabe duda de que este es el mayor reto que enfrenta actualmente nuestra especie.

Yuval Noah Harari, el célebre historiador israelí, en una entrevista de la semana pasada a The Guardian, comentó que la IA es diferente a todas las tecnologías previas, ya que es la primera «que puede tomar decisiones por sí misma, que puede crear nuevas ideas por sí misma y que puede aprender y desarrollarse por sí misma». De ahí, coincido en que –casi por definición– es muy difícil para los humanos, incluso para quienes crearon la tecnología, prever todos los peligros y problemas potenciales.

En un estudio preparado para las discusiones que tuvieron lugar a principios de este mes en la Cumbre de seguridad de la IA en Reino Unido, y que está disponible en el sitio web montado por el gobierno británico (UK: AI Safety Summit 2023), se explica que existen importantes riesgos de seguridad en la denominada Inteligencia de Frontera. Este nuevo concepto se refiere a modelos de IA de uso general altamente capaces, que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en el modelo más avanzado de la actualidad.

En las conclusiones del estudio se apunta que el progreso reciente en la Al de frontera ha sido rápido e impresionante. Según esto, no se puede predecir cuáles capacidades específicas surgirán a medida que la tecnología mejore. Hay muchas oportunidades derivadas de estas innovaciones, que sólo pueden aprovecharse cabalmente si se mitigan los riesgos.

En conclusión, el documento británico afirma que aún no se han establecido estándares de seguridad adecuados para estos posibles riesgos futuros. Por lo tanto, es importante comprender mejor los riesgos, de modo que los gobiernos y las empresas tecnológicas puedan coordinarse eficazmente para prevenirlos y mitigarlos lo mejor posible, y trabajar a nivel internacional para regular y supervisar eficazmente la IA.

También te puede interesar