Sam Altman, CEO de OpenAI, ha hablado sobre la superinteligencia artificial (ASI, por sus siglas en inglés). En la cumbre DealBook del New York Times, el directivo ofreció una visión de esta tecnología, una que promete transformar la sociedad, pero que también plantea preguntas fundamentales sobre su impacto, seguridad y regulación.
El creador de ChatGPT considera que la tecnología actual todavía necesita tiempo para realizar tareas que normalmente requieren inteligencia humana, y que aún más cuando se piensa en superar las capacidades.
Qué es la superinteligencia artificial
La superinteligencia artificial es un concepto que se refiere a sistemas de IA con capacidades que no solo igualan, sino que superan ampliamente la inteligencia humana en casi todas las áreas, desde la resolución de problemas hasta la creatividad.
Este nivel de tecnología ha sido el sueño de empresas líderes como OpenAI, Amazon y Nvidia. Sin embargo, expertos aseguran que aún está lejos de convertirse en realidad. Los sistemas actuales, basados en modelos avanzados como ChatGPT, todavía no cumplen con las expectativas de una verdadera superinteligencia.
Según Altman, el objetivo de su empresa es alcanzar la llamada inteligencia artificial general (AGI, por sus siglas en inglés), un paso crucial hacia la ASI. Pero el CEO ha comenzado a moderar las expectativas.
A pesar de su afirmación de que la superinteligencia podría estar más cerca de lo esperado, Altman admitió que “la tecnología actual aún podría tardar unos años en superar a los humanos”.
En sus intervenciones, el directivo destacó que la llegada de la ASI no implicará una disrupción inmediata. “Espero que la disrupción económica dure un poco más de lo que la gente piensa porque hay mucha inercia en la sociedad. Por lo tanto, en los primeros años, tal vez no haya demasiados cambios, luego tal vez muchos”, declaró.
En otro momento, Altman reafirmó su optimismo sobre el futuro de esta tecnología. “La inteligencia artificial general se puede construir, el mundo sigue funcionando prácticamente de la misma manera, las cosas crecen más rápido, pero luego hay una larga continuación, desde lo que llamamos inteligencia artificial general hasta lo que llamamos superinteligencia”, explicó.
Sin embargo, a pesar de su confianza, reconoció que la definición de superinteligencia ahora es “menos ambiciosa” de lo que había sido en años anteriores.
La seguridad de la superinteligencia artificial
Uno de los temas más discutidos en la cumbre DealBook fue la seguridad de los sistemas de IA. Cuando se le preguntó si confiaba en que el gobierno u otros actores encontrarían soluciones para evitar las amenazas existenciales asociadas con la ASI, Altman respondió: “Tengo fe en que los investigadores encontrarán la manera de evitarlo. Creo que hay una serie de problemas técnicos en los que trabajarán las personas más inteligentes del mundo”.
Este optimismo choca con la realidad actual: los sistemas de IA son, en gran medida, cajas negras cuyo funcionamiento interno no siempre es comprensible, incluso para sus creadores. Resolver el llamado problema de alineación, que busca garantizar que los sistemas de IA actúen de acuerdo con los objetivos humanos, sigue siendo un desafío técnico importante.
Altman fue más allá al sugerir que quizás la propia inteligencia artificial podría ser capaz de encontrar soluciones a estos problemas. “Tenemos esta magia… No es magia. Tenemos esta increíble pieza de ciencia llamada aprendizaje profundo que puede ayudarnos a resolver estos problemas tan difíciles”, afirmó.
Otro de los puntos clave de la intervención de Altman fue la regulación. Según el CEO, la gobernanza de la ASI requerirá un esfuerzo conjunto a nivel internacional. “Tendremos que tener cierta fe en nuestros gobiernos… Tendrá que haber una coordinación global… Supongo que estaremos a la altura de las circunstancias, pero parece un desafío”, dijo.