Robin Sloan dice que la AGI (Artificial General Intelligence, la supuesta meta a la que todas las empresas de IA están buscando llegar) ya está aquí:
La encuesta de 2025 sobre interpretaciones de la AGI de Jasmine Sun es lectura obligatoria sobre el tema, y no solo por su ya inmortal frase…
La IA descubrió proteínas completamente nuevas antes de poder contar las “r” en “strawberry”, lo que la convierte en algo que no es ni vaporware ni un semidiós, sino una tercera cosa secreta.
… y aun así, al final Jasmine deja la pregunta abierta, y yo preferiría cerrarla.
El truco está en leer literalmente.
La palabra clave en Artificial General Intelligence es General. Esa es la palabra que hace que esta IA sea distinta de cualquier otra: porque todas las demás IA fueron entrenadas para un propósito específico y, incluso cuando lo lograron de forma espectacular, no hicieron nada más. Considera modelos emblemáticos a lo largo de las décadas: Mark I Perceptron, LeNet, AlexNet, AlphaGo, AlphaFold… estos sistemas eran distintos entre sí, pero todos compartían esta característica.
Los modelos de lenguaje también fueron entrenados con un propósito… pero, sorpresa: el mecanismo y la escala de ese entrenamiento hicieron algo nuevo: abrieron un túnel, a través del cual se puede acceder a un vasto campo de acción y respuesta. Bibliotecas gigantescas de escritura humana, reunidas a lo largo del tiempo y el espacio, por todas las razones más tontas… eso es un combustible riquísimo, si puedes mantenerlo todo en la cabeza.
Aunque un LLM todavía no puede hacerlo todo, sí puede hacer mucho:
Los modelos grandes todavía tienen limitaciones severas: el amplio dominio de lo físico —es decir, la mayor parte del universo— les está cerrado, y aun dentro del cómodo reino de lo simbólico, muchas tareas y procesos los confunden. Podría decirse que los modelos grandes poseen una generalidad inmediata prodigiosa, distinta de la generalidad eventual e implacable de un ser humano diligente. En esto, por ejemplo, se enfoca el investigador François Chollet: rompecabezas nunca antes vistos que tú y yo podemos resolver en cuestión de minutos, mientras que un modelo grande se atasca y se sobrecalienta.
Y aun así, puedes leer el artículo de François de 2019, On the Measure of Intelligence —y deberías hacerlo—, estar mayormente de acuerdo con él —yo lo estoy—, y aun así notar que, en los años desde su publicación, los modelos grandes se han vuelto REALMENTE MUY SALVAJEMENTE GENERALES.
La AGI ya está aquí, y aún quedan muchos objetivos jugosos por delante. ¿Por qué alguien esperaría lo contrario? François plantea exactamente este punto en su artículo: la universalidad no es un requisito para la generalidad. No puede serlo, porque no es posible.
Si seguimos cambiando el definition of done con cada commit, nunca vamos a terminar el chingado proyecto.
Deja un comentario