The Information:

El mes pasado, la firma alemana de $200 mil millones publicó un documento de política para clientes, sugiriendo que les prohibiría el uso de agentes de IA externos para acceder a los datos que almacenan en las aplicaciones de SAP sin el respaldo oficial de la empresa. SAP no especificó a qué agentes de IA se dirigía con la política. Su advertencia podría aplicarse a agentes de IA desarrollados por rivales como Salesforce y ServiceNow, así como a herramientas como OpenClaw.

Parece ser que el movimiento de las plataformas es limitar el uso de modelos y agentes que no hayan sido “aprobados” (o construídos, o desarrollados) por la misma plataforma. Meta está siguiendo este patrón al punto de construir sus propios Data Centers. Fortune:

A medida que el auge de la IA se acelera, Meta ya no ve los centros de datos, las GPU, los contratos de energía y los chips personalizados como mera plomería para sus productos. Los trata como activos estratégicos, más como un asignador de capital que como una empresa de tecnología. En efecto, dijo Dilg, Meta se está posicionando no solo contra otros hiperescaladores, sino contra las plataformas de inversión más sofisticadas del mundo.

A diferencia de los otros hyperscalers, Meta está construyendo toda esta infraestructura para su propio uso, no para rentarla a clientes externos.

Creo que más y más empresas, sobre todo las más grandes, van a apostar fuertemente por limitar el uso de infraestructura externa que no sea vital para su operación. Mercedes-Benz lo está haciendo con SAP:

En otro ejemplo de las nuevas presiones que enfrenta SAP, el cliente de hace mucho tiempo Mercedes-Benz dice que ha reducido sus instancias de SAP —copias del software que usan los empleados— entre un 40% y 600 en los últimos meses, según la Directora de Información Katrin Lehmann. El fabricante de automóviles utilizó sus propios modelos de IA y aquellos de laboratorios de frontera —un término que generalmente se refiere a OpenAI y Anthropic— para limpiar sus datos, incluso en las aplicaciones de SAP, para ayudar a que sus otras herramientas de IA funcionen mejor.

La semana pasada el CEO de Uber, Dara Khosrowshahi, platicó con Nilay Patel en su podcast, entre otras cosas, sobre cómo están diseñando sistemas que efectivamente son agnósticos a modelos de IA. Esta parte de la conversación revela mucho:

Creo que intercambiable es una palabra un poco demasiado fuerte. Sí creo que lo que Anthropic está construyendo, Claude, es espectacular. Nuestros desarrolladores lo usan todo el tiempo. Codex definitivamente está ganando uso por parte de nuestros desarrolladores. Lo que hacemos es usar algunos de los modelos de frontera y algunos de los modelos más avanzados para pilotar, construir demostraciones si quieres construir algo rápido. Y luego lo que buscamos hacer es —es mucho más que una capa de API— tenemos una plataforma, Michelangelo, que tiene todos los flujos de datos, y luego esencialmente puedes cambiar de modelo. Y al principio, cuando estamos tratando de explorar algo, usaremos algunos de los modelos más avanzados, pero luego, una vez que llegas a volúmenes más grandes, intentaremos cambiar por modelos más baratos o modelos de código abierto para controlar los costos y los costos de los tokens en el backend.

Intercambiable es una palabra demasiado fuerte, pero definitivamente experimentamos con varios, y en este punto, nada está codificado de forma fija en nuestros sistemas. Y, francamente, nos aseguraremos de que ninguno de ellos esté codificado de forma fija en nuestros sistemas.

El subtexto de todo esto creo que es el siguiente: no, los modelos de frontera no son necesariamente intercambiables, pero la estrategia de optimizar toda tu empresa y operación para uno solo no tiene mucho futuro.