Frente a quienes piensan que la IA se está estancando, un concepto da nuevas esperanzas: la función sigmoide
El lanzamiento de GPT-2, GPT-3 y GPT-4, los LLM de OpenAI, ha seguido siempre el mismo patrón: se entrenaban en centros de datos cada vez más grandes y potentes, y lo hacían también con más y más datos. Cada modelo era notablemente mejor que el anterior, así que todos creíamos que ese proceso de escalado …