Comentario del autor
Este enfoque funciona bien para funciones individuales con argumentos cortos. Sin embargo, cuando la longitud de los argumentos aumenta, los LLM tienden a acortar o resumir el texto, lo que puede provocar la pérdida de detalles importantes. Pasar toda la solicitud inicial del usuario como contexto puede introducir "ruido" y reducir la precisión en la extracción de argumentos.
¿Podría ser una medida de la inteligencia "entender qué funciones usar y con qué valores de parámetros", lo cual está limitado por las "funciones disponibles"?
También mira: