Авторский комментарий
Этот подход хорошо работает для отдельных функций с короткими аргументами. Однако, когда длина аргументов увеличивается, LLM склонны сокращать или обобщать текст, что может привести к потере важных деталей. Передача всего исходного запроса пользователя в качестве контекста может добавить "шум" и снизить точность извлечения аргументов.
Можно ли считать одним из измерений интеллекта "понимание, какие функции использовать и с какими значениями параметров", где пределом служит "доступные функции"?
Также посмотрите: