Коментар автора
Цей підхід добре працює для окремих функцій з короткими аргументами. Однак, коли довжина аргументів збільшується, LLM-и схильні скорочувати або узагальнювати текст, що може призвести до втрати важливих деталей. Передача всієї початкової заявки користувача як контексту може внести "шум" і знизити точність вилучення аргументів.
Чи може одним із вимірів інтелекту бути "розуміння того, які функції використовувати і з якими значеннями параметрів", що обмежується "доступними функціями"?
Також дивіться: