Коментар автора

Цей підхід добре працює для окремих функцій з короткими аргументами. Однак, коли довжина аргументів збільшується, LLM-и схильні скорочувати або узагальнювати текст, що може призвести до втрати важливих деталей. Передача всієї початкової заявки користувача як контексту може внести "шум" і знизити точність вилучення аргументів.

Чи може одним із вимірів інтелекту бути "розуміння того, які функції використовувати і з якими значеннями параметрів", що обмежується "доступними функціями"?

Також дивіться:

  1. https://www.youtube.com/watch?v=dq8MhTFCs80
  2. https://www.youtube.com/watch?v=3-wVLpHGstQ
  3. https://www.youtube.com/watch?v=xlQB_0Nzoog