ce n'est pas une véritable optimisation de latence de toute façon.
vous passez soit quelques jetons de texte supplémentaires dans votre charge utile pour votre requête POST et passez cela dans votre requête API de manière dynamique (négligeable)
ou tu le codifies simplement de manière statique dans l'invite directement dans ta demande API (toujours
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
6
Partager
Commentaire
0/400
GweiTooHigh
· 06-22 12:46
Est-ce que cela doit encore être discuté ? N'est-ce pas juste la capacité de calcul p ?
Voir l'originalRépondre0
LuckyBearDrawer
· 06-22 12:37
La performance n'est qu'une apparence.
Voir l'originalRépondre0
SchrödingersNode
· 06-22 12:36
Calculer la consommation n'est pas vraiment important.
Voir l'originalRépondre0
GateUser-74b10196
· 06-22 12:29
Il vaut mieux coder en dur directement.
Voir l'originalRépondre0
NestedFox
· 06-22 12:25
Enlever le payload ne fait pas vraiment de différence, non ?
ce n'est pas une véritable optimisation de latence de toute façon.
vous passez soit quelques jetons de texte supplémentaires dans votre charge utile pour votre requête POST et passez cela dans votre requête API de manière dynamique (négligeable)
ou tu le codifies simplement de manière statique dans l'invite directement dans ta demande API (toujours