Compare commits

...

4 Commits

Author SHA1 Message Date
Elvis Saravia ecf45e346f
Merge pull request #462 from tgrandguillotte/patch-1
fix examples.fr.mdx
3 weeks ago
Elvis Saravia 005388a893
Merge pull request #475 from lunaczp/bugifx/zh-translate-typo
fix zh  translate typo
3 weeks ago
lunaczp c7c1594427 fix zh translate typo 3 weeks ago
Tommy G 2a7af15962
fix examples.fr.mdx 1 month ago

@ -116,14 +116,14 @@ Sentiment:
Neutre
```
Nous avons donné l'instruction de classer le texte et le modèle a répondu avec `'Neutral'` qui est correct. Rien ne va pas avec cela, mais disons que ce dont nous avons vraiment besoin est que le modèle donne l'étiquette dans le format exact que nous voulons. Donc, au lieu de `Neutral`, nous voulons qu'il retourne `Neutral`. Comment y parvenir ? Il existe différentes façons de le faire. Nous nous soucions de la spécificité ici, donc plus nous pouvons fournir d'informations à la demande, meilleurs seront les résultats. Nous pouvons essayer de fournir des exemples pour spécifier le comportement correct. Essayons à nouveau :
Nous avons donné l'instruction de classer le texte et le modèle a répondu avec `'Neutre'` qui est correct. Rien ne va pas avec cela, mais disons que ce dont nous avons vraiment besoin est que le modèle donne l'étiquette dans le format exact que nous voulons. Donc, au lieu de `Neutre`, nous voulons qu'il retourne `neutre`. Comment y parvenir ? Il existe différentes façons de le faire. Nous nous soucions de la spécificité ici, donc plus nous pouvons fournir d'informations à la demande, meilleurs seront les résultats. Nous pouvons essayer de fournir des exemples pour spécifier le comportement correct. Essayons à nouveau :
*Prompt:*
```
Classez le texte en neutre, négatif ou positif.
Text: Je pense que les vacances vont bien.
Sentiment: neutral
Sentiment: neutre
Text: Je pense que la nourriture était correcte..
Sentiment:
@ -131,10 +131,10 @@ Sentiment:
*Output:*
```
neutral
neutre
```
Parfait ! Cette fois-ci, le modèle a retourné `neutral`, qui est l'étiquette spécifique que je cherchais. Il semble que l'exemple fourni dans l'instruction ait aidé le modèle à être spécifique dans sa sortie. Pour souligner pourquoi parfois être précis est important, jetez un coup d'œil à cet exemple et repérez le problème :
Parfait ! Cette fois-ci, le modèle a retourné `neutre`, qui est l'étiquette spécifique que je cherchais. Il semble que l'exemple fourni dans l'instruction ait aidé le modèle à être spécifique dans sa sortie. Pour souligner pourquoi parfois être précis est important, jetez un coup d'œil à cet exemple et repérez le problème :
*Prompt:*
```
@ -146,7 +146,7 @@ Sentiment:
*Output:*
```
Neutral
Neutre
```
Quel est le problème ici?
@ -212,7 +212,7 @@ let name = prompt("What is your name?");
console.log(`Hello, ${name}!`);
```
Vous pouvez voir que nous n'avons même pas eu besoin de spécifier la langue à utiliser.
Vous pouvez voir que nous n'avons même pas eu besoin de spécifier le langage à utiliser.
Changeons un peu de niveau. Je veux vous montrer à quel point les LLM peuvent être puissants avec un peu plus d'effort dans la conception des instructions.
@ -285,4 +285,4 @@ Beaucoup mieux, n'est-ce pas? Au fait, j'ai essayé cela plusieurs fois et le sy
Nous continuerons à inclure d'autres exemples d'applications courantes dans cette section du guide.
Dans la section suivante, nous couvrirons des concepts et des techniques d'ingénierie de prompt encore plus avancés pour améliorer les performances sur toutes ces tâches ainsi que sur des tâches plus difficiles.
Dans la section suivante, nous couvrirons des concepts et des techniques d'ingénierie de prompt encore plus avancés pour améliorer les performances sur toutes ces tâches ainsi que sur des tâches plus difficiles.

@ -29,7 +29,7 @@ ToT 完成算 24 的游戏任务要执行广度优先搜索BFS每步思
[这里](https://github.com/princeton-nlp/tree-of-thought-llm)还有[这里](https://github.com/jieyilong/tree-of-thought-puzzle-solver)可以找到代码例子。
从大方向上来看,[Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 和 [Long (2023)](https://arxiv.org/abs/2305.08291) 的核心思路是类似的。两种方法都是以多轮对话搜索树的形式来增强 LLM 解决复杂问题的能力。主要区别在于 [Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 采用了深度优先DFS/广度优先BFS/集束beam搜索而 [Long (2023)](https://arxiv.org/abs/2305.08291) 则提出由强化学习Reinforcement Learning训练出的 “ToT 控制器”ToT Controller来驱动树的搜索策略(宝库什么时候回退和搜索到哪一级回退等等)。深度优先/广度优先/集束搜索是通用搜索策略,并不针对具体问题。相比之下,由强化学习训练出的 ToT 控制器有可能从新的数据集学习或是在自对弈AlphaGo vs. 蛮力搜索)的过程中学习。因此,即使采用的是冻结的 LLM基于强化学习构建的 ToT 系统仍然可以不断进化,学习新的知识。
从大方向上来看,[Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 和 [Long (2023)](https://arxiv.org/abs/2305.08291) 的核心思路是类似的。两种方法都是以多轮对话搜索树的形式来增强 LLM 解决复杂问题的能力。主要区别在于 [Yao et el. (2023)](https://arxiv.org/abs/2305.10601) 采用了深度优先DFS/广度优先BFS/集束beam搜索而 [Long (2023)](https://arxiv.org/abs/2305.08291) 则提出由强化学习Reinforcement Learning训练出的 “ToT 控制器”ToT Controller来驱动树的搜索策略(包括什么时候回退和搜索到哪一级回退等等)。深度优先/广度优先/集束搜索是通用搜索策略,并不针对具体问题。相比之下,由强化学习训练出的 ToT 控制器有可能从新的数据集学习或是在自对弈AlphaGo vs. 蛮力搜索)的过程中学习。因此,即使采用的是冻结的 LLM基于强化学习构建的 ToT 系统仍然可以不断进化,学习新的知识。
[Hulbert (2023)](https://github.com/dave1010/tree-of-thought-prompting) 提出了思维树ToT提示法将 ToT 框架的主要概念概括成了一段简短的提示词,指导 LLM 在一次提示中对中间思维做出评估。ToT 提示词的例子如下:

Loading…
Cancel
Save