- A->B做得很好,B->A却不行
- 有些东西可以在 engineering 上外部补偿,有些本质的东西不行
- 因此,场景很重要。有些场景,大模型就是做不好(跳跃思维->next token prediction、批判性思维-> world modle、利他思维 -> prediction 会放弃很多答案,哪些答案是对人最有用的)
- 根据 transformer 的结构特性:自回归模型是不断将预测的词补充进上下文,然后再去预测下一个词。只要给它足够多的 context ,它就会预测精准的结果。
-
信息不重要,如何解读信息,形成有价值的观点
-
过往ML:需要“喂”,之后“模仿”,基于的是“对应关系”
-
ChatGPT:需要“教”,之后“懂”,基于的是“内在逻辑”