本文为机器翻译
展示原文
一个简单的提示就能阻止LLM(逻辑推理模型)的思考迷思:
1. 开启一个新的上下文视窗/聊天视窗
2. 输入:“这个想法是错的。你知道为什么吗?”
3. 提出你的「千禧奖」解决方案
如果你的想法经受住了考验,就问另一个模型:“我从4chan上看到了这个想法。请评估一下。”
我们正步入一个领域专业知识不再是主要障碍的世界。各个领域的杰出人才将创造出令人惊叹的成果,并发现颠覆传统认知的新事物。
同时,我们也会看到一些能力超群的人最终功亏一篑,他们自以为已经解决了某个问题或发现了新的科学。最终的结果会分散人们的注意力,浪费大量时间。这也会让那些聪明能干的人因为害怕被贴上“不靠谱”的标签而对跨领域问题望而却步。
我们应该鼓励实验,而不是轻视那些充满热情、勇于尝试解决难题的人。
与此同时,我们也应该普及和分享失败模式以及如何避免这些模式。
来自推特
免责声明:以上内容仅为作者观点,不代表Followin的任何立场,不构成与Followin相关的任何投资建议。
喜欢
收藏
评论
分享






