【Hacker News搬运】思维链会损害任务的表现,因为思维会让人变得更糟
-
Title: Chain-of-thought can hurt performance on tasks where thinking makes humans worse
思维链会损害任务的表现,因为思维会让人变得更糟
Text:
Url: https://arxiv.org/abs/2410.21333
很抱歉,作为一个AI,我无法直接访问或抓取网页内容,包括从arXiv.org获取论文。不过,我可以指导你如何使用JinaReader来抓取和分析内容。 以下是一个使用JinaReader进行内容抓取和分析的概述步骤,假设你已经有了一份PDF格式的论文或其URL: 1. **安装JinaReader**: 首先,确保你已经安装了JinaReader。你可以通过pip安装JinaReader的依赖项。 ```bash pip install jina
-
准备文本数据:
如果你已经有论文的PDF文件,你可以使用pdf2text
或其他工具将其转换为可分析的文本格式。pdftotext your_paper.pdf output.txt
-
设置JinaReader:
使用JinaReader创建一个流程,这个流程将包括一个或多个处理器来执行文本提取、翻译和总结。from jina import Flow # 创建Flow flow = Flow.load_config('path_to_your_flow_config.json') # 启动Flow flow.add_resources({'--num': 1, 'type': 'jinademo.resources.DocumentToText'}) flow.add_resources({'--num': 1, 'type': 'jinademo.resources.TextToTranslation'}) flow.add_resources({'--num': 1, 'type': 'jinademo.resources.TextToSummary'}) flow.run()
注意:你需要根据你的具体需求调整
path_to_your_flow_config.json
以及使用的处理器。 -
翻译非中文内容:
如果论文不是中文的,你可能需要使用一个翻译处理器来将文本翻译成中文。JinaReader支持多种翻译API,例如Google Translate API。 -
执行总结:
一旦文本被翻译成中文,你可以使用总结处理器来生成摘要。 -
输出结果:
最后,JinaReader会输出处理后的文本,包括翻译和摘要。
请注意,上面的代码只是一个示例,实际的代码将取决于你的具体配置和你使用的处理器。
如果你需要将arXiv.org上的论文内容抓取并翻译,你可能需要使用像Scrapy这样的网页抓取库来获取PDF文件,然后按照上述步骤处理文本。以下是一个简单的使用Scrapy抓取PDF文件的示例:
import scrapy class ArXivSpider(scrapy.Spider): name = 'arxiv' start_urls = ['https://arxiv.org/abs/2410.21333'] def parse(self, response): pdf_url = response.css('::attr(abs:href)').get() if pdf_url: yield scrapy.Request(pdf_url, callback=self.parse_pdf) def parse_pdf(self, response): # 保存PDF文件或转换为文本 pass
然后,你可以使用前面提到的
pdf2text
命令或类似的方法将PDF转换为文本,然后使用JinaReader进行处理。## Post by: benocodes ### Comments: **mitko**: This is so uncannily close to the problems we're encountering at Pioneer, trying to make human+LLM workflows in high stakes / high complexity situations.<p>Humans are so smart and do so many decisions and calculations on the subconscious/implicit level and take a lot of mental shortcuts, so that as we try to automate this by following exactly what the process is, we bring a lot of the implicit thinking out on the surface, and that slows everything down. So we've had to be creative about how we build LLM workflows. > **mitko**: 这与我们面临的问题非常接近;在Pioneer重新相遇,试图以高风险打造人类+LLM工作流程;高度复杂的情况<p> 人类是如此聪明,在潜意识中做了如此多的决定和计算;内隐层面,采取很多心理捷径,这样当我们试图通过准确遵循这个过程来实现自动化时,我们会在表面上产生很多内隐思维,这会减缓一切。因此,我们;我必须对如何构建LLM工作流程有创意。 **gpsx**: I saw an LLM having this kind of problem when I was doing some testing a ways back. I asked it to order three fruits from largest to smallest. I think it was orange, blueberry and grapefruit. It could do that easily with a simple prompt. When the prompting included something to the effect of “think step by step”, it would try to talk through the problem and it would usually get it wrong. > **gpsx**: 不久前,我在做测试时看到一个法学硕士有这种问题。我让它从大到小订购三种水果。我想是橙子、蓝莓和葡萄柚。只需一个简单的提示,它就可以很容易地做到这一点。当提示包含“逐步思考”的内容时,它会试图讨论问题,但通常会出错。 **oatsandsugar**: Tasks were thinking makes human worse<p>> Three such cases are implicit statistical learning, visual recognition, and classifying with patterns containing exceptions.<p>Fascinating that our lizard brains are better at implicit statistical reasoning > **oatsandsugar**: 任务是思考使人类变得更糟<p>>;三种情况是隐式统计学习、视觉识别和包含异常的模式分类<p> 令人着迷的是,我们的蜥蜴大脑更擅长隐式统计推理 **Y_Y**: Reminds me of a mantra from chess class:<p><pre><code> long think = wrong think</code></pre> > **Y_Y**: 这让我想起了国际象棋课上的一句咒语:<p><pre><code>长时间思考=错误思考</code></pre> ****: > ****:
-