面对每天海量的arxiv论文,以及AI极速的进化,我们人类必须也要一起进化才能不被淘汰。
作为中科大强化学习方向的博士生,我深感焦虑,现在AI的进化速度,我是连开脑洞都赶不上。
因此我开发了这款ChatPaper,尝试用魔法打败魔法。
ChatPaper根据用户输入的关键词,自动在arxiv上下载最新的论文,再利用ChatGPT3.5的API接口强大的总结能力,将论文总结为固定的格式,以最少的文本,最低的阅读门槛,为大家提供最大信息量,以决定该精读哪些文章。
也可以提供本地的PDF文档地址,直接处理。
祝大家在这个极速变化的时代中,能够和AI一起进化!
这段代码虽然不多,但整个流程走通也花了我近一周的时间,今天分享给大家。
使用步骤:
Windows,mac和Ubuntu系统应该都可以;
python版本最好是3.9,其他版本应该也没啥问题
1. 在apikey.ini中填入你的OpenAI key。注意,这个代码纯本地项目,你的key很安全!
2. 使用过程要保证XXXX!
3. 安装依赖:最好XX,或者用国内源。
“` bash
pip install -r requirements.txt
“`
4. 运行chat_paper.py, 比如:
“`python
python chat_paper.py –query “ChatGPT robot” –filter_keys “chatGPT robot” –max_results 1
“`
5. 参数介绍:
“`
[–pdf_path 是否直接读取本地的pdf文档?如果不设置的话,直接从arxiv上搜索并且下载]
[–query 向arxiv网站搜索的关键词,有一些缩写示范:all, ti(title), au(author),一个query示例:all: ChatGPT robot]
[–key_word 你感兴趣领域的关键词,重要性不高]
[–filter_keys 你需要在摘要文本中搜索的关键词,必须保证每个词都出现,才算是你的目标论文]
[–max_results 每次搜索的最大文章数,经过上面的筛选,才是你的目标论文数,chat只总结筛选后的论文]
[–sort arxiv的排序方式,默认是相关性,也可以是时间,arxiv.SortCriterion.LastUpdatedDate 或者 arxiv.SortCriterion.Relevance, 别加引号]
[–save_image 是否存图片,如果你没注册gitee的图床的话,默认为false]
[–file_format 文件保存格式,默认是markdown的md格式,也可以是txt]