首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
推荐学习书目
›
Learn Python the Hard Way
Python Sites
›
PyPI
- Python Package Index
›
http://diveintopython.org/toc/index.html
›
Pocoo
值得关注的项目
›
PyPy
›
Celery
›
Jinja2
›
Read the Docs
›
gevent
›
pyenv
›
virtualenv
›
Stackless Python
›
Beautiful Soup
›
结巴中文分词
›
Green Unicorn
›
Sentry
›
Shovel
›
Pyflakes
›
pytest
Python 编程
›
pep8 Checker
Styles
›
PEP 8
›
Google Python Style Guide
›
Code Style from The Hitchhiker's Guide
V2EX
›
Python
推特上好康的太多了,想保存下来。
punny
·
262 天前
· 2954 次点击
这是一个创建于 262 天前的主题,其中的信息可能已经有所发展或是发生改变。
想写一个爬虫,来每天爬取我账号 like 过的推文,包括文字,图片视频等,将他保存在本地。 我想知道是否可以实现,并且是否有现成的项目,或者是否困难。
推特
爬虫
保存
8 条回复
•
2024-05-14 14:21:29 +08:00
1
k7262140
261 天前
hitomi_downloader 只能图片和视频
2
NanJi
261 天前
有什么好的,介绍几个啊
3
man2vec
261 天前
让 ChatGPT 写,不到半小时就能搞定。
就是下视频比较麻烦,yt-dlp 应该能搞定。
4
vczyh
261 天前
每日大作战?
5
lisxour
261 天前
1
你说的都可以实现,问题出在请求频率限制,现在 twitter 的请求频率限制得很死,爬虫的话三两下就超了,得冲会员,才能解锁更大的限制
6
xingheng
261 天前
https://github.com/python-cli/twitter-cli
不知道还能不能用
7
vangjing
261 天前
1
试试这个?
https://github.com/MiningCattiva/x-spider
8
alwaysol
261 天前
少看点,伤肾
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
2099 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 35ms ·
UTC 13:51
·
PVG 21:51
·
LAX 05:51
·
JFK 08:51
Developed with
CodeLauncher
♥ Do have faith in what you're doing.