V2EX Yingruoyuan 的所有回复 第 1 页 / 共 2 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    Yingruoyuan    全部回复第 1 页 / 共 2 页
回复总数  26
1  2  
@thet,好的,了解,我重新看了下 prometheus 的使用文档,这些功能应该都可以通过在 exporter 中增加对应的 http 或者 api 的服务实现,不需要去改动源码,谢谢哈

@Qetesh,zabbix 我没有用过不太熟悉,说的不对还望指正哈,看了下文档和网上推荐的教程,好像 zabbix 在监控不同的数据库 driver 的时候需要不同的前端展示方案来配合,(比如 Oracle 用了 pyora,mysql 用的自带的 Template DB MySQL 模板,PostgreSQL 有用 libzbxpgsql 模板或者 pg_monz 模板的)有统一可以实现的方案吗?如果想扩展实现一些健康巡查的功能,可以通过他的 web 扩展那些模块实现吗?

@so1n,嗯嗯,我正打算先写些 http 的服务来实现功能模块,看下能否通过接入 exporter 来满足健康巡检的功能需求,谢谢哈


感谢各位的建议!
@thet ,如果想对 Prometheus 做二次开发,加些自己的功能进去,(比如对数据库做些健康巡查等)会比较容易实现吗?
2017 年 12 月 7 日
回复了 nannanziyu 创建的主题 分享创造 Mac 开源工具 - 截图并通过在线 OCR API 识别文字
支持楼主,请问下楼主,我想弄个 python 版的练练手,但没有 swift 和 oc 基础,看懂你这个项目大概需要多久?
@NaVient,这个蛮有用的,我试下,谢谢!
@dreamcracker @bfbd @demen,谢谢
@zjsxwc 这是种方法,我等下试下
@dcty,我找了下这些目录下,没有对方发过来的图片,难道是手机端不能同时登陆的原因?
@rebeccaMyKid 谢谢,思路很有帮助;
只是我用的是 sqlarchemy 来插入到 mysql 里面,如果写入到文件里,在爬取结束之后我还是要导入到数据库的,所以在性能可以承受的情况下,直接导入可能会更省事些
@1130335361 @knightdf @seven2016,谢谢各位解惑!
我找到原因了,我的问题是因为我自己写的 sqlarchemy 的 models 模块和 scrapy 的 items.py 冲突了,pipelines 里面用 models 代替了 item,所以会出现混乱的无法找到指定的 pipeline 来进行对应操作;
解决方法是在 pipelines 中只保留一个 spider 对应一个 pipelines,这个 spider 的所有数据输出都经过这一个 pipeline 来处理,然后把各个 items 加入 pipelines.py 中,再利用 item.__class__做判断是哪一种 item 数据类型,来决定插入哪张表就可以解决了
@1130335361 有指定呢,在 settings.py 里面和 spider 的 custom_settings = { 'ITEM_PIPELINES':{}}里都指定了呢,但是输出数据的时候会只输出到了一张表里,比如商品信息和店铺信息都写在了商品表里面
@knightdf 我又 google 了一些资料,但是越看越迷糊了;
生成了 item 之后,yield 传递到 pipeline,在 pipelines.py 我定义了多个 class 来处理不同的数据,但我在 spider 里面获取到数据后该怎么让对应的 pipeline 来处理呢?
@seven2016 我有定义 item 及 pipeline 来对应不同的表结构,但是不明白在 spider 中把指定的数据输入到指定的表中?我现在遇到了所有的数据都输入到一张表中,另外一张表没有数据输入的现象
@knightdf ,可以一个 spider 抓取多个 pipeline 的数据吗?因为涉及到关联的对应关系,想一起抓下来
用 python 脚本并发控制,然后把脚本放在 crontab 里
2017 年 6 月 23 日
回复了 prasanta 创建的主题 Python 新书< Python 后端接口开发>目录预览
看目录介绍挺全面系统的,只是不知道内容怎样,期待楼主作品
@tianshuang 谢谢;
找到方法了:
```
i=0
auth = oss2.Auth('您的 AccessKeyId', '您的 AccessKeySecret')
bucket = oss2.Bucket(auth, '您的 Endpoint', '您的 Bucket 名')
for b in islice(oss2.ObjectIterator(bucket), 10):
print(b.key)
i += 1
print(i)
```
2017 年 6 月 5 日
回复了 Yingruoyuan 创建的主题 Python scrapy 下载图片到 4w 张左右总是会卡住
@all,
感谢各位提供帮助,问题应该还是出在内存上,由于我是可以直接拿到那几十万的 url 的,这些请求会进入到在 scrapy 的请求队列中,占用内存,直至最后服务器内存不够 down 掉;
我在网上查了下资料,scrapy 的调度器来控制队列,但是似乎不 hack 源码没有办法控制调度器对队列的操作;
最后我的解决方法是在数据库就把数据切片,切成 2w 套循环,就不会出现内存不够的问题了;
希望后来的大神有更优雅的方法可以指教。我会持续关注这个问题
2017 年 6 月 4 日
回复了 Yingruoyuan 创建的主题 Python scrapy 下载图片到 4w 张左右总是会卡住
@Yc1992 好的,谢谢,我去检查下 io
@zsz 谢谢
2017 年 6 月 4 日
回复了 Yingruoyuan 创建的主题 Python scrapy 下载图片到 4w 张左右总是会卡住
@litter123 我对 netstat 命令不大熟悉,可以给个提示应该怎么查看 scrapy 的异常连接吗?
@Yc1992 哦,这种情况,我以前没有遇到过,请教下这种情况是怎么去 debug 呢?
2017 年 6 月 3 日
回复了 Yingruoyuan 创建的主题 Python scrapy 下载图片到 4w 张左右总是会卡住
@rabbbit 刚才是我看错了,CONCURRENT_REQUESTS 默认的是 16 个,我尝试了把 RETRY_ENABLED = False,并且缩短了 download_timeout,但是并没有明显改善,但是我发现虽然 top 监控的内存占用率并没有提高,但是在卡住的那段时间里,输入命令等会变得很卡,我在找是不是和服务器性能哪里有关的原因导致的
2017 年 6 月 3 日
回复了 Yingruoyuan 创建的主题 Python scrapy 下载图片到 4w 张左右总是会卡住
@Yc1992 我是在空目录下重新下载的,img_url 里一般也不会有重复的

@ooh 是的,是用的继承 ImagesPipeline 的方法
@rabbbit DOWNLOAD_TIMEOUT = 30,CONCURRENT_REQUESTS 这个用的默认的,应该是 8 个吧
@hcymk2 谢谢,是我看 post 方法的时候没看仔细,修改为:
```
params = {
'testid': testid,
'testvalue': testvalue,
'token': token,
}
resp = requests.post(url=url, json=json.dumps(params), headers=headers)
```
就可以了
1  2  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     4264 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 25ms UTC 01:25 PVG 09:25 LAX 17:25 JFK 20:25
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86