feedly有https就是不给你用,这是什么心态,还自动跳到其他订阅,然后就被墙了 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ejin
0.01D
V2EX    问与答

feedly有https就是不给你用,这是什么心态,还自动跳到其他订阅,然后就被墙了

  •  
  •   ejin 2013 年 7 月 7 日 8654 次点击
    这是一个创建于 4591 天前的主题,其中的信息可能已经有所发展或是发生改变。
    feedly的https何意?www域名有https,cloud.feedly.com又没有,有什么用嘛,防止账号被劫持?劫持你cloud.feedly.com的cookie照样可以劫持你账号

    还有,如果你点击标记所有为已读,好吧,你无法想象,你在吃饭的时候看着it新闻,点击一下之后,自动跳到了1024的订阅里,看到那满屏的裸女,保证你立刻就没有了食欲。

    可能是我人品不好吧,这样的情况没有遇到,但是总是给我自动跳转到被墙的网站订阅上,比如youtube。于是打不开了。

    也可能是我的怪癖吧,默认还是希望显示已读的内容,但是它不是,貌似还没地方设置,要一个个订阅选择显示已读的条目。对于有100+订阅的人来说,这太蛋疼了。

    好吧这只是个吐槽贴
    28 条回复    1970-01-01 08:00:00 +08:00
    horsley
        1
    horsley  
       2013 年 7 月 7 日
    小小的推荐一下Slickreader
    有HTTPS,可以直接看已读内容,体验不错的说
    aku
        2
    aku  
       2013 年 7 月 7 日
    用inoreader吧
    feedly
    newsblur
    the oldreader
    digg
    AOL reader
    都只能看最近的
    怒了,这算什么RSS?
    现在免费的一个一个试过去,就inorerader能看到以前的(6年前),也支持https,可以关掉社交,可以导进google-reader-take-out数据


    好吧,这是愤怒的吐槽

    btw 收费的feedbin怎么样?有人有过吗?
    aku
        3
    aku  
       2013 年 7 月 7 日
    @horsley silkreader的rss条目能上溯到多久以前?
    另外,我看到newsbur的页面跟它好像啊。
    wozzl
        4
    wozzl  
       2013 年 7 月 7 日 via Android
    theoldreader其实不错,不过它竟然连PC版和安卓版恩不能同步…无语
    wozzl
        5
    wozzl  
       2013 年 7 月 7 日 via Android
    其他几个都是在PC上各种慢,真心没有完美的
    ejin
        6
    ejin  
    OP
       2013 年 7 月 7 日
    @horsley 导入中。

    @aku 那不是他们的错哎,毕竟人家刚开始,也只能获取现在的啊,只能获取存下来,人家有几年的肯定是以前存下来的,或者是从别的阅读器导来的。这不是阅读器的错啊 - -!!!
    aku
        7
    aku  
       2013 年 7 月 7 日
    @ejin https://yoleoreader.com/
    这个只是一个女生搞得也能上溯到几年前啊。
    不过据hacker news, 好象是个女博士
    wjchen
        8
    wjchen  
       2013 年 7 月 7 日
    @aku 除非是那种做了很多年的,不然应该是导入了google reader的数据吧。
    而且这样极消耗硬盘空间。
    ejin
        9
    ejin  
    OP
       2013 年 7 月 7 日
    @aku rss本身只会提供10条20条50条,你只能获取到这么多,人家也只提供这么多,你怎么获取几年前的?一个个网站采集去?不懂不要乱说好么。

    那些有几年前的,要么是几年前自己就存在,慢慢积累起来的,要么通过api从别的阅读器,比如google reader,但是这样获取的话,数据量会很大,api必然也有限制,慢了你又嫌弃,总之就是那回事了。
    ejin
        10
    ejin  
    OP
       2013 年 7 月 7 日
    @wjchen 没错,极其消耗硬盘不说,还没几个人会去看,谁没事去翻几年前的老文章呢
    aku
        11
    aku  
       2013 年 7 月 7 日
    @ejin rss的xml的确只是记录了几十条item
    google reader 出现在2005年。
    2005之前的条目是怎么抓取的呢?
    google reader 之类的不可能完全依赖rss,肯定还用了爬虫。
    google reader本来就不是一个真正纯的rss reader,更像是一个archiver
    作为google reader 的代替,feedly就购买了大量服务器,如果只是纯粹的抓取rss,根本不必如此。


    想必用google reader的人中,把它当作archiver的不只我一个吧。至于数据量大的问题,不是我们用户该操心的。数据量再大,也不会比搜索引擎的cache大。


    另外,这些代替品中,有的甚至连2月份的都显示不出来。对一个google reader的代替品,这样也满足的话,要求未免也太低了。

    若只是rss阅读器,我肯定不会提这样的要求。

    另外,动辄说别人不懂,容易破坏讨论的氛围,还是不要这样吧。。。
    wjchen
        12
    wjchen  
       2013 年 7 月 7 日
    @aku 可以肯定https://yoleoreader.com/不是对网页爬虫,而是用了google reader的数据。
    我找了个只有我一人订阅的rss,去这个网站试了试,并没有看到以前的数据。
    而且哪来这么多文章需要archive,真正有价值的加下星标,其他rss应该能导入加星标的条目。
    Do
        13
    Do  
       2013 年 7 月 7 日 via iPhone
    cloud.feedly.com也有https,但是回强制跳转回http,满屏裸女是因为你订阅了1024吧,feedly回自己跳转回已读条目。
    现在看来digg和feedly根本不靠谱!
    ejin
        14
    ejin  
    OP
       2013 年 7 月 7 日
    @aku google说的很清楚了,因为付出了太多的资源,而得到的用户太少,这还不明白为什么么

    一个用户,比如我,有个几G的内容很正常,但是我一般只看一次就丢在那不会再看了,但是它又必须保存下来,更有甚者比如你,还要更多!连阅读器运营之前的数据你都要!

    还有其他情况,有的人有10个订阅,有的可能有100个,google也说了,有很大量的订阅,是只有一个用户,我的订阅里有一些条目,就是只有我一个用户的,不管我是否登录,几个月不来,google却要每天帮我去抓取,一天还要去很多次,这要多少资源?抓取了还要帮我存好,源站有多大数据他就要为我存多少数据,甚至我根本不会去使用,10年前订阅的数据,我会去看?但是他却要时刻准备着!

    而我却不用为此花一分钱,而google却付出了太多的资源,包括宽带,计算机运算、存储都是要钱的。

    现在google终于受不了了,走了,很多人还说google作恶了等等。

    现在出现了很多替代品,但是又怎样,替代品就要有google有的全部数据?拥有google的强大的功能,宽带?存储?运算?全是钱啊,连拥有这么多服务器的google都受不了了,谁受得了?你受得了?那为什么你自己不去搞一个,而在到处找呢?

    凡事应该替别人想想,不要成天被媒体给玩了,媒体为什么爱吹,因为只有炒作,才会有人看,才会有人喷,广告才卖得出去。
    aku
        15
    aku  
       2013 年 7 月 7 日
    @wjchen 哦,yoleoreader.com,我用一个只有我订阅的rss试了一下,只显示最近的。然后我用了一个订阅多一些的rss,xml只有最新的十几条,yoleoreader.com能显示到2006年。这么说,应该是部分用了爬虫。有可能使用了google reader的数据,但是不可能全部爬下来,我个人的google reader的数据(不是google-take-out)爬下来就有1G多。应该是有的只是读取rss的xml里有的,有的还用爬虫抓取额外的。

    archive的精妙在于,在你需要的时候,能够拿到文章。加星只是标记。但是有的文章已经消失了,甚至网站都没了,而archive却还能让你拿到文章。

    真正需要archive的文章肯定不多。这么多年,加星条目整理后我还有几千条。
    我不知道其中多少加星条目,现在还能在网上找到。如果是在google reader里,我不必担心它们会消失。但是转移到其他阅读器,有多少还会有效,我不乐观。也许我能看到的,只是一张加星列表。

    现在,我如果想把文章加星,我还会把它share 到pocket。这样会有内容的备份。真正重要的,会存为pdf,加入个人知识备份。

    真正重要的东西丢失了,即使数量不多,心里多少还是会纠结的。
    wjchen
        16
    wjchen  
       2013 年 7 月 7 日
    @aku google takeout导出的压缩包里,里面的starred.json既有url,也有内容。
    难道各种rss阅读器不能导入?那做得太差了。。。
    aku
        17
    aku  
       2013 年 7 月 7 日   2
    @ejin 对google reader所做的,我很感激。大量消耗服务器资源才能做到,而这正是google reader难以代替的地方。但是这恰恰是google的优势所在,google 搜索 的爬虫其实能完成这一切。若非搜索引擎提供商,做rss阅读的话,要么只用rss抓取不足;要么投入大量资源抓取,最后可能亏损倒闭。

    其实google给出的理由,我还是觉得太牵强。即使关闭google reader,google search engine对网页的抓取索引和cache依旧不会停止。而google reader所做的与此并无什么区别。两者的功能很多地方是重叠的。

    不过最后,还是感谢google这些年来的服务。毕竟,这么多家搜索引擎提供商中,只有google提供了reader
    aku
        18
    aku  
       2013 年 7 月 7 日
    @wjchen 有的只能上传subscriptions.xml
    inoreader可以导入整个take-out,应该能看到加星条目内容。
    jeeson
        19
    jeeson  
       2013 年 7 月 7 日
    @wjchen takeout 数据的导入要考虑一个问题 -- 篡改

    同一篇文章很可能有多个用户收藏,如果导入,是每个用户都导入一条记录还是大家用一个数据?

    feed, 文章项目 这些资源通常是公共的,如果某篇文章的第一个用户把经过修改的数据导入,就会导致后来的用户阅读到的是被篡改的数据。
    chainkhoo
        20
    chainkhoo  
       2013 年 7 月 8 日 via iPad
    feedbin还不错 在国内环境下稳定性比feedly好得多 而且默认是ssl
    不过很多人推荐的都是fever 据说已经是rss的巅峰了
    j1945
        21
    j1945  
       2013 年 7 月 8 日
    我只是来看看楼主啥时候分享1024的订阅地址的,以前有个小号专门订阅了GR里有人分享的1024订阅大合集,然后就闲置了,有没有不是网盘分享直接挂ed2k或者megnet或者种子可以RSS直接订阅的。
    nVic
        22
    nVic  
       2013 年 7 月 8 日 via iPad
    RSS仅仅是rss,你想把它当作evernote也可以,但是你又想免费又想无限存储,那就没办法。
    ejin
        23
    ejin  
    OP
       2013 年 7 月 8 日
    @j1945 其实不是1024,是maya的bt合集而已,说成1024比较容易理解,也属于网盘吧,应该是maya自己的站,你要是去过就知道
    yautou
        24
    yautou  
       2013 年 7 月 8 日
    尼玛一路看下来终于还是歪楼了。。。
    ejin
        25
    ejin  
    OP
       2013 年 7 月 8 日
    @yautou 吐槽贴,只是变成大家一起吐槽而已
    cml10101
        26
    cml10101  
       2013 年 8 月 11 日
    你好,我登陆feedly时域名那里也是显示loud.feedly.com,登陆等待一会后google页面上就显示空白了,再没有反应,你是怎么弄得啊?feedly在我电脑上不能用了吗?
    ejin
        27
    ejin  
    OP
       2013 年 8 月 12 日   2
    @cml10101 feedly进去后会访问一个网址里带有*feedly.blogspot.com*的网址。屏蔽就可以了,不然一直会被墙中断掉。用去广告的插件,加个规则*feedly.blogspot.com*
    cml10101
        28
    cml10101  
       2013 年 8 月 12 日
    @ejin 菜鸟表示还是不会弄啊,我再学学吧
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2345 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 32ms UTC 09:26 PVG 17:26 LAX 01:26 JFK 04:26
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86