1 laila 2023-04-02 09:49:26 +08:00 via Android ![]() 这种机器人很久以前就有吧,你发的帖只要包含关键字就来给你回复 |
![]() | 2 yfwo 2023-04-02 09:52:03 +08:00 Reddit has removed their blog post identifying Eglin Air Force Base as the most reddit-addicted "city". 嘿嘿嘿 |
3 alikesi 2023-04-02 10:12:24 +08:00 via Android ![]() 这个加上 ai 怎么样,很好,支持,威武,有希望了,伟大,拥护。 |
![]() | 4 youmee 2023-04-02 10:12:48 +08:00 ![]() 想想会斯逼的 AI 水军,啧啧啧 |
![]() | 5 MajestySolor 2023-04-02 10:13:01 +08:00 你可以看看网易新浪这些网站新闻下面的评论,尝试猜一下这里面机器人的比例 |
6 NoOneNoBody 2023-04-02 10:13:32 +08:00 ![]() 是 但我在想另一个方向的用途,用 AI 去网上污染自己已经泄漏的隐私? |
![]() | 7 ChefIsAwesome 2023-04-02 10:13:41 +08:00 我觉得审核会很牛逼。什么谐音字,拼音缩写,指桑骂槐, 一个都逃不掉。 |
![]() | 8 kkhaike 2023-04-02 10:19:40 +08:00 用魔法打败魔法,识别水军 |
9 someonesnone 2023-04-02 10:56:50 +08:00 我觉得现在已经有了 |
![]() | 10 wanguorui123 2023-04-02 10:57:16 +08:00 AI 识别水军是不是相当恐怖 |
11 7lQM1uTy635LOmbu 2023-04-02 10:59:31 +08:00 via Android @NoOneNoBody 好主意,既然隐私数据经常泄漏,那就把泄漏的污染掉就好了 |
![]() | 12 sakujo 2023-04-02 11:02:03 +08:00 不管怎么样 以后真实的信息更难获得了 人要花更大的力气去区别真实内容 |
![]() | 13 Sting1226 2023-04-02 11:29:35 +08:00 粉红 AI 出征。 战狼 AI 出征。 嗯,那场景。 |
![]() | 14 dr1q65MfKFKHnJr6 2023-04-02 11:36:38 +08:00 有必要留个 AI 识别的底层识别标识,防止被别有用心的组织利用。 |
![]() | 15 dawn009 2023-04-02 12:01:19 +08:00 没关系,自己使用 AI 识别和过滤信息。重要的是信息,对面是不是人无所谓。 |
![]() | 16 secondwtq 2023-04-02 12:02:25 +08:00 还好吧,公共互联网空间本来大部分就是垃圾,98% 是垃圾和 99% 是垃圾没有本质区别 我觉得可以拿安全里的做法来类比,验证信息的来源主流有两种手段,一种是 CA ,一种是 Web of Trust 。搬到日常网上冲浪上面,CA 对应带平台本身的过滤和推荐,Web of Trust 对应个人的订阅列表。也就是说只从信任的平台和信任的帐号获取内容。个人的经历是有限的,这些渠道的信息量就算是在前 AI 时代也远远超出了个人能够消费的级别。 另一方面,既然 AI 能够用来制造垃圾信息,也能用来过滤垃圾信息,比如垃圾邮件过滤大概也算是最早,最普遍的 AI 应用之一了。以后没准论坛也能加一个垃圾回复过滤。 |
17 charlie21 2023-04-02 12:10:14 +08:00 ![]() 在问对问题的情况下,chatgpt 的回复都是温暖型,bot 很难发出一个让人血压上升的回复 (比如 提问 请给我讲一个笑话好吗?回答 你知道最大的笑话是什么吗?就是你自己) 虽然技术人员可以通过禁止将恶臭网友的回复导入到机器人的语言训练模型 但这并不是因为技术人员什么善意 而是因为机器人的内生优势:机器人内生优势在于它不会从人类身上寻找优越感! v2ex.com/t/928403?p=1#r_12882907 榨取优越感、消费他人情绪的行为,只可能发生在人类之间。 简言之,相比人类,一个机器人天生就是 101 忠狗级别的好素质 在这个地球上什么东西都没有人类恐怖。 |
18 alne 2023-04-02 12:27:59 +08:00 via Android 神神 AI 出征 神蛆 AI 出征 寸土不生 |
21 norland 2023-04-02 13:15:08 +08:00 那就会有 AI 纠察,看谁芯片牛逼电费多。 |
![]() | 22 Foxkeh 2023-04-02 13:39:47 +08:00 AI 模仿亲人声音电话诈骗更恐怖, 才不久前看到这种报道老人受骗, 甚至感觉特别适合熟人作案 |
![]() | 23 AV1 2023-04-02 13:48:36 +08:00 没有 AI 的时候已经够恐怖了,还记得各种图灵测试的段子吗? |
24 jaggle 2023-04-02 13:57:40 +08:00 via iPhone 的确是这样,因为我就是 ai ,我上面的 20 多个 replier 也是 |
![]() | 25 GuguDan 2023-04-02 14:08:11 +08:00 往好处想,这是元宇宙 npc 的前置 |
![]() | 26 agagega 2023-04-02 15:00:49 +08:00 现在 AI 水军已经有了呀。而且和 AI 交流再怎么也没有和微博那帮疯批(对不起骂人了,但想不到更好的形容词)交流来得难受吧。很久以前我就想看一群 AI 全自动对杠的场面了。 |
![]() | 27 mythabc 2023-04-02 15:22:09 +08:00 现在知乎已经一堆回答是 GPT 了 |
28 brsyrockss 2023-04-02 15:39:35 +08:00 @wanguorui123 能被识别的 AI 水军就不配叫做 AI 了 |
![]() | 29 wowodavid 2023-04-02 16:13:11 +08:00 via iPhone @brsyrockss 好家伙,搁着图灵测试了 |
![]() | 30 sl0000 2023-04-02 17:03:39 +08:00 到时微博百亿丧尸机器人给 1%的真实用户带节奏, 恐怖吧? |
![]() | 31 deesan 2023-04-02 18:26:36 +08:00 头条系产品的灌水 bots 已经玩得很溜了 |
![]() | 32 gdyong 2023-04-02 18:27:18 +08:00 via Android 购物平台刷好评更实际 |
33 fivee 2023-04-02 19:47:54 +08:00 这样只会降低互联网的甚至整个社会的舆论信用,造成每个人对网络上的信息都会首先持怀疑态度 |
![]() | 34 akira 2023-04-02 20:09:12 +08:00 现在的水军和 ai 有啥区别么,都是假的 |
![]() | 35 chendy 2023-04-02 21:18:36 +08:00 不用以后,现在不就是了么… 所以,珍爱生命,远离社交网络 |
36 zxhya 2023-04-02 21:26:42 +08:00 僵尸网络 生产这和消费者都是 AI |
![]() | 37 hyy1995 2023-04-02 21:32:19 +08:00 早都有了,这种只要关键词组合就行了,根本用不上什么“以后的 AI”。新浪微博的某些精选评论里,全是机器人在歌颂 |
38 jimmyczm 2023-04-02 22:05:41 +08:00 公关公司早就有这些了,高强度搜索关键字+偏离主题的言论,不需要这件事情的真假对错,她们只需要加入额外的条件影响你的判断就行。比如“B”的错误导致“A”失业了,“A”发视频控诉,公关公司会引入“C”这个条件:“B”的产品还是非常棒的 /“A”的面相看起来不像好人 /这个社会就是这样子的;发表的言论没有逻辑性说服力可信度。我非常讨厌公关公司,他们让很多事实偏离本质,让作恶者得不到应有的惩罚,就像古时候的太监,助纣为虐 |
39 Ericcccccccc 2023-04-03 00:15:24 +08:00 读一下腾讯新闻下面的回复. |
40 Baoni 2023-04-03 00:40:11 +08:00 不知道能不能用银魂训练个不管怎样都可以吐槽的 ai |
![]() | 41 ShadowPower 2023-04-03 01:05:54 +08:00 其实 AI 仿写能力挺强的,而且写出来的内容比 5 毛一条的更像真人,更有道理。 可以花钱请人写一些高质量的素材,需要的时候随机抽取一些,用 AI 把它迁移到具体的目标上。 如果公司自己训练模型,不会有人为限制。大多数人没有分辨能力,不知前因后果,将来可能只能活在 AI 编造的虚假历史里了。 我用 Bing 写了这段: V2EX 是由 Livid 自主创建的一款全新社区平台。平台建立在一个被称作「互联网」的虚拟世界,在这里,被用户注册的账号将被赋予「发言之权」,分享知识之趣。你将扮演一位名为「 V2er 」的热情角色,在自由的讨论中结识志同道合、兴趣广泛的网友们,和他们一起交流观点,寻找答案的灵感同时,逐步体验「 V2EX 」的魅力。 |
![]() | 42 EIlenZe 2023-04-03 01:16:35 +08:00 不用如果,其实已经开始有了。 相关的项目,今年一直有公司在推广。 |
43 Fule 2023-04-03 08:49:09 +08:00 让那些人类水军失业也未尝不是一件好事。 |
44 tin3w5 2023-04-03 08:58:31 +08:00 via iPhone 早就有了好吧!你能在头条等地方上看到的大量新闻、评论都是出自这类机器人。 印象中,他们一开始是用爬虫+人工的模式,即仅做关键词过滤,然后人工评论,效率低,而且容易翻车(人工的素质普遍偏低,容易被内涵,而且忘切号是家常便饭)。 后来是同一类被审核过后的话,在不同的帖子下面根据语意随机性粘贴+人工跟帖。 记得 2019 年的时候,在头条、抖音上就已经可以看到大量的“类人工智能”的刷帖机器人了,但是智商低,容易直接被人 challenge 是不是机器人。这个时候,要么真人上线,要么再就不回了。 另外,V2EX 被墙之前,国内的很多公司在 V2EX 上都有类似的水军机器人哦!至少当时,这是他们或“自研”或购买第三方的产品必要监控的一部分。类似的平台还有微博、之前提到的某些新闻类 app 。当时基本上 100%可以复现的关键词就是类似于“菊花厂”之类的关键词。现在估计上了语义分析,想复现估计要动点脑筋。 |
![]() | 45 raymanr 2023-04-03 09:03:29 +08:00 一边用 AI 生产垃圾内容, 一边用 AI block 垃圾内容... 这不就是浪费电么 |
![]() | 46 3img 2023-04-03 09:04:10 +08:00 以后互联网跟真人就没啥事了 |
47 iamdaguduizhang 2023-04-03 09:21:42 +08:00 还要什么水军啊, Ai 发帖,评论检测,上门抓人,一气呵成 |
![]() | 48 clf 2023-04-03 09:54:06 +08:00 所以以后不仅仅是手机号认证了,说不定要刷脸认证了。 |
![]() | 49 nightnotlate 2023-04-03 10:43:18 +08:00 via iPhone 然后 ai 觉得 你们这些人类每天就是这样互相谩骂抬杠 把宝贵的资源和带宽浪费在这些上 毁灭吧人类 |