通用网站内容爬虫抓取工具,可批量抓取任意站点的小说、论坛内容等并保存为TXT文档
http://m.funvwu.com/ 这个网址的下载不下来,如果可以希望能更新,谢谢。
.chapterList>ul>li>a>>let href=item.href.replace(/.*goChapter\((\d+)\)/,"/noval/"+localStorage.booklist+"/$1.html");item.href=href;return item;
打开目录页,输入自定义下载
好的谢谢!
QingJ © 2025
镜像随时可能失效,请加Q群300939539或关注我们的公众号极客氢云获取最新地址
http://m.funvwu.com/ 这个网址的下载不下来,如果可以希望能更新,谢谢。