Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

【问题反馈】使用GitHub Actions下载禁漫本子(新) #91

Open
hect0x7 opened this issue Aug 12, 2023 · 46 comments
Open

【问题反馈】使用GitHub Actions下载禁漫本子(新) #91

hect0x7 opened this issue Aug 12, 2023 · 46 comments

Comments

@hect0x7
Copy link
Owner

hect0x7 commented Aug 12, 2023

✨提Issue注意✨

  • 这个Issue的主题是 使用Github Actions下载禁漫本子
  • 提Issue之前请先爬一些楼层和搜索,雷同的问题不用重复提
  • 和本Issue主题无关的BUG请单独开Issue

✨最新功能提醒✨

之前需要编辑文件提交才能触发Github Actions,现在不需要啦!

@hect0x7 hect0x7 pinned this issue Aug 12, 2023
@hect0x7 hect0x7 added the help wanted Extra attention is needed label Aug 12, 2023
@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 12, 2023

Github Actions过往问题反馈: #2

@jkdfzx
Copy link

jkdfzx commented Aug 15, 2023

image
image
请问下载路径rule这样写哪边问题?
试了下,好像没有依照路径存放

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 15, 2023

image image 请问下载路径rule这样写哪边问题? 试了下,好像没有依照路径存放

我试了下,好像没问题呀?你确定你下载时候用的option是你自定义的option吗?
我看你的输出,好像用的是默认option的Bd_Ptitle.
image

image

@jkdfzx
Copy link

jkdfzx commented Aug 15, 2023

哦,抱歉,是我搞错了,谢谢

@aaaxukun
Copy link

最近用github好像下不了了

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 29, 2023

最近用github好像下不了了

现在可以了,重新fork一下

@hect0x7 hect0x7 changed the title 【问题反馈】使用Github Actions下载禁漫本子(新) 【问题反馈】使用GitHub Actions下载禁漫本子(新) Aug 29, 2023
@aaaxukun
Copy link

谢谢

@hect0x7 hect0x7 unpinned this issue Sep 30, 2023
@aaaxukun
Copy link

aaaxukun commented Nov 3, 2023

最近好像用不了了

@buiawpkgew1
Copy link

最近好像用不了了

好像是这个问题tonquer/JMComic-qt#77

@hect0x7
Copy link
Owner Author

hect0x7 commented Nov 3, 2023

最近好像用不了了

可以用,但你需要重新fork一下我的仓库,你的仓库有点老了,因为option不兼容没法用,重新fork一下就好啦

@hect0x7 hect0x7 removed the help wanted Extra attention is needed label Nov 29, 2023
@jzl543098871

This comment was marked as off-topic.

@jzl543098871

This comment was marked as off-topic.

@jzl543098871

This comment was marked as off-topic.

@hect0x7

This comment was marked as off-topic.

@hect0x7

This comment was marked as off-topic.

@hect0x7

This comment was marked as off-topic.

@hect0x7
Copy link
Owner Author

hect0x7 commented Dec 3, 2023

尝试了一下实例中的“搜索并下载本子” 然后把option的rule修改为'Bd_Aauthor_Atitle'

结果非常奇怪,我用的tag是作者tag'宮元一佐"

123

在输出根目录下给我分出了足足11个子文件夹出来, 我看禁漫网址上作者都是对的“/album/482594/宮元一佐-はーとまーくもっと多め”举个例子,基本都是宮元一佐-(后面是标题或者所属杂志),这是怎么回事呢

最后,提醒一下,你的问题不应该放在这个issue,而应该新开一个issue,这样方便讨论,能让别人参考到你的问题
image

@jzl543098871
Copy link

感谢作者,第一次用issue功能,不知道该不该单独开贴回复就在贴内回了,以后会注意的。
关于结尾还有想讨论的,就单独开了个issue希望大佬有空看一下。

@hect0x7 hect0x7 pinned this issue Apr 29, 2024
@laihen123
Copy link

微信图片_20240807180231
这时什么原因?

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 7, 2024

微信图片_20240807180231
这时什么原因?

你怎么把代码改成这样?重新fork吧

@laihen123
Copy link

我没有改代码呀

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

@laihen123
Copy link

微信截图_20240808110816大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下行动链接

https://github . com/laihen 123/JM comic-Crawler-Python/actions/workflows/download _ dispatch . yml
就是如图片这样直接填写了漫画编号 昨天还能正常下载 今天下载就变成这样了
微信截图_20240808123705

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

提示了这个错误 应该怎么办
<class 'jmcomic.jm_exception.ResponseUnexpectedException'>
请求失败,响应状态码为403,原因为: [ip地区禁止访问/爬虫被识别], URL=[https://18comic.vip/album/552885]
resp: <Response [403]>

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

使用了梯子 也是这样的情况

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

你这里是两个问题吧,一个是github actions的一个是你本地运行的。
github actions暂时用不了,晚点我解决一下。

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

你这里是两个问题吧,一个是github actions的一个是你本地运行的。 github actions暂时用不了,晚点我解决一下。

没用本地运行 都用的github actions 本地项目我不会部署

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

你这里是两个问题吧,一个是github actions的一个是你本地运行的。 github actions暂时用不了,晚点我解决一下。

没用本地运行 都用的github actions 本地项目我不会部署

大佬 本地部署可以出一个稍微详细一点的教程吗? 零基础不太会弄

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

你这里是两个问题吧,一个是github actions的一个是你本地运行的。 github actions暂时用不了,晚点我解决一下。

没用本地运行 都用的github actions 本地项目我不会部署

大佬 本地部署可以出一个稍微详细一点的教程吗? 零基础不太会弄

本地部署就是写python代码,你得先装python,再按本项目的readme的快速上手来。如果你不会python,建议还是等github actions吧,我修完再回复你。

@laihen123
Copy link

微信截图_20240808110816
大佬..为什么每个编码下载下来都是这个大小没有文件呢

说明一下你的触发方式,以及贴一下actions链接

在网页上直接访问这个https://18comic.vip/album/552885 链接是可以正常访问的

你这里是两个问题吧,一个是github actions的一个是你本地运行的。 github actions暂时用不了,晚点我解决一下。

没用本地运行 都用的github actions 本地项目我不会部署

大佬 本地部署可以出一个稍微详细一点的教程吗? 零基础不太会弄

本地部署就是写python代码,你得先装python,再按本项目的readme的快速上手来。如果你不会python,建议还是等github actions吧,我修完再回复你

请教一下是这样吗?
微信截图_20240808183226
我这样运行了 能下载一点点图片 运行10秒钟左右就没有响应了 只能强行结束程序 是什么原因呢?

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

可能是网络原因卡住了

@laihen123
Copy link

可能是网络原因卡住了

那就没办法了 国内国外的网络我都试过了 运行起来都是一样的情况...算了 我还等大佬修复github actions吧 谢谢大佬解惑了

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

可能是网络原因卡住了

那就没办法了 国内国外的网络我都试过了 运行起来都是一样的情况...算了 我还等大佬修复github actions吧 谢谢大佬解惑了

国外的网络是指代理吗,你要把代理设置为系统代理后,再运行代码才会有效。

@laihen123
Copy link

可能是网络原因卡住了

那就没办法了 国内国外的网络我都试过了 运行起来都是一样的情况...算了 我还等大佬修复github actions吧 谢谢大佬解惑了

国外的网络是指代理吗,你要把代理设置为系统代理后,再运行代码才会有效。

我用的V2ray 我运行代理的时候是选择的全局代理 应该跟你指的系统代理是一样的意思吧

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

可能是网络原因卡住了

那就没办法了 国内国外的网络我都试过了 运行起来都是一样的情况...算了 我还等大佬修复github actions吧 谢谢大佬解惑了

国外的网络是指代理吗,你要把代理设置为系统代理后,再运行代码才会有效。

我用的V2ray 我运行代理的时候是选择的全局代理 应该跟你指的系统代理是一样的意思吧

我记得应该不是,v2ray有个自动配置系统代理,要点那个

@laihen123
Copy link

可能是网络原因卡住了

那就没办法了 国内国外的网络我都试过了 运行起来都是一样的情况...算了 我还等大佬修复github actions吧 谢谢大佬解惑了

国外的网络是指代理吗,你要把代理设置为系统代理后,再运行代码才会有效。

我用的V2ray 我运行代理的时候是选择的全局代理 应该跟你指的系统代理是一样的意思吧

我记得应该不是,v2ray有个自动配置系统代理,要点那个
修改了 但是好像没什么效果..还是运行10秒就没有响应了...悲剧

@hect0x7
Copy link
Owner Author

hect0x7 commented Aug 8, 2024

Actions修好了可以用了

@biolxy
Copy link

biolxy commented Sep 4, 2024

  • 爬虫被识别
<class 'jmcomic.jm_exception.ResponseUnexpectedException'>
请求失败,响应状态码为403,原因为: [ip地区禁止访问/爬虫被识别], URL=[https://18comic.vip/album/520592]
resp: <Response [403]>

@hect0x7
Copy link
Owner Author

hect0x7 commented Sep 4, 2024

  • 爬虫被识别
<class 'jmcomic.jm_exception.ResponseUnexpectedException'>
请求失败,响应状态码为403,原因为: [ip地区禁止访问/爬虫被识别], URL=[https://18comic.vip/album/520592]
resp: <Response [403]>

不要使用html

@colabg
Copy link

colabg commented Oct 9, 2024

Run cd ./usage/
Traceback (most recent call last):
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/usage/workflow_export_favorites.py", line 42, in
main()
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/usage/workflow_export_favorites.py", line 38, in main
option.call_all_plugin('main', safe=False)
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 551, in call_all_plugin
raise e
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 546, in call_all_plugin
self.invoke_plugin(pclass, kwargs, extra, pinfo)
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 585, in invoke_plugin
self.handle_plugin_jmcomic_exception(e, pinfo, kwargs, plugin, pclass)
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 625, in handle_plugin_jmcomic_exception
raise e
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 577, in invoke_plugin
plugin.invoke(**kwargs)
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_plugin.py", line 122, in invoke
client = self.option.build_jm_client(impl=impl)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/opt/hostedtoolcache/Python/3.11.10/x64/lib/python3.11/site-packages/common/util/decorator_util.py", line 63, in func_exec
attr = func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 386, in build_jm_client
return self.new_jm_client(**kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_option.py", line 445, in new_jm_client
client: AbstractJmClient = clazz(
^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 32, in init
self.after_init()
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 1007, in after_init
self.ensure_have_cookies()
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 1019, in ensure_have_cookies
self['cookies'] = self.get_cookies()
^^^^^^^^^^^^^^^^^^
File "/opt/hostedtoolcache/Python/3.11.10/x64/lib/python3.11/site-packages/common/util/decorator_util.py", line 63, in func_exec
attr = func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 1023, in get_cookies
resp = self.setting()
^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 807, in setting
resp = self.req_api('/setting')
^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 904, in req_api
resp = self.get(url, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 38, in get
return self.request_with_retry(self.postman.get, url, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
[Previous line repeated 2 more times]
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 127, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index + 1, 0, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
[Previous line repeated 2 more times]
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 127, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index + 1, 0, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 125, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index, retry_count + 1, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
[Previous line repeated 2 more times]
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 127, in request_with_retry
return self.request_with_retry(request, url_backup, domain_index + 1, 0, callback, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 81, in request_with_retry
return self.fallback(request, url, domain_index, retry_count, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_client_impl.py", line 214, in fallback
ExceptionTool.raises(msg, {}, RequestRetryAllFailException)
File "/home/runner/work/JMComic-Crawler-Python/JMComic-Crawler-Python/src/jmcomic/jm_exception.py", line 100, in raises
raise e
jmcomic.jm_exception.RequestRetryAllFailException: 请求重试全部失败: [/setting], ['www.jmeadpoolcdn.one', 'www.jmeadpoolcdn.life', 'www.jmapiproxyxxx.one']
Error: 进程已结束,退出代码为 1.
大佬问一下这样报错怎么处理报错

@hect0x7
Copy link
Owner Author

hect0x7 commented Oct 9, 2024

已修复,重新运行即可

@AntaresD
Copy link

屏幕截图 2024-10-18 160803
大佬,您好,请问为什么只会下载两章?,本项目的readme的快速上手,也是这样的结果,只下载了第一章和最后一章。

@hect0x7
Copy link
Owner Author

hect0x7 commented Oct 18, 2024

屏幕截图 2024-10-18 160803
大佬,您好,请问为什么只会下载两章?,本项目的readme的快速上手,也是这样的结果,只下载了第一章和最后一章。

你看看在不登录jm的情况下,这个本子能看几章

@AntaresD
Copy link

屏幕截图 2024-10-18 160803
大佬,您好,请问为什么只下载两章?,本项目的自述文件很快上手,也是这样的结果,只下载了第一章和最后一章。

你看看在不登录jm的情况下,这个本子能看几章

原来如此,那就需要配置option了,感谢大佬,感激不尽!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

9 participants