前几天midjourney的生产工具我自认为达到了一个不错的效率,大概3小时中断一次,然而月末时突然恶化为30分钟左右就断了。在好几次测试中断后,我觉得可能要换个平台了,另一方面我在想究竟是哪里出了问题导致频繁的中断呢,于是笔记本下载了一个captura同时买了另一个midjourney生产工具。另一个版本的工具有个优点是它是网页,它不会像先前那个版本莫名其妙强退,目前为止从没有强退过。在实战中发现这玩意儿能自动检测频次,5分钟内发起/imagine /blend基本会失败驳回,但这不会打断midjourney auto python,最后我在captura的录像中观察到问题出在了/blend /imagine命令输入后需要有一定时间等待sleep(10)左右,之前我是直接连着回车键有时候可能是网络原因来不及加载出命令,这会导致回车空砍从而还没出图片输入框就发动了点击图片输入框的动作请求(如下图,由于blend命令回车没起做用,图片输入框没出来接着去点击点到了临近的图片,再接着图片地址就跑到地址栏去了,后续全部崩塌),从而导致后面的逻辑全部崩塌。在修改这里的sleep等待后,目前验证10几小时都没出现过崩塌。
from bs4 import BeautifulSoup import requests import os from selenium import webdriver from selenium.webdriver.chrome.service import Service from selenium.webdriver.common.by import By from selenium.webdriver.common.keys import Keys from selenium.webdriver.common.action_chains import ActionChains from selenium.webdriver.chrome.options import Options from webdriver_manager.chrome import ChromeDriverManager import time import undetected_chromedriver as uc
# 下载图片 for link in links: img_url = link.get_attribute('href') if img_url: print(f"Downloading from: {img_url}") # 输出正在下载的URL # 下载图片 img_data = requests.get(img_url).content img_name = os.path.join(download_directory, os.path.basename(img_url.split("?")[0])) withopen(img_name, 'wb') as img_file: img_file.write(img_data) print(f"Downloaded: {img_name}") else: print("No valid href found for this link.")
评论