Я паршу сайт через asyncio, паршу 1000 элементов. Массив, по которому прохожу циклом, разбил на 50 массивов (20 элементов в каждом), чтобы на каждый массив выделить свое прокси (не стал вставлять часть кода с прокси, думаю это не играет роли)
Парсит в основном за 3-4 секунды, но иногда один рандомный элемент парсится более 50 секунд и выдает ошибку: Expecting value: line 1 column 1 (char 0)
В массив res заносится в итоге 998-999 элементов из 1000
В чем может быть проблема и как это можно решить? Костыли также приветствуются
Python:
res = []
async def x_get(session, t: str):
url = f'url...{t}'
async with session.get(url, ssl=False) as resp:
resp_json = await resp.json(content_type=None)
res.append(resp_json)
async def x_scraper():
# 50 массивов по 20 элементов
items = [['1', '2', '...'], ['1', '2', '...'], ['1', '2', '...'], ...]
async with aiohttp.ClientSession() as session:
tasks = []
for item in items:
for t in item:
task = asyncio.create_task(x_get(session, t))
tasks.append(task)
try:
await asyncio.gather(*tasks)
except Exception as ex:
print(ex)
Парсит в основном за 3-4 секунды, но иногда один рандомный элемент парсится более 50 секунд и выдает ошибку: Expecting value: line 1 column 1 (char 0)
В массив res заносится в итоге 998-999 элементов из 1000
В чем может быть проблема и как это можно решить? Костыли также приветствуются